En 2019, se cometió en Hungría el primer delito con ayuda de inteligencia artificial (IA), al realizar un robot programado la simulación de la voz de un CEO para solicitar un depósito urgente de 243.000 euros entre una empresa eléctrica y un proveedor que efectivamente se realizó.

La inteligencia artificial -considerada en términos generales como cualquier comportamiento similar al humano mostrado por una máquina o sistema- está cada vez más presente en nuestras vidas y relaciones sociales. 

Los expertos en esta tecnología distinguen entre machine learning, que mediante algoritmos dota a los ordenadores de la capacidad de identificar patrones en datos masivos para elaborar predicciones, y el deep learning, que entrena a la computadora para que aprenda por cuenta propia reconociendo pautas mediante el uso de muchas capas de procesamiento permitiendo rectificar la programación errónea. Fundamenta su actividad en comportamientos no tan predecibles

Con la tecnología machine learning las responsabilidades civil y penal recaerían sobre el posible autor, localizable entre la cadena de los responsables de su creación (propietario, programador, cuidador…). Legalmente las máquinas con IA que ocasionan daño carecen de personalidad jurídica y no se les puede aplicar responsabilidad penal.

El deep learning o aprendizaje profundo es la versión 4.0 del machine learning considerándose una evolución sofisticada del aprendizaje automático de esta última tecnología. Se caracteriza por simular un sistema inspirado en redes neuronales del cerebro humano. 

NUEVA RESPONSABILIDAD

El problema surge cuando se utilizan ordenadores o robots que funcionan con software de deep learning, que ya pueden llegar a tomar decisiones autónomas distintas de lo programado inicialmente. Cada vez está más cerca la posibilidad de que máquinas conformadas por IA puedan causar daños a intereses dignos de tutela penal como la vida o el orden económico.

La combinación de ciencia y tecnología está planteando situaciones muy complejas en lo que respecta a su calificación jurídica. La incorporación de material vivo a máquinas está demostrando que se podría acabar dotando a los robots de algo parecido a inteligencia humana sin que sus decisiones se derivasen exclusivamente en los algoritmos sino que esta máquina pudiera tomar decisiones razonadas. 

Los jueces se enfrentan a la dificultad de aplicar la responsabilidad civil y penal de las personas físicas y jurídicas a los sistemas independientes que funciona con deep learning y con capacidad para tomar decisiones sin intervención humana.  

Para el caso de un robot delincuente, actualmente se podría aplicar el art. 129 del Código Penal que permite imponer penas accesorias en los delitos cometidos por medio de organizaciones, grupos o cualquier otra clase de entidades que carecen de personalidad jurídica como son el decomiso, la prohibición de uso o incluso su destrucción. 

Si hace años era impensable la responsabilidad penal de las empresas, no puede negarse que en el futuro exista una responsabilidad robótica.

REGULACIÓN NORMATIVA

En España, el art. 23 de la Ley 15/2022 Integral para la Igualdad de Trato y la No Discriminación contiene la primera regulación positiva del uso de la inteligencia artificial por las Administraciones Públicas y las empresas en nuestro país.

Sin embargo, se trata de una regulación programática con carácter voluntarista, que diseña unas grandes líneas de actuación de las Administraciones Públicas para “favorecer”, “promover” y “priorizar” determinadas políticas y prácticas relacionadas con el uso de “algoritmos involucrados en la toma de decisiones”.

En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la IA, las Administraciones Públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio.

La Comisión Europea está planteando una serie de iniciativas para sentar las bases que establezcan un conjunto normativo propio que regule todo lo que tenga que ver con la IA y entre las propuestas se baraja dotar a los robots de personalidad jurídica.

Por su parte, el Parlamento Europeo está elaborando un reglamento para establecer normas armonizadas sobre inteligencia artificial. El objetivo es buscar un equilibrio entre la protección de derechos y el apoyo a una tecnología que es pilar de la economía digital. El borrador propone un sistema de niveles de riesgo para distintos usos de la IA (el nivel de riesgo más alto estaría prohibido), así como distintos requisitos de transparencia en los algoritmos y la supervisión humana de los mismos.

Es necesario conocer los instrumentos que el derecho pone a disposición de abogados y juristas para afrontar unos sistemas de IA y robots que actúan de forma autónoma y pueden llegar a cometer un delito.