La inteligencia artificial supone, sin duda alguna, un cambio de paradigma. Plantea retos jurídicos, sociales y éticos que deben ser abordados a la hora de diseñar la normativa que regule su uso, con el fin de garantizar el orden social, económico y ético de nuestra sociedad.
Desde el punto de vista legal, las cuestiones que más preocupan se centran en asuntos tan relevantes como la responsabilidad por daños, la privacidad, la ciberseguridad, la propiedad intelectual o la ética. Y es que una de las bases fundamentales de la IA es el procesamiento de grandes volúmenes de datos a través de técnicas como el deep learning y el uso de redes neuronales que funcionan como las conexiones biológicas del cerebro humano y pueden imitar nuestras capacidades cognitivas.
En este contexto, la Comisión Europea, consciente de las oportunidades de esta tecnología, pero también de sus riesgos como la opacidad en la toma de decisiones, las discriminaciones de género o de otros tipos, la intromisión en nuestras vidas privadas o su uso con fines delictivos, presentó, ya en el año 2018, la Estrategia Europea para la IA, cuyo objetivo es promover una tecnología confiable en Europa. En este marco, el Parlamento Europeo aprobó el 13 de marzo de 2024 el texto de la primera norma mundial integral en la materia (Reglamento IA), el cual será de aplicación directa en los Estados miembros y más allá de las fronteras de la Unión Europea (UE).
No es la única norma que la regula, pero sí la única en el mundo en abordarla de manera integral poniendo el foco en los riesgos que sus usos conllevan para los derechos fundamentales y los valores de la UE.
El Reglamento IA regula la entrada en el mercado y el uso de soluciones IA que atenten contra los derechos fundamentales y valores de la UE. Así, por ejemplo, prohíbe la entrada en el mercado y el uso en la UE de soluciones que permitan manipular el comportamiento de personas o grupos vulnerables específicos; por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños. La UE ha vetado también la puesta en circulación y el uso de sistemas de puntuación social, como la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales, que generarían sociedades distópicas indeseables.
Así mismo, a diferencia de otros países como China, se prohíbe oportunamente el uso de sistemas de identificación biométrica en tiempo real y a distancia como el reconocimiento facial (con determinadas excepciones), que producirían una injerencia en la privacidad y los derechos fundamentales. Se entiende que estos usos violan los derechos fundamentales, los valores y los principios éticos de la UE y por ello se prohíben.
Pone barreras infranqueables cuando los usos de la IA son contrarios a la democracia y al sistema de valores de la UE, además exige controles a fabricantes y usuarios de herramientas que pueden suponer riesgos para la salud y los derechos fundamentales
Por otro lado, se imponen obligaciones para los fabricantes, distribuidores, importadores y responsables del despliegue (usuarios) de los sistemas que, si bien, podrían suponer un riesgo para los ciudadanos europeos, se permiten siempre y cuando, cada uno de los operadores que participan en la cadena de suministro del sistema IA para su puesta en marcha y uso en Europa cumplan con los requisitos y medidas que permitirán mitigar dichos riesgos de manera controlada. En los casos de riesgo alto, las imposiciones obligatorias son elevadas. Los fabricantes o responsables del despliegue tendrán que hacer una evaluación de riesgos e implementar las medidas mitigadoras.
Un ejemplo de sistema de riesgo alto sería aquéllos que sean utilizados para los procesos de selección de personal. Entre otras medidas, se obliga a que exista supervisión humana (man in the loop). Con esta medida se evita que los algoritmos de selección reproduzcan, mediante el aprendizaje de patrones históricos, sesgos humanos. Hace ya unos años, una gran empresa utilizó en EE UU una herramienta IA para esta tarea y, como resultado, solo contrataba a hombres blancos porque había aprendido que el mayor porcentaje de decisiones de esa compañía en los diez últimos años concluía en la contratación de hombres blancos, discriminando a las mujeres y personas de color.
En el extremo más bajo de la pirámide estarían las herramientas de IA cuyo uso suponen un riesgo mínimo para las personas. Este es el caso de los chatbots o las ultrafalsificaciones (deep fakes), para los cuales se imponen, entre otros, unos requisitos mínimos en materia de transparencia.
La UE busca con este sistema preservar su liderazgo tecnológico y garantizar, a su vez, que los europeos puedan confiar en una IA respetuosa de los valores, los derechos fundamentales y los principios de la UE.
Sin embargo, junto con el Reglamento IA será también necesario revisar otras normas que deberán adaptarse a los nuevos escenarios que planteará la IA. Así, por ejemplo, ocurre con la normativa sobre responsabilidad por los daños causados por productos defectuosos, en cuya revisión la Unión Europea está ya trabajando.
Otros retos jurídicos que plantean estas herramientas son los relacionados con la propiedad intelectual. De un lado, por la posible infracción de derechos que puede suponer el aprendizaje de los algoritmos para producir resultados (outputs) mediante la extracción y minería de una cantidad ingente de datos, si estos no han sido utilizados con el consentimiento oportuno del titular de los mismos o su uso no puede ampararse en alguna excepción legal.
De otro lado, teniendo en cuenta que el sistema de derechos de propiedad intelectual se basa en la atribución de autoría de una obra por el hecho de haber sido creada por una persona física, se hace difícil atribuir esa autoría sobre aquellos resultados producidos por una máquina o un algoritmo. Es este un debate interesante que es objeto de litigios en países como Reino Unido y EE UU.
En definitiva, el Reglamento IA establece los límites sobre el uso de IA en la Unión, pone barreras infranqueables cuando los usos son contrarios a la democracia y al sistema de valores de la UE, además exige controles a los fabricantes y usuarios de herramientas IA que pueden suponer riesgos para la salud y los derechos fundamentales de los europeos.
No es trivial, pero esto no ha hecho más que empezar. Iremos modernizando nuestro sistema normativo en función de las nuevas realidades, operativas y riesgos que la IA nos va a plantear. A la velocidad con la que están evolucionando estos sistemas, el peligro radica en que el Reglamento IA se nos quede obsoleto en un corto espacio de tiempo.