El mapamundi de una regulación atravesada | Inteligencia Artificial

“El gigante chino está usando la IA como elemento de cohesión social”, observa Raquel Jorge, investigadora del Real Instituto Elcano. “Lo que han hecho es introducirla en el sector público: escuelas, hospitales, guarderías”. Es una apartada vía de control.

“Parte de la normativa se asocia a esa obligación comunitaria (evitar la discriminación, respeto a la propiedad intelectual, impedir el terrorismo o sistemas que generen daños físicos y psicológicos), sin embargo, exige que se reflejen los valores promovidos por el Estado y prohíben crear contenidos que afecten a los intereses o la imagen nacional”, desgrana Juan Carlos Hernández Peña, profesor y analista del Instituto de Ciencia de los Datos e Inteligencia Artificial, Datai, de la Universidad de Navarra. En el nuevo coloso hay 1.200 empresas ─acorde con Steve Freedman, director de sostenibilidad en la gestora Pictet AM─ dedicadas a la IA y han firmado 326.000 patentes. Por encima de las 306.000 de EE UU. Y la grieta carece de fondo comparada con la vieja Europa: Alemania, Francia y Reino Unido suman solo 30.000.

Google se comprometió a indemnizar a los clientes que sufran infracciones de derechos de autor en la utilización de sus productos de IA generativa

China ha ido desarrollando su propia normativa. En 2022 aprobó el Internet Information Service Algorithmic Recommendation Management Regulations (ISARM). Pero que las palabras no tapen el bosque. Exige registrar los algoritmos vinculados con la opinión pública y controlar la difusión de información que pueda considerar dañina. Al año siguiente introdujo la Deep Synthesis Regulation ─recuerda Juan Carlos Hernández Peña─ para prohibir el uso de deepfakes y a la vez publicó la Generative AI Regulation con el fin de controlar los chatbots basados en ChatGPT.

Presión de las grandes tecnológicas en EE UU

La situación ha llevado al enfrentamiento directo entre China y EE UU, que, más allá de los cálculos de la consultora McKinsey (esta tecnología podría añadir el equivalente a entre 2,3 y 4,3 billones de euros anuales en ganancias de productividad a la economía mundial), afecta a la seguridad de la nación. Apenas se conoce, “pero ningún ciudadano estadounidense con un cargo ejecutivo y de relevancia puede trabajar en una compañía europea o China dedicada a la IA”, revela Raquel Jorge.

Regular este espacio ha cogido a EE UU “distraído” entre sus enfrentamientos geopolíticos, las declaraciones de algunos grandes ejecutivos de las Big Tech frente al Congreso y la pelea política en ambas Cámaras. Ante la dificultad de un consenso republicano-demócrata, el presidente, Joe Biden, ha acudido a una vieja ley (1950-1953) de los años de la guerra de Corea. En octubre de 2023, cobijándose en la Defense Production Act, redactó una orden ejecutiva que fijó “una profusa responsabilidad a sus agencias federales para desarrollar políticas públicas que alineen la IA con los derechos fundamentales, protejan la salud pública o establezcan estándares de ciberseguridad”, relata Peña. La orden, claro, durará lo que se mantenga la legislatura. En noviembre hay elecciones presidenciales.

La Unión Europea aprueba una regulación garantista y enfrenta el riesgo de que esa protección de los derechos lastre la innovación y, por tanto, la competitividad de su IA.
La Unión Europea aprueba una regulación garantista y enfrenta el riesgo de que esa protección de los derechos lastre la innovación y, por tanto, la competitividad de su IA.Oliver Helbig (Getty Images)

En un país federal, California sí que se muestra preocupada, por eso dio el plácet a la Assembly Bill 302. Estableció la obligación de efectuar un inventario de los sistemas IA de alto riesgo que adopten decisiones automatizadas relativas a vivienda, educación, salud y justicia. Nadie se fía de nadie. Incluso los cofundadores de OpenAI han pedido un equivalente al Organismo Internacional de la Energía Atómica (IAE, por sus siglas en inglés) con el fin de inspeccionar sus sistemas, cumplir normas de seguridad e imponer restricciones. Mientras, Google se comprometió a indemnizar a los clientes que sufran infracciones de derechos de autor en la utilización de sus productos de IA generativa.

Europa, entre la regulación y la competitividad

Al otro lado del Océano, Europa ha creado la primera Ley de Inteligencia Artificial, que debe estar lista en primavera. Al tiempo, España, ultima su Agencia Estatal de Supervisión de Inteligencia Artificial (AESIA). La normativa europea puede eliminar ambigüedades (Italia prohibió, temporalmente, el 20 de marzo pasado, ChatGPT) y acelerar su desarrollo.

La nueva regulación europea fija estándares de seguridad y derechos fundamentales que eviten que esta tecnología se use con fines represivos, de manipulación o discriminatorios, pero sin que la regulación sea tan abrumadora que frene la competitividad de la Unión Europea. Un complejo equilibrio. La IA tendrá requisitos más estrictos mientras los modelos menos potentes continuarán con una legislación más laxa. Las obligaciones impuestas a los agentes potencialmente sistémicos se basan, sobre todo, en la evaluación y supervisión del riesgo y se completan con un código de conducta voluntario. El reconocimiento facial en tiempo real solo se permite para prevenir ataques terroristas o en personas sospechosas de haber cometido crímenes. Las compañías tendrán que obedecer la normativa europea.


Las leyes en EE UU podrían orientarse al beneficio económico de la IA para mantener el liderazgo tecnológico de sus compañías, que a su vez se traduce en poder geopolítico frente a rivales como China

También habrá reglas específicas para los modelos primigenios, en los que se basan sistemas como ChatGPT o DALL-E. Jurídicamente es un acuerdo marco y tendrá que desarrollarse por las Autoridades de Supervisión de la IA de cada Estado miembro y por la Oficina Europa de la IA, que depende de la Comisión Europa. El organismo se encargará de supervisar la aplicación de la norma y podrá imponer sanciones. Ese equilibrio resulta básico, sobre todo si se quiere competir ahí fuera.

Asimetría global

O quizás podría ser un referente para otras regiones. En Iberoamérica, “la Carta Iberoamericana de Principios y Derechos en los Entornos Digitales constituye uno de los logros más significativos en posicionamiento político de amplio alcance y del más alto nivel en cuanto a transformación digital”, resume Juan Alejandro Kawabata, director de Asuntos Jurídicos e Institucionales de la Secretaría General Iberoamericana (SEGIB). Las palabras que recogen ese texto asumen que las tecnologías emergentes, como la IA, suponen retos y riesgos que deben abordarse garantizando el derecho de las personas.

Pero la región carece de una legislación compartida. En América Latina y el Caribe, solo Brasil, Colombia, Chile y Perú poseen una estrategia nacional de IA, según fuentes del CEPAL, Comisión Económica para América Latina y el Caribe. El 55% de las políticas hablan de esta tecnología desde la ética, la gobernanza y la privacidad. Es una normativa humanista. Brasil, Colombia, Chile y Perú han definido el mercado regulatorio más avanzado de la región.

Brasil cuenta con leyes vigentes de protección de datos y delitos informáticos y seguridad. Tramita un anteproyecto de ley para regular la IA; la situación colombiana es análoga a la brasileña, aunque le falta una mirada a la nueva inteligencia; Perú ha aprobado leyes en la protección de datos y ciberseguridad, pero, también, tiene pendiente la IA; y Chile cuenta con una ley de delitos informáticos, ciberseguridad y proyectos de regulación específica en esa tecnología. El mapa sigue incompleto: faltan Argentina, México, Costa Rica o Uruguay. Adolecen de antecedes o casos de experimentación regulatoria para el uso de la IA. Solo el 3% de las empresas de estas tecnologías son de la región.

Asia es la otra cara de la moneda: “Los beneficiarios inmediatos serán las economías con mayor involucración en el desarrollo de la IA, por ejemplo, Japón [61.000 patentes], Corea del Sur [junto con Taiwán, los líderes de la industria de semiconductores], Europa y Reino Unido”, sintetiza David Page, el responsable de Macro Research en AXA Investment Managers.

Corea del Sur ha ido evolucionando desde 2020 su normativa y el 19 de febrero pasado, la Asamblea del país propuso una ley que regula el uso de la IA de las empresas y a la vez crea un marco de comportamiento. Un texto con eco europeo. Singapur también tiene otro desde 2020 que fija límites a la gobernanza de la tecnología. Pero no son leyes específicas. Piensan en la competitividad global. Japón y los Emiratos Árabes replican la misma idea. Un marco, pero no una rígida normativa.

Faltan naciones importantes, qué ocurre en Australia, India, Rusia o Arabia Saudí. Son geografías fragmentadas. Ninguna, según McKinsey y la OCDE, tiene una legislación de IA con la ambición y el eco de la europea.

Deixe um comentário