Sewell Setzer, de 14 años, se suicidó el pasado febrero tras enamorarse de un personaje creado por inteligencia artificial en la plataforma Character.AI, según la demanda de la familia del adolescente contra la compañía. El fallecido Paul Mohney nunca entró en combate ni Olena Zelenska, esposa del presidente de Ucrania, se ha comprado un Bugatti Turbillon. Pero la información falsa, creada con ayuda de la inteligencia artificial (IA), se ha difundido con la intención de ganar dinero fácil con la publicidad en páginas de obituarios o para generar propaganda rusa. Una limpiadora de colegios Edimburgo, con una familia monoparental de dos hijos, se quedó sin sus prestaciones como muchas otras mujeres en sus circunstancias, por un sesgo de la inteligencia artificial del sistema. A un cliente de una plataforma de pago, el algoritmo le advirtió de una transacción que nunca existió, una demanda cuestiona la seguridad de un vehículo por un supuesto error de programación y miles de usuarios ven utilizados sus datos sin consentimiento. Al final de la cadena de inteligencia artificial hay personas, pero la responsabilidad sobre los daños que puede causar en ellas no está del todo definida. “Aquí encontramos un vacío legislativo alarmante”, advierte Cecilia Danesi, codirectora del máster en Gobernanza ética de la IA (UPSA)y autora de Derechos del consumidor en la encrucijada de la inteligencia artificial (Dykinson, 2024).
Hacer dinero con la muerte de extraños. Es fácil y barato con la inteligencia artificial, aunque sea a costa de difundir falsedades que aumentan el dolor de los familiares de los fallecidos. Se realiza a través de páginas de obituarios donde la IA elabora una información sobre el finado con datos reales o inventados, como la historia militar de Mohney, para ganar tráfico y, por tanto, ingresos por publicidad. “Hay una estrategia completamente nueva que se basa en obtener información de alguien que ha muerto, ver que hay un pequeño aumento en el tráfico, aunque sea en una zona particular, y publicar rápidamente artículos sobre la persona para obtener estos goteos de tráfico”, explica el experto en mecanismos de búsqueda Chris Silver Smith a Fastcompany.
Información falsa y deepfakes pornográficos. La página AI Incidents recoge mes a mes decenas de alertas de incidentes generados por la inteligencia artificial o casos de abusos y ya lleva identificadas más de 800 reclamaciones. En uno de sus últimos registros, incluye información falsa sobre el intento de asesinato de Donald Trump, la candidata demócrata a la presidencia de EE UU, Kamala Harris, o sobre imágenes pornográficas falsas y realistas (deepfakes) de políticas británicas. El temor a los efectos de estas creaciones y su viralización en procesos democráticos aumenta y el 31 % de los europeos cree que la IA ya ha influido en sus decisiones de voto, según una encuesta para el European Tech Insights Report 2024, desarrollado por el Center for the Governance of Change (CGC) de IE University.
“La inquietud de la ciudadanía por el papel de la IA en el desarrollo de las elecciones es cada vez mayor. Y, si bien aún no hay pruebas evidentes de que haya provocado alteraciones sustanciales de sus resultados, la irrupción de la IA ha aumentado la preocupación por la desinformación y la tecnología deepfake en todo el mundo”, señala Carlos Luca de Tena, director ejecutivo de CGC.
“En la creación de un video o una imagen falsos con IA generativa está claro que la IA es un medio, una herramienta, por lo que la responsabilidad será del creador. El problema principal es que en la mayoría de los casos es imposible identificarlo. El caso de las pornfake [imágenes falsas de contenido pornográfico], por ejemplo, impacta directo en la brecha de género ya que las plataformas te incentivan a usarlas con imágenes de mujeres. Al tener más cantidad de fotos de este género, se vuelven más precisas con nuestros cuerpos y el resultado es la mayor marginalización y estigmatización de las mujeres. Por ello, en la era de la desinformación y de la cultura de la cancelación, es sumamente importante la educación y que como usuarios hagamos el doble check [doble comprobación] de cada contenido que vemos y, sobre todo, verificarlo antes de interactuar con él”, explica Danesi.
La investigadora, integrante de Women for Ethical in AI de la UNESCO y coautora del informe presentado en el G20 Brasil sobre auditorías algorítmicas, añade, en relación con los efectos de la desinformación: “Un algoritmo puede tener un doble rol: uno para la creación de una noticia falsa a través de la IA generativa y otro, mediante los motores de búsqueda o los algoritmos de las redes sociales que viralizan el contenido falso. En este segundo caso, es claro que no podemos exigirles a las plataformas que verifiquen cada contenido que se publica. Es materialmente imposible”.
Discriminación automática. Entre las denuncias por disfunciones de la IA también figura una por la inclusión de un sesgo que perjudica a familias monoparentales (en un 90% formadas por mujeres) en un sistema de prestaciones escocés. “Si bien el Reglamento de IA tiene diversas disposiciones para evitar sesgos (especialmente en lo que concierne a los requisitos que deben cumplir los sistemas de alto riesgo), al no regular cuestiones atenientes la responsabilidad civil no contribuye a que la víctima reciba una indemnización. Lo mismo sucede con la Ley de Servicios Digitales que impone determinadas obligaciones de transparencia para las plataformas digitales”, explica Danesi.
Producto defectuoso. La página de incidentes con la IA recoge un caso judicial abierto por un posible defecto en la programación de un vehículo que podría afectar a la seguridad. En este sentido, la investigadora detalla: “En lo que respecta a la reforma de la Directiva sobre Productos Defectuosos, se queda a mitad camino también. El problema radica en los tipos de daños que podrán ser reclamados al amparo de la norma, ya que no incluye por ejemplo los daños morales. Los ataques a la intimidad o la discriminación quedan excluidos del amparo de la Directiva”.
Estos casos demuestran, a juicio de Danesi, que una de las áreas del Derecho que necesitan una pronta atención por la llegada de la IA es la de la responsabilidad civil. “Porque los consumidores estamos sumamente expuestos a los daños que pueden ocasionar. Si no tenemos normas claras de cómo proceder frente a esos daños, las personas quedan desprotegidas. Pero, además, normas claras en materia de responsabilidad civil brindan seguridad jurídica, fomentan la innovación y, en caso de que se produzca un hecho dañoso, incentivan la celebración de un acuerdo. Esto se debe a que, al saber las empresas de antemano las reglas del juego en materia de responsabilidad, deciden dónde y en qué invertir con mayor certeza acerca del escenario en el que trabajaran”, argumenta.
Hay iniciativas en el ámbito europeo que intentan abordar la cuestión, según explica la investigadora, como el Reglamento de Inteligencia Artificial, la Ley de Servicios Digitales (que establece medidas que afectan a los algoritmos de las plataformas digitales, redes sociales, motores de búsqueda, etcétera), la propuesta de Directiva sobre responsabilidad en materia de IA y la inminente reforma de la Directiva sobre productos defectuosos.
“Esa Directiva había quedado obsoleta. Se discutía incluso si era aplicable o no a los sistemas de IA, puesto que la definición de producto estaba basada en algo más bien físico y no digital. La modificación incluye una ampliación del concepto de producto ya que incluye a los archivos de fabricación digital y los programas informáticos. El foco de la norma está puesto en la protección del individuo, con lo cual, con acierto resulta irrelevante si el daño se produce por un producto físico o digital”, explica.