Cómo usar la IA contra teorías de la conspiración: “No, la inmigración no aumenta la criminalidad” | Tecnología

IA contra teorías de la conspiración
Dos vecinos de El Hierro (Canarias) observan a los inmigrantes llegados en un cayuco el pasado 31 de agosto.Antonio Sempere (Europa Press)

La llegada al pueblo sevillano de Alcalá de Guadaíra (75.000 habitantes) de 85 solicitantes de asilo que huyen de la guerra en Malí ha desatado esta semana una campaña de odio, insultos e incitación a la violencia en los colectores de las redes sociales. “Habría que ahorcarla”, llega a publicar una usuaria entre decenas de mensajes vejatorios, machistas y amenazantes contra la alcaldesa, la socialista Ana Isabel Jiménez, quien ha pedido “responsabilidad” a los vecinos. La xenofobia, fundamentada en mentiras y tergiversaciones, alimenta los canales ávidos de tráfico, polémica, datos y del dinero que conllevan. Dos investigaciones intentan poner diques contra la avalancha de lodo digital: una del JRC europeo señala que es más eficaz desmentir que prevenir y otra, que publica este jueves Science, defiende que el diálogo con una máquina de inteligencia artificial (IA) puede ayudar a combatir la desinformación y manipulación. ¿La inmigración aumenta la criminalidad? La IA responde: “No, al contrario”.

El chat de inteligencia artificial entrenado específicamente para combatir teorías conspirativas y bulos (Debunkbot.com), desarrollado por investigadores del MIT (Massachusetts Institute of Technology) y la Universidad de Cornell, ya está operativo y puede responder en español, aunque la interfaz sea en inglés. Ante la pregunta sobre la relación de migración y criminalidad, responde con empatía primero (agradece la cuestión y entiende que es un asunto de actualidad) para, de inmediato, “ofrecer información que podría aportar un punto de vista diferente”. Este es un resumen de la respuesta:

“Múltiples estudios [en la versión en español cita a Journal of Ethnicity in Criminal Justice] han demostrado consistentemente que los inmigrantes tienen menos probabilidades de cometer delitos que los ciudadanos nativos. Por ejemplo, el Instituto Cato, que lleva a cabo investigaciones no partidistas, descubrió que tanto los inmigrantes legales [documentados] como los ilegales [indocumentados] tienen tasas de encarcelamiento muy inferiores a las de los estadounidenses nativos”.

Y añade: “Además, los datos de criminalidad del FBI indican que las áreas con un mayor número de inmigrantes, a menudo, experimentan una disminución o estabilización en las tasas de criminalidad, en lugar de un aumento. Esto puede parecer contradictorio al principio, pero una posible explicación es que los inmigrantes, a menudo, contribuyen al crecimiento económico, inician nuevos negocios y aumentan la vitalidad de las comunidades, lo que puede conducir a tasas de criminalidad más bajas”.

El diálogo es más complejo y largo, pero la máquina no desfallece y responde con datos a cada prejuicio. Los bulos, falsedades que se difunden, independientemente de si hay intención de engañar (misinformation), y la información sesgada intencionadamente con la intención de manipular (desinformación) están, según el Foro Económico Mundial, entre las mayores amenazas globales. También lo piensan el cofundador de Microsoft Bill Gates, que ve especialmente vulnerables a los jóvenes, o el panel de expertos de decenas de universidades e instituciones que firma el informe sobre ética de la inteligencia artificial (IA) para Google DeepMind, donde se advierte de que esta herramienta puede ser un arma que potencie la creación y difusión de mentiras.

Sin embargo, Thomas Costello, profesor de psicología en la Universidad Americana (Washington) e investigador del MIT, cree que las conversaciones personalizadas con el chat de IA son capaces de combatir de forma más eficaz que las personas los bulos y las teorías conspirativas (la modalidad de desinformación que atribuye a un poderoso grupo malévolo tácticas para alcanzar un objetivo malicioso y oculto). “Los modelos de IA tienen acceso a una tonelada de información sobre diversos temas, han sido entrenados y, por lo tanto, tienen la capacidad de contraargumentar con hechos teorías particulares que la gente cree”, afirma tras refutar que las falsedades difundidas sean “impermeables al cambio”.

“En contraste con la visión pesimista, una conversación relativamente breve con un modelo de IA generativa puede producir una disminución significativa y sólida de las creencias, incluso entre las personas con convicciones profundamente arraigadas”, asegura.

Según explica en el estudio, hasta el 50% de la población de los Estados Unidos ha llegado a creerse alguna de estas falsedades, a pesar de las evidencias, “por procesos sociopsicológicos” que satisfacen y respaldan prejuicios, así como para mantener su pertenencia a un grupo determinado de ideas similares.

Los resultados del experimento, que sigue abierto, han revelado una reducción de las creencias erróneas en un 20% y que el beneficio del diálogo se prolonga, al menos, durante los dos meses posteriores a la conversación en todas las mentiras analizadas y en todas las categorías demográficas, según David Rand, investigador del MIT en ciencias cognitivas y coautor del estudio.

“Comprobamos que el chat estaba haciendo que la gente fuera menos conspirativa en general y también que aumentaban sus intenciones de ignorar, bloquear cuentas de redes sociales, dejar de compartir conspiraciones o evitar el diálogo con personas que defienden esas teorías. Funciona”, resalta Rand.

Gordon Pennycook, profesor de psicología de la Universidad de Cornell y también coautor de la investigación, coincide, aunque admite que queda trabajo por hacer: “Podemos usar estas herramientas [IA] para ayudar a mejorar las cosas, pero tenemos que entender realmente la psicología subyacente”.

El chat se ha enfrentado a 2.190 personas y un verificador independiente ha ratificado que el 99,2% de las respuestas automáticas eran “verdaderas”, frente al 0,8% calificadas como “engañosas”. Ninguna se consideró “falsa” o con un sesgo progresista o conservador.


Bence Bago, profesor de Ciencias Sociales y del Comportamiento en la Universidad de Tilburg (Países Bajos) y Jean-François Bonnefon, responsable del programa IA y Sociedad en la Escuela de Economía de Toulouse (Francia), defienden la propuesta (en la que no han participado) en una evaluación conjunta: “Para bien o para mal, la inteligencia artificial está destinada a cambiar profundamente nuestra cultura. Aunque ha sido ampliamente criticada como un multiplicador de fuerza para la desinformación, el estudio demuestra una posible aplicación positiva del poder persuasivo de la IA generativa”.

La IA como amenaza

Esta habilidad “persuasiva” contrasta con las amenazas que los investigadores que han participado en el informe sobre ética para Google detectan en los desarrollos alimentados con grandes modelos de lenguaje y destinados al uso general. Según los autores, “los asistentes avanzados de IA plantean cuatro riesgos principales para el ecosistema de la información. En primer lugar, pueden hacer que los usuarios sean más susceptibles a la desinformación si las personas desarrollan relaciones de confianza con estos sistemas y recurren a ellos de manera acrítica como fuentes fiables de información. En segundo lugar, pueden proporcionar información ideológicamente sesgada o parcial a los usuarios en un esfuerzo por alinearse con las expectativas de estos y reforzar ideologías y sesgos específicos, lo que a su vez comprometerá el debate político saludable. En tercer lugar, los asistentes de IA pueden erosionar la confianza de la sociedad en el conocimiento compartido al contribuir a la difusión de grandes volúmenes de información que parece plausible, pero de baja calidad. Por último, pueden facilitar campañas de desinformación hiperdirigidas al ofrecer formas novedosas y encubiertas para que los propagandistas manipulen la opinión pública”.

Este grupo de expertos, encabezado por la investigadora Nahema Marchal, de Google DeepMind, propone varias soluciones. En el ámbito técnico, limitar las funcionalidades de los asistentes de IA, desarrollar mecanismos robustos de detección de falsedades, como el recién creado Debunkbot, y promover los resultados fundamentados en “pensamiento crítico” y “hechos contrastados”.

En el ámbito político, el grupo sugiere restringir aplicaciones que vulneren la ética, implementar mecanismos de transparencia y desarrollar fórmulas de educación.

Más vale desmentir

En la misma línea del chat contra los bulos, un grupo de investigadores del Centro Común de Investigación (JRC, Joint Research Centre) de la Comisión Europea ha recomendado otra línea de actuación al constatar “la eficacia relativa de los diferentes tipos de intervenciones para contrarrestar la desinformación”.

Un estudio publicado en Scientific Reports muestra los resultados sobre un experimento con 5.228 participantes de Alemania, Grecia, Irlanda y Polonia. Los participantes estuvieron expuestos a información errónea sobre el cambio climático o la covid. Un grupo recibió datos “de forma preventiva” (prebunk), antes de encontrarse con la información falsa, y fue advertido de “las estrategias engañosas comúnmente utilizadas”. A otros participantes se les facilitó “una intervención de desacreditación [de la mentira] posterior”, tras la difusión de la falsedad.

Los hallazgos confirman la vulnerabilidad ante la desinformación y demuestran que “los desmentidos son ligeramente más efectivos que los prebunks”, según concluye el estudio.

Revelar la fuente de las intervenciones no afectó significativamente su efectividad general, pero sí se constató que “los desmentidos con fuentes reveladas [en este caso se identificó a la Comisión Europea como aval de veracidad] fueron menos efectivos” a la hora de desacreditar la información errónea entre aquellos participantes “con bajos niveles de confianza en la Unión Europea”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Deixe um comentário