El investigador Ezequiel López estaba hace poco en una conferencia académica y le sorprendió oír la insistencia de los ponentes en alguna palabra, como delve, que es ahondar, adentrarse o profundizar, en inglés. Otro investigador del Instituto Max Planck para el Desarrollo Humano (Berlín) tuvo una sensación parecida: había algunas palabras que, de repente, se repetían en las presentaciones y que antes apenas se oían.
Había ya alguna investigación sobre cómo se habían colado repetidamente palabras curiosas en artículos científicos, frases o párrafos escritos por ChatGPT u otras inteligencias artificiales. ¿Podría ser que ahora los humanos estuvieran ya repitiendo oralmente palabras popularizadas por las máquinas? Decidieron analizarlo. El primer reto fue encontrar suficientes ponencias recientes. Reunieron unos 300.000 vídeos de conferencias académicas y crearon un modelo para comprobar la frecuencia de aparición de algunas palabras durante los últimos años: “Nuestra pregunta es si puede que haya un efecto de adopción y transmisión cultural, que las máquinas están cambiando nuestra cultura y que luego se propague”, dice López.
La respuesta es que sí. En 2022 detectaron un punto de inflexión en palabras en inglés que antes se oían poco como delve (ahondar), meticulous (meticuloso), realm (reino, dominio) o adept (ser diestro en algo). Iyad Rahwan, profesor del Instituto Max Planck y coautor de la investigación, afirma: “Es surrealista. Hemos creado una máquina que puede hablar, que aprendió a hacerlo de nosotros, de nuestra cultura. Y ahora nosotros estamos aprendiendo de la máquina. Es la primera vez en la historia que una tecnología humana puede enseñarnos cosas de manera tan explícita”.
No es tan extraño que los humanos repitamos palabras nuevas que acabamos de aprender. Y más si son hablantes no nativos, como se da en una parte importante de la muestra en este caso. “No creo que sea un motivo de alarma porque al final está democratizando la habilidad de la comunicación. Si tú eres japonés y eres líder mundial de tu campo científico, pero cuando hablas en inglés en una conferencia pareces un americano de parvulario, se generan unos sesgos también sobre tu autoridad”, dice López.
ChatGPT permite que estos hablantes no nativos capturen mejor matices e incorporen palabras que antes no usaban. “Si no eres nativo inglés y mañana vas al cine y hay una palabra nueva que te sorprende, es probable que la adoptes también, como ocurre con wiggle room (margen de maniobra) en Oppenheimer; o con lockdown durante la pandemia”, dice López. Pero hay una salvedad, señala este investigador. Es muy particular que las palabras adoptadas en esas conferencias académicas no sean sustantivos que ayudan a describir algo con más precisión, sino palabras instrumentales como verbos o adjetivos.
📢 New Preprint!
Now it’s known ChatGPT overuses words like ‘delve’ and ‘adept.’ This raises the possibility that through the use of ChatGPT, our language can also be infected. To explore this, we transcribed and analyzed 300k YouTube videos, as in this excerpt from our dataset. pic.twitter.com/K8SBQCCjVC— Hiromu Yakura (@hiromu1996) September 4, 2024
Hay dos consecuencias curiosas de esta adopción. Primero, desde que se ha hecho evidente en el mundo académico que estas palabras son creaciones de ChatGPT, se han convertido en malditas: usarlas puede llegar a estar mal visto. “Yo ya lo estoy viendo esto en mi propio laboratorio. Cada vez que alguien usa ‘ahondar’, todos lo pillan al instante y se burlan de él. Se ha vuelto una palabra tabú para nosotros”, dice Rahwan.
La segunda consecuencia puede ser peor. ¿Qué pasaría si, en lugar de hacernos adoptar palabras de manera aleatoria, estas máquinas pudieron meternos en la cabeza palabras más connotadas? “Por un lado, lo que encontramos es bastante inofensivo. Pero esto muestra el enorme poder de la IA y de las pocas empresas que la controlan. ChatGPT es capaz de tener conversaciones simultáneas con mil millones de personas. Esto le da un poder considerable para influir en cómo vemos y describimos el mundo”, afirma Rahwan. Una máquina como esta podría determinar la forma en que la gente habla de guerras como las de Ucrania u Oriente Medio, o cómo describe a personas de una raza en particular o aplica una visión sesgada a eventos históricos.
De momento, por su adopción global, el inglés es el idioma donde es más fácil detectar estos cambios. ¿Pero pasará también en español? “Me lo he preguntado. Supongo que algo similar pasará, pero el grueso de ciencia y tecnología es en inglés”, dice López.
También afecta la inteligencia colectiva
La IA generativa puede tener consecuencias insospechadas en muchos otros ámbitos aparte del lenguaje. En otra investigación publicada en Nature Human Behaviour, López y sus coautores han encontrado que la inteligencia colectiva, tal y como la entendemos, está en peligro si empezamos a usar masivamente la IA. Páginas de código colaborativo como GitHub o Stack Overflow perderán su rol si cada programador emplea un bot para generar código. Ya no habrá necesidad de consultar lo que han hecho antes otros colegas, ni mejorarlo o comentarlo.
Para Jason Burton, profesor de la Universidad de Negocios de Copenhague y coautor del artículo, “los modelos de lenguaje no significan el fin de GitHub o Stack Overflow. Pero ya están cambiando cómo las personas contribuyen y se relacionan con estas plataformas. Si la gente recurre a ChatGPT en lugar de buscar cosas en foros públicos, es probable que sigamos viendo una disminución de actividad en esas plataformas, porque los posibles colaboradores ya no tendrán su audiencia”.
La programación es solo una posible víctima de la IA. La Wikipedia y sus escritores igual pasan a ser simples revisores si todo lo escribe un bot. Incluso la educación es algo que habría que revisar, según López: “Imaginemos que, en el sistema educativo actual, profesores y alumnos se van apoyando cada vez más en estas tecnologías; unos para diseñar preguntas y otros para buscar las respuestas. En algún momento habrá que replantearse cuál es la función que deberían tener estos sistemas y cuál sería nuestro nuevo rol eficiente en convivencia con ellos. Sobre todo para que la educación no acabe consistiendo en que alumnos y profesores finjan por ambas partes y representen, durante ocho horas al día, una obra de teatro”.
Estos modelos de lenguaje no son solo la promesa de algo malo para la inteligencia colectiva. También son capaces de resumir, agregar o mediar en complejos procesos de deliberación colaborativa. Pero, como señala Burton, la cautela debe ser básica en estos procesos para evitar la coincidencia en el pensamiento grupal: “Incluso si cada capacidad individual se ve mejorada al usar una aplicación como ChatGPT, esto aún podría llevar a malos resultados a nivel colectivo. Si todos comienzan a depender de la misma aplicación, podría homogeneizar sus perspectivas y hacer que muchas personas cometan los mismos errores y pasen por alto las mismas cosas, en lugar de que cada persona cometa errores diferentes y se corrijan entre sí”. Por eso, con su estudio, estos investigadores piden reflexión y posibles intervenciones políticas para permitir un campo más diverso de desarrolladores de modelos de lenguaje y, así, evitar un panorama dominado por un solo modelo.