“Es una innovación tremenda, yo también flipé”. “Suena mucho más natural que la mayoría de programas similares”. “Ha aprendido de forma intuitiva a mantener conversaciones sobre casi cualquier tema”. Estas son algunas de las primeras opiniones de expertos en inteligencia artificial (IA) sobre ChatGPT publicadas en este periódico. La herramienta tardó pocos días en deslumbrar tanto a profesionales como a legos en la materia, que compartían en redes sociales fragmentos de sus conversaciones con el bot. De repente, cualquiera con conexión a internet podía chatear con una máquina que ofrecía respuestas coherentes y bien escritas, aunque no siempre ciertas. Para muchos, la sensación era la de estar hablando con alguien, no con algo. Este sábado se cumplen dos años del lanzamiento de ChatGPT, que supuso la presentación en sociedad de la IA generativa, la que produce contenidos supuestamente originales a partir de instrucciones humanas.
¿Qué momento atraviesa esta tecnología? La fascinación inicial dio paso a una guerra empresarial para liderar el despliegue de este tipo de herramientas. Microsoft se apresuró a cerrar un acuerdo de colaboración con OpenAI, desarrolladora de ChatGPT y Dall-E, y Google no tardó ni dos meses en anunciar el lanzamiento de sus propios modelos en abierto. Hoy se habla ya de lo que la consultora Gartner denomina el valle de la decepción: la euforia inicial generó expectativas tan altas que, al no ser satisfechas de forma inmediata, han hecho que decaiga el interés. Es una fase del ciclo natural de los hypes tecnológicos, y lo habitual es que, dentro de un tiempo (menos de dos años, para Gartner), la curva de las expectativas vuelva a subir, aunque de forma más moderada que la primera vez.
“Dos años después, los cerebros artificiales siguen siendo supercuñados estocásticos: hablan con mucha autoridad, parecen saber de todo, pero lo que dicen no es fruto de un conocimiento real, sino de su capacidad, adquirida intuitivamente, para aparentar sabiduría”, resume Julio Gonzalo, catedrático de Lenguajes y Sistemas informáticos de la UNED y vicerrector adjunto de investigación. El propio Andrej Karpathy, uno de los creadores del modelo GPT (y que abandonó OpenAI en febrero), dijo hace unas semanas que veía síntomas de agotamiento en la IA generativa: como las primeras versiones de ChatGPT ya se entrenaron con casi todos los textos disponibles en internet, las nuevas versiones no podrán recurrir a muchos más datos de los que ya revisaron sus predecesoras. Eso hará que los modelos no puedan mejorar demasiado. “Para que haya un gran salto hará falta una innovación en la arquitectura algorítmica, como lo fue el desarrollo en 2017 de los transformer [un tipo de redes neuronales clave en el desarrollo de los grandes modelos de lenguaje]”, apunta Álvaro Barbero, responsable de análisis de datos en el Instituto de Ingeniería del Conocimiento.
En el frente empresarial también hay inquietud. Los inversores no han visto todavía la forma de hacer rentable la IA generativa. OpenAI ha captado en octubre 10.000 millones de dólares “para operar con flexibilidad”, que se suman a los 13.000 comprometidos por Microsoft en 2023, pero esa suma puede no ser suficiente. El modelo GPT-5, anunciado inicialmente para finales de 2023, sigue sin llegar, y los analistas empiezan a pensar que no será tan revolucionario como lo vendió el director general de la compañía, Sam Altman.
Within 12 months, the GenAI bubble will have burst.
• The economics don’t work
• The current approach has reached a plateau
• There is no killer app
• Hallucinations remain
• Boneheaded errors remain
• Nobody has a moat
• People are starting to realize all of the above. pic.twitter.com/OXd1kRyXYg— Gary Marcus (@GaryMarcus) July 24, 2024
De acuerdo con las propias proyecciones de OpenAI, la empresa no dará beneficios hasta 2029, y, mientras tanto, está gastando unos 500 millones de dólares al mes. Según cálculos del medio especializado The Information, que estima en 7.000 millones la factura del entrenamiento de sus modelos para 2024, OpenAI podría quedarse sin dinero el verano que viene. “Dentro de 12 meses, la burbuja de la IA habrá estallado”, dijo el experto en IA Gary Marcus el pasado mes de julio. “Las cifras no cuadran, el enfoque actual se ha estancado, no se ha desarrollado una aplicación definitiva, las alucinaciones [cuando el sistema se inventa cosas] siguen ahí, persisten los errores tontos, nadie tiene una ventaja insuperable sobre los demás y la gente se está dando cuenta de todo lo anterior”.
La revolución de la IA
Consideraciones financieras al margen, no cabe duda de que la herramienta que se lanzó el 30 de noviembre de 2022 fue deslumbrante. “Desde mi punto de vista, la aparición de ChatGPT fue algo absolutamente revolucionario”, asegura Carlos Gómez Rodríguez, catedrático de Computación e Inteligencia Artificial de la Universidad de La Coruña y experto en procesamiento del lenguaje natural, la rama de la IA que busca comprender y generar textos. “Por primera vez, un mismo sistema podía hacer de todo sin un entrenamiento específico. Antes podías crear un traductor español-inglés, pero diseñándolo específicamente para ello. Resultó que al desarrollar estos sistemas más grandes, el modelo fue capaz de hacer muchas cosas. Eso lo ha cambiado todo en mi campo de investigación”.
“La IA generativa ha aportado aplicaciones interesantes, como resumir, escribir cartas en otros idiomas o extraer información de documentos, pero también aplicaciones erradas, como usarlos para extraer información, cuando lo que hacen es predecir, no buscar, o hacer deducciones, cuando no razonan”, explica Ricardo Baeza-Yates, director de investigación del Instituto de IA Experiencial de la Northeastern University (Boston) y catedrático de la Universitat Pompeu Fabra de Barcelona. La IA generativa, de la mano de los generadores de imágenes o vídeos, está contribuyendo a diluir la frontera entre la realidad y el embuste con los llamados deepfakes y ha dado alas a formas más sofisticadas y baratas de ciberataques.
Tan solo tres meses después del lanzamiento de ChatGPT, OpenAI presentó el modelo GPT-4, un salto cualitativo respecto a la primera versión de la herramienta. Pero en los casi dos años transcurridos desde entonces no ha habido más avances significativos. “Parece que con GPT-4 se llegó a los límites de lo que es capaz una IA solo emulando nuestra intuición. También se ha constatado que la capacidad de pensamiento racional no ha aparecido por arte de magia solo haciendo cerebros más grandes”, ilustra Gonzalo.
Dónde estamos y qué queda por ver
Lo último en IA generativa son los sistemas multimodales, capaces de combinar varios soportes (texto, imagen y audio). Por ejemplo, le puedes enseñar al último ChatGPT o Gemini una foto de la nevera para que te diga qué puedes preparar para cenar. Pero construye esos resultados por intuición, no razonando. “Lo siguiente será investigar si los grandes modelos de lenguaje pueden ser agentes. Es decir, que funcionen por sí mismos e interaccionen entre ellos en nuestro nombre. Podrían reservarnos unos billetes de avión y un hotel de acuerdo con las indicaciones que les demos”, describe Gómez Rodríguez.
“Creo que los modelos de IA generativa están llegando a su límite y se necesitará agregar otros elementos, como conocimiento verdadero (Perplexity y otros ya citan las fuentes que usan), lógica deductiva (IA clásica) y, a largo plazo, sentido común, el menos común de los sentidos. Solo entonces podremos empezar a hablar de raciocinio verdadero”, sostiene Baeza-Yates.
Eso es lo que prometía Altman para el año que viene. Se refiere a ello como IA general, la que iguale o supere a las capacidades humanas. Parece claro que algo así tardará en llegar, y que, en línea con lo que dice Baeza-Yates, hará falta algo más que IA generativa para alcanzar esa meta. “Los grandes modelos multimodales serán una parte fundamental de la solución global para desarrollar una IA general, pero no creo que sean suficientes por sí solos: necesitaremos un puñado de otros grandes avances”, dijo la semana pasada Demis Hassabis, responsable de investigación en IA de Google y Premio Nobel de Química, en un encuentro con periodistas en el que participó EL PAÍS.
“La IA generativa no solo no nos acerca a las grandes preguntas científicas de la IA, como si puede haber inteligencia en algo que no sea orgánico, sino que nos desvía de ellas. Estos sistemas son incapaces de razonar, habría que recurrir a la IA simbólica [la basada en la lógica matemática]”, reflexiona Ramón López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial del CSIC y uno de los pioneros en España de la disciplina, que cultiva desde hace más de 40 años. Alphafold, la herramienta desarrollada por el equipo de Hassabis para predecir la estructura de 200 millones de proteínas que le ha valido el Nobel, integra 32 técnicas distintas de IA, siendo la generativa solo una de ellas. “Creo que el futuro irá por ese tipo de sistemas híbridos”, dice López de Mántaras.