Sam Altman, máximo responsable de OpenAI, la empresa creadora de ChatGPT, lanzó una advertencia en enero en el Foro de Davos: la industria de la inteligencia artificial (IA) está a punto de provocar una crisis energética. La nueva generación de IA generativa consumirá mucha más energía de lo previsto, dijo ante los principales líderes y empresarios del mundo, hasta el punto de poner en jaque las redes energéticas mundiales. “No hay manera de llegar sin cambios drásticos”, espetó.
Ese “cambio drástico” al que se refería es la llamada energía nuclear avanzada, término en el que se incluyen los reactores de bolsillo y la fusión nuclear, ambos todavía en fase experimental. Varias empresas se han fijado en esta alternativa, que les aportaría autonomía energética y un mayor control de los costes. La Administración Biden no lo ve con malos ojos. La Secretaria de Energía, Jennifer Granholm, se reunió en marzo con varias empresas tecnológicas, entre ellas Amazon, Google y Microsoft, para explorar fórmulas imaginativas para abastecerlas. Uno de los temas que se trataron fue el encaje de pequeños reactores nucleares en los centros de datos, esas extensas naves llenas de procesadores funcionando día y noche.
Las últimas estimaciones dicen que ya se dedica un 8% de la energía mundial a la IA, que se consume alimentando los procesadores en los que se entrenan los modelos y alojan los sistemas. Esa cifra, tal y como vaticina Altman, se quedará corta dentro de poco tiempo, según vayan sumándose usuarios y surgiendo nuevas versiones de ChatGPT, Gemini o Copilot, que requerirán más y más poder de cómputo. “Me alegra que dijera eso en Davos. He visto una constante minimización y negación sobre los costos ambientales de la industria de la IA desde que comencé a publicar sobre ello en 2018″, ha escrito Kate Crawford, una de las investigadoras de referencia en la huella de la IA.
Las big tech ya han dado los primeros pasos hacia la era nuclear, una fuente de energía en retroceso en Occidente (se desmantelan más reactores de los que se construyen) con algunas grandes excepciones: EE UU, Francia, el Reino Unido y varios países de Europa del Este. Las empresas, por su parte, la conciben como una forma de asegurarse un suministro estable y duradero de energía en un contexto en el que la oferta no da más de sí. Altos ejecutivos de Google dijeron The Wall Street Journal que consideran la posibilidad de firmar acuerdos de compra con desarrolladores de pequeños reactores nucleares. “Creo que la energía nuclear, especialmente la más avanzada, está haciendo muchos progresos”, aseveró al rotativo estadounidense Maud Texier, responsable global de energías limpias de Google. Fuentes de la compañía no confirman a EL PAÍS que la vía nuclear sea una opción de futuro, aunque tampoco lo niegan. Google firmó hace poco con Microsoft y Nucor un acuerdo para “acelerar tecnologías de energía limpia avanzada”, entre las que se incluye la “nuclear avanzada”.
Microsoft cerró en octubre del año pasado acuerdos de compra (PPA, por sus siglas inglesas) con la empresa estadounidense Helion Energy por los que recibirá a partir de 2028 energía obtenida por fusión nuclear, una técnica aún más teórica que práctica y que, a diferencia de la fisión, no produce residuos radiactivos. Preguntada por este periódico sobre su estrategia en el ámbito nuclear, la compañía remite a un documento de diciembre del año pasado titulado Acelerando un futuro libre de carbono, en el que se deja claro que las “energías nucleares avanzadas”, así como los reactores tradicionales, son uno de los pilares sobre los que pivotará el giro verde de Microsoft, si bien no se habla de plazos ni fechas.
AWS, la división de computación en la nube de Amazon, ha comprado recientemente un gran centro de datos en EE UU ubicado junto a la sexta mayor central nuclear del país, que le suministra el 100% de la energía a precio fijo. “Para complementar nuestros proyectos de eólica y solar, que dependen de las condiciones climáticas para generar energía, también estamos explorando innovaciones y tecnologías e invirtiendo en otras fuentes de energía limpia y libre de carbono. El acuerdo con Talen Energy [la empresa dueña de la citada central nuclear estadounidense] para una energía libre de carbono es un proyecto que va en esa dirección”, dicen a EL PAÍS fuentes de la compañía.
El coqueteo nuclear de Silicon Valley
La idea de que la energía nuclear es la salvación de la IA está calando entre la jet set de Silicon Valley. Sam Altman es uno de sus grandes valedores. Está tan convencido del futuro de la propuesta de Helion Energy, pionero de la fusión nuclear, que ha invertido en ella 375 millones de dólares. También preside una startup, Oklo, que pretende diseñar y fabricar reactores nucleares de fisión como los que se usan hoy en día, pero mucho más pequeños (los llamados SMR, siglas inglesas de pequeño reactor modular).
Bill Gates es otro de los magnates tecnológicos con intereses en los SMR. Su empresa TerraPower trabaja en un reactor nuclear de sodio, una variante también experimental que, si prospera, promete ser 25 veces más barata que la fisión nuclear.
El ingeniero jefe de IA generativa de Meta, Sergey Edunov, dijo hace unos meses que solo harían falta dos grandes reactores nucleares para cubrir toda la demanda mundial de energía prevista para 2024 en materia de IA, incluyendo la alimentación de modelos ya operativos y el entrenamiento de los nuevos.
¿Tiene recorrido la vía nuclear? “No hay avances en el horizonte que permitan el despliegue inmediato de los SMR, que actualmente se encuentran en la fase inicial de creación de prototipos en numerosos países. Esta opción solo sería viable si hablamos de un plazo de décadas”, sostiene la ingeniera Heidy Khlaaf, especialista en evaluación, especificación y verificación de aplicaciones informáticas complejas en sistemas críticos para la seguridad. Algunos países, como Reino Unido, Francia, Canadá o EE UU, tienen planes para desarrollar este tipo de instalaciones, pero no antes de 20 años.
Khlaaf ve con especial preocupación el hecho de que Microsoft haya puesto una IA generativa a trabajar en el papeleo para lograr licencias nucleares, un proceso que puede llevar años y costar millones de dólares. “Esto no es un ejercicio de marcar casillas, sino un proceso de seguridad en sí mismo. Considerar estos procesos regulatorios como mero papeleo engorroso dice mucho de su comprensión, o falta de ella, de la seguridad nuclear”, espeta.
¿Es realista fiar el futuro de la IA a la fusión nuclear? Las estimaciones más optimistas de Helion Energy dicen que en 2029 podrá producir suficiente energía como para abastecer a 40.000 hogares medios de EE UU. Se estima que ChatGPT ya consume a día de hoy el equivalente a 33.000 hogares.
¿Por qué tanto consumo energético?
La irrupción de la IA ha agitado el tablero energético mundial. La mayoría del consumo asociado a los modelos de IA generativa se produce antes de que se empiecen a usar, durante la fase de entrenamiento. Se trata de un proceso clave en el desarrollo de los modelos de aprendizaje profundo que consiste en mostrarle al algoritmo millones de ejemplos que le ayuden a establecer patrones con los que predecir situaciones. En el caso de los grandes modelos de lenguaje, como ChatGPT, se busca que el sistema concluya que la serie de palabras “El mar es de color” tiene muchas probabilidades de ser seguida por la palabra “azul”.
La mayoría de los centros de datos utilizan unos procesadores avanzados llamados GPU para realizar el entrenamiento de los modelos de IA. Las GPU necesitan muchísima energía para funcionar, unas cinco veces más que las CPU (los procesadores convencionales). El entrenamiento de los grandes modelos de lenguaje requiere de decenas de miles de GPU, que necesitan operar día y noche durante semanas o meses.
“Los grandes modelos de lenguaje tienen una arquitectura muy grande. Un algoritmo de aprendizaje automático que te ayude a elegir a quién contratar quizás necesite 50 variables: dónde trabaja el candidato, qué salario tiene ahora, experiencia previa, etcétera. La primera versión de GhatGPT tiene más de 175.000 millones de parámetros”, ilustra Ana Valdivia, profesora de IA, Gobierno y Políticas en el Oxford Internet Institute.
Una vez entrenado el modelo, hace falta alojar y explotar los datos sobre los que trabaja. Eso se realiza también en los centros de datos, que tienen que funcionar día y noche.
¿Cuál es el consumo total de la IA? ¿Cuánta energía se dedica a entrenar y alimentar los modelos más usados? Las empresas no publican esa información, todo lo que tenemos son estimaciones. Por ejemplo, el modelo Gemini Ultra de Google, uno de los más avanzados a día de hoy, necesitó 50.000 millones de petaflops para entrenarse, según un reciente informe de la Universidad de Stanford. Para alcanzar esa potencia de cálculo con ordenadores comerciales (aunque en estas tareas se usan superordenadores) se necesitarían unos 10.000 billones (10 elevado a 16) de computadoras. El coste asociado a este entrenamiento fue de 191 millones de dólares, atribuible en gran medida a la energía consumida.
Un solo modelo de IA puede consumir decenas de miles de kilovatios-hora. Los modelos de IA generativa, como ChatGPT, pueden tener un consumo 100 veces mayor, según estimaciones de la consultora tecnológica IDC.
Aparte de la propia alimentación de los sistemas, el consumo se va también en los sistemas de refrigeración de los procesadores. Las técnicas más habituales incluyen la ventilación eléctrica y el empleo de agua para enfriar el entorno y las máquinas. Este último sistema está empezando a causar problemas en lugares con escasez de agua, si bien las técnicas más modernas implican el uso de circuitos cerrados que minimizan las pérdidas de recursos hídricos.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
_