Radiografía de los centros de datos: España se vuelca en una nueva industria intensiva en energía y agua | Tecnología

2024 ha sido el año de la confirmación de España como destino en el que ubicar las tripas de internet. Microsoft anunció en febrero que ampliará sus tres centros de procesamiento de datos en Madrid y construirá otros tres en Aragón. Amazon quiere mejorar considerabemente la potencia de los tres que ya tenía en esa región. A estos proyectos se suman el gran campus de Meta en Talavera de la Reina, cuya construcción ha obtenido esta semana luz verde por parte de la Junta de Castilla-La Mancha, y muchos otros desarrollos a cargo de empresas más pequeñas.

El auge de los servicios digitales y la fiebre por la inteligencia artificial (IA) han hecho que el volumen de datos que se procesan y almacenan cada día no deje de aumentar. Para que eso sea posible, se necesitan cada vez más centros de datos, las instalaciones en las que todo eso sucede. España se ha consolidado como un buen lugar donde ubicarlas: el precio de la energía es comparativamente barato, hay mucha capacidad para generar energías renovables, las infraestructuras de fibra óptica son buenas y hay conexión directa con América a través de cables submarinos, que pronto canalizarán el 70% del tráfico transatlántico de internet.

Las reacciones ante este frenesí constructor de centros de datos en España son encontradas. Por un lado, los hiperescalares (así se conocen los de mayor tamaño), normalmente ubicados en zonas poco pobladas, acarrean grandes inversiones en los territorios en los que se instalan, generan empleo (aunque los puestos de mayor cualificación suelen ser para extranjeros) y atraen a más empresas tecnológicas de actividades relacionadas.

Esa es la cara amable. La otra es que este tipo de infraestructuras consumen grandes cantidades de energía y de agua. Los centros de datos son grandes naves industriales repletas de racks, una especie de torres de procesadores con aspecto de frigoríficos futuristas. Los sistemas trabajan noche y día, por lo que necesitan mucha electricidad. Especialmente si se dedican al entrenamiento de modelos de inteligencia artificial (IA): se calcula que los GPU, los procesadores usados para esas tareas, consumen hasta diez veces más que una CPU, los empleados en tareas convencionales. Y la IA generativa, la responsable de ChatGPT o Gemini, ya ha llegado a los centros de cálculo españoles, tal y como adelantó ayer EL PAÍS.

Todos esos ordenadores funcionando juntos las 24 horas del día generan mucho calor. Uno de los sistemas más utilizados para refrigerarlos es la pulverización de agua en las estancias para enfriar el ambiente. Esa agua, además, debe ser potable, ya que si contiene impurezas, puede estropear los servidores. Hay métodos más modernos que no implican el uso de agua, aunque aumentan el consumo energético. El de Data4 en Alcobendas, por ejemplo, se basa en la compresión mecánica, similar al de un aire acondicionado o frigorífico. “Nuestro consumo de agua es 0″, asegura un portavoz de la compañía.

En España hay en torno a un centenar de centros de datos, según la asociación empresarial Spain DC. Llama la atención que ni la propia patronal conozca la cifra exacta: ese centenar es el resultado de una estimación que hacen a partir de la información que aportan sus empresas asociadas, que muchas veces no dicen si tienen o no centros de datos ni cuántos, y de lo que declaran las Big Tech. EL PAÍS ha recopilado en un mapa los centros de datos ya en funcionamiento de los que se tiene constancia y los principales proyectos anunciados, excluyendo las instalaciones de menos de 10 MW de potencia.






El tamaño es, precisamente, un primer elemento a tener en cuenta. En el sector distinguen entre los centros de datos de colocación, operados por empresas que ofrecen a terceros su capacidad de cálculo y de almacenamiento de datos, y los que pertenecen a una única empresa, como es el caso de los de Microsoft, Amazon o Meta. Estos últimos suelen ser más grandes que el resto. Aquellos que tienen una potencia instalada igual o superior a los 50MW se conocen como hiperescalares.

La pregunta del millón: ¿cuánto consumen?

No es fácil averiguar qué consumo energético y de agua tienen estas instalaciones. Las empresas no están obligadas a comunicar esos datos y, en algunos casos, ni siquiera reconocen dónde están ubicadas sus instalaciones, alegando motivos de seguridad. EL PAÍS ha contactado con las principales tecnológicas presentes en España para saber cuántos recursos consumen y su respuesta suele ser la misma: se remiten a los diarios oficiales de las comunidades autónomas en las que operan, donde se publican los pliegos de los proyectos.

Extraer la información de ahí supone un problema adicional: en la documentación aportada a las autoridades se especifica la potencia instalada de los centros (esto es, el máximo de energía que pueden consumir), pero no se indica cuál es el consumo real o habitual. Eso hace casi imposible hacer una fotografía precisa del consumo de los centros de datos en España. Por ejemplo, en el caso de los tres centros de datos de Microsoft en la Comunidad de Madrid que, sin estar acabados al 100%, ya están en funcionamiento, solo sabemos el máximo de potencia que pueden necesitar, no la potencia operativa. El dato agregado que maneja Spain DC son 178 MW de potencia real en todo el país al arrancar 2024, aunque ellos mismos reconocen que posiblemente se quede corta. Con todo, su cifra es un 19,5% más alta que la de 2023, lo que confirma la tendencia alcista.

Por otra parte, hay grandes tecnológicas que procesan datos en España, pero no en instalaciones propias. Google, por ejemplo, inauguró hace dos años la región Cloud de Madrid (tiene 32 en el mundo), que es como llama a la infraestructura con la que ofrece servicios de computación en la nube de baja latencia. La gestión de datos se hace con hardware y software de Google, pero en instalaciones de terceros. Es decir: Google no tiene centros de datos en España, aunque ofrece servicios propios de este tipo de infraestructura.


Ningún dato, sin embargo, sobre el agua que consumen. Para obtener una estimación de esa magnitud, EL PAÍS ha revisado los pliegos de los proyectos de los grandes centros de datos construidos y proyectados. El problema es el mismo: las cifras disponibles aluden al consumo máximo permitido, no al real.

Distribución por España

El mayor de los que preparan las Big Tech será el que levantará Meta en Talavera de la Reina. Contará con una potencia instalada de 248 MW y tendrá un consumo de agua de hasta 504 millones de litros anuales. La cifra inicial era mayor, pero la empresa decidió corregirla a la baja después de que la Confederación Hidrográfica del Tajo pusiera en duda en un informe que hubiera capacidad para hacer frente a esas necesidades. Según fuentes familiarizadas con el proyecto, esa corrección tiene que ver con la apuesta por un sistema de enfriamiento basado en aire seco.

Tras el de Meta, los centros de datos más demandantes en recursos serán los que construye Amazon (AWS, la filial de computación en la nube de la compañía) en Aragón. De acuerdo con la información técnica que figura en los pliegos, las instalaciones de Huesca, Villanueva de Gállego y El Burgo de Ebro tendrán exactamente las mismas características: una potencia instalada de 84 MW y un consumo de agua de 36,5 millones de litros anuales. Según fuentes de la compañía, las tres zonas de disponibilidad están a unos 30 kilómetros las unas de las otras para asegurar una buena latencia y para permitir que, si una falla, las otras dos puedan hacer el trabajo mientras se soluciona el incidente.

Les sigue en tamaño uno de los centros que Microsoft pondrá en marcha en Madrid, concretamente en Meco (58,8 MW de potencia instalada), que será mucho más grande que los otros dos que proyecta la compañía en esa comunidad: Algete (32 MW) y San Sebastián de los Reyes (7,8 MW). Curiosamente, siempre según los datos aportados por la compañía a las autoridades, el de Algete tendrá un mayor consumo potencial de agua (34,6 millones de litros anuales) que el de Meco (24,4 millones de litros), pese a ser este último más grande. Todavía no hay datos públicos sobre los tres centros que Microsoft quiere construir en Aragón, más allá de que supondrán un desembolso inicial de 6.690 millones de euros.

Cuando estén plenamente operativas, las instalaciones de las Big Tech consumirán hasta 567 MW (esa será su potencia instalada), lo mismo que unos 160.000 hogares españoles medios, y en torno a 645 millones de litros anuales de agua, el equivalente a la que consumen 14.000 personas en un año. Eso sin contar los tres centros de datos que Microsoft construirá en Aragón, sobre los que todavía no hay información.

Hay otros centros de datos ubicados en España que, por tamaño, se codean o superan a los que pondrán en marcha las grandes tecnológicas en los próximos años. Uno de ellos ya en funcionamiento está en Alcalá de Henares, Madrid, y hasta 2020 pertenecía a Telefónica. El consumo de agua estimado para cuando esté operativa la fase cinco de su despliegue, teóricamente a partir de 2020 (sin ser propiedad ya de Telefónica), es de un máximo de 85 millones de litros anuales, según ha podido saber EL PAÍS tras hacer una solicitud de información pública a la Comunidad de Madrid. Eso le convertiría en la actualidad en el centro de datos más sediento de España, honor que perderá cuando se ponga en marcha el centro de Talavera. En cuanto a potencia instalada, el más grande de los activos (200 MW) pertenece a Solaria Energía y está en Puertollano, Ciudad Real (Castilla-La Mancha), de acuerdo con los datos de la patronal Spain DC.

Una demanda en crecimiento

La Comunidad de Madrid es, a día de hoy, el núcleo de los centros de datos en España, con una potencia instalada de unos 164 MW, según datos de la compañía de inversión en bienes inmobiliarios Colliers. ¿Eso es mucho o poco? No demasiado, si se compara con las principales regiones europeas: Londres (979 MW), Fráncfort (722 MW), Ámsterdam (496 MW) y París (416 MW) le superaban de largo a finales de 2023, según un informe de la consultora inmobiliaria JLL. Colliers estima que, en cuanto entren en funcionamiento todas las instalaciones proyectadas, Madrid alcanzará 792 MW.

En cualquier caso, algunos expertos consultados por este periódico creen que AWS y Microsoft convertirán a Aragón en la región con más centros de datos de España. Ya se le empieza a llamar la “Virgina de Europa”, en referencia al Estado de EE UU que acapara más instalaciones de este tipo. Solo los proyectados por AWS superan los 250 MW de potencia instalada (todavía se desconoce el tamaño de los centros que levantará allí Microsoft). Los analistas de Colliers calculan que, si se ejecutan todos los proyectos comprometidos, incluyendo los de AWS y Microsoft, Aragón podría alcanzar en los próximos años los 1.800 MW, lo que la situaría como la región más importante de España. Otras fuentes, sin embargo, consideran que Madrid no perderá la delantera. No solo por los cerca de 100 MW de potencia instalada que Microsoft ya ha dicho que añadirá, sino porque, para cuando los centros aragoneses de AWS y Microsoft estén operativos, es probable que varios de los centros de Madrid amplíen sus capacidades y se abran otros nuevos.

Esto es solo el principio

La irrupción de la IA generativa ha trastocado el sector. Los centros de datos tradicionales no sirven para entrenar y dar apoyo a los gigantescos modelos detrás de ChatGPT, Llama, Copilot, Gemini o Claude. Se necesitan procesadores de mayor densidad, lo que significa más consumo energético y de agua. “Los sistemas de refrigeración con aire no son eficientes con los racks de alta densidad, los usados para entrenar modelos de IA, sino que, contrariamente, requieren mucha más energía. Por eso los grandes centros de datos de hoy en día se están pasando del aire al agua”, indica Lorena Jaume-Palasí, experta en tecnología y asesora del Parlamento Europeo en materia de IA.

Ninguna de las desarrolladoras de IA ha revelado el coste hídrico de esta tecnología. Solo tenemos estimaciones. Las que sirven de referencia son las de Shaolei Ren, profesor asociado de ingeniería eléctrica y computacional de la Universidad de California, Riverside. El académico calcula que el entrenamiento del primer ChatGPT costó unos 700.000 litros de agua y, según ha publicado recientemente, el desarrollo del modelo GPT-3 consumió cuatro veces más de lo que se estimaba. Hacer entre una y 50 consultas al chatbot cuesta unos dos litros de agua, y no medio litro, como estimó en un principio. Esas magnitudes se quedarán cortas con la versión GPT-4, ya en uso, y con GPT-5, teóricamente en fase de desarrollo. “Pasarse a métodos de refrigeración que no usen agua es sencillo de decir, pero difícil de hacer”, asegura Ren.

Deixe um comentário