Luis Buezo, nacido en Irun (Gipuzkoa) hace 54 años, pero residente en Madrid casi toda su vida, es responsable mundial de inteligencia artificial en Hewlett Packard Enterprise (HPE), una compañía de 60.000 empleados que cuenta en su haber con el ordenador considerado como el más rápido del mundo: el Frontier, una máquina de 1.194 exaflops de rendimiento y calificada como uno de los mejores desarrollos del pasado año. En Finlandia disponen de LUMI, el mayor de Europa (380 petaflops) y el quinto del mundo. Este hermano tres veces menor que el Frontier tiene un poder de computación equivalente al de 1,5 millones de portátiles de última generación actuando a la vez y que, apilados, formarían una torre de 23 kilómetros de altura.
Esta apuesta por la supercomputación es clave para la inteligencia artificial (IA) que, en sus modelos más complejos, precisa de billones de parámetros. Pero Buezo cree que, aunque es necesaria esta carrera, hay alternativas para cualquier escenario y que el desarrollo de la IA es sólido y con beneficios incalculables en todos los niveles.
Pregunta. ¿Hay riesgo de burbuja en la inteligencia artificial?
Respuesta. Estamos en uno de los momentos más disruptivos de nuestras vidas, comparable al surgimiento de internet, que ya hemos visto lo que ha generado y de lo que somos capaces de hacer gracias a la conectividad. Estamos en un punto de inflexión en el que todas las empresas y organizaciones están evaluando cómo aplicar la inteligencia artificial para mejorar sus procesos internos y de negocio, la calidad y la productividad. Creemos en una IA potente, confiable y, sobre todo, abierta y accesible a todo tipo de organizaciones. Si internet hubiera sido solamente aprovechado por un grupo muy específico de organizaciones, no sería lo que es.
P. Pero los mayores desarrollos de IA están en manos privadas que querrán su beneficio, el retorno de las inversiones.
R. Nosotros defendemos una arquitectura abierta que permita la colaboración entre diferentes organizaciones. Eso es muy importante. Hace unas semanas anunciamos desarrollos de diseño conjunto de arquitectura de software [programación] con Nvidia. También trabajamos muchísimo el catálogo de open source [código abierto], no solo con modelos comerciales. Lo hacemos con ambas alternativas porque tenemos escenarios por cada cliente en los que usan unas y otras. Nosotros aplicamos nuestros principios éticos de respeto a la privacidad y a los derechos humanos, que haya siempre supervisión personal y que sea inclusiva para minimizar cualquier tipo de sesgo. También tiene que ser explicable, controlable y robusta, con seguridad desde dentro y protegida a cualquier tipo de ataque, mala utilización o potenciales fallos.
P. ¿La existencia de inteligencia artificial disponible para organizaciones que no respeten esos derechos supone un riesgo?
R. Los clientes demandan los principios éticos y legales en los desarrollos. Sale en las primeras conversaciones. Aquellas empresas o entidades que recurran a código abierto y se salten a la torera todas estas normas será su responsabilidad. Pero cada vez más hay una sensibilización mayor para un uso responsable.
P. La IA ha entrado de lleno en ámbitos como el farmacéutico o el industrial. Pero hay otros, como la justicia, donde es más difícil de ver. Usted participó en un seminario sobre este campo. ¿Habrá algún día juicios automáticos, ordenadores con toga?
R. El encuentro fue en La Haya [Países Bajos] y empezamos a plantear casos de uso. Veo ventajas muy relevantes en la justicia como ayuda a la toma de decisiones y en diferentes procesos. Aquí es muy importante la supervisión humana. No es cambiar completamente un proceso, sino ayudar a la toma de decisiones y a tratar información. Hay modelos de IA generativa en los que puedes introducir toda esta información y te puede ayudar a hacer resúmenes, a hacer preguntas específicas y revisar de dónde viene esta información o una conclusión. Hoy en día puede ayudar muchísimo a acelerar procesos y dejar a los profesionales que dediquen más tiempo de calidad a lo más importante.
P. ¿En qué campos se va a desarrollar más la IA?
R. En todos. Se aplica a todo tipo de actividad en cualquier sector, desde la administración pública hasta la empresa privada. Disponer de información fiable mucho más rápidamente y que sea concreta y precisa se aplica a todo tipo de sectores. En el industrial hay muchísimo para control de calidad o para automatizar factorías. Las entidades financieras están muy avanzadas en aplicaciones de técnicas analíticas y para el control del fraude. Pero también tenemos ejemplos de uso en e-sports [deportes electrónicos] o en competiciones de motor. Trabajamos con el equipo de Maserati para mejorar la competitividad.
P. ¿Qué hay que hacer para evitar aplicaciones de IA deficientes?
R. Nosotros trabajamos en un ciclo de aproximaciones sucesivas que empieza por manejar expectativas: lo que se puede hacer y no con IA o con analítica avanzada. Esto es muy importante, es entender y acordar los casos de uso más factibles con resultados concretos a corto medio plazo. El segundo elemento es ver los datos que están disponibles y si, con esos datos, se puede llegar al retorno de inversión que el cliente espera. Si no son válidos, buscamos otras maneras de conseguirlo. En la fase de prueba de valor verificamos que la tecnología vale, que el caso de uso concreto que estamos evaluando realmente va a producir el retorno de inversión del cliente. Lo hacemos en un entorno de laboratorio y podemos ir mejorándolo. Buscamos modelos en los que el rendimiento esté por encima del 90%. Luego está el reto de llevarlo a producción, integrarlo con las aplicaciones existentes y probarlo.
P. Un gran modelo de lenguaje necesita billones de parámetros. ¿Ha llegado la era de la supercomputación para manejarlos?
R. Tenemos varias alternativas. Tenemos supercomputación con la que puedes hacer entrenamiento y desarrollo de grandes modelos de lenguaje, pero también tenemos otra arquitectura para empresas que quieren hacer un modelo más ligero. Es muy importante entender cuál es el caso de uso, cuál es la necesidad.
P. ¿La IA es sostenible?
R. En el Centro Global de Excelencia en Inteligencia Artificial y Datos de Madrid hemos puesto el foco en la sostenibilidad utilizando software de Intel para optimizar el modelo en términos de velocidad y consumo energético. Hemos logrado acelerar hasta 14 veces la velocidad de procesamiento de imágenes y hemos reducido hasta 17 veces el nivel de energía consumida por el algoritmo, que al final se traduce en reducción de emisiones asociadas. Es un tema importante que también nos lo demandan clientes. Es muy importante siempre no solo buscar el rendimiento, sino además que el modelo sea óptimo en cuanto a consumo y sostenibilidad.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.