Si hubiese que resumir en un cambio todos los que propiciará la IA educativa, sería el de la formación no solo personalizada, sino individual, alumno por alumno, profesor por profesor.
Traer a la realidad ese viejo ideal es un proceso acelerado, proyecta herramientas mucho más evolucionadas de aquí a entre dos y cinco años. Serán transversales a las generaciones y al sistema desde infantil a la universidad, incluido el adiestramiento de profesores, además de a la formación profesional y a las plantillas en las empresas. Lo mismo al asumir tareas repetitivas que como impulso a la creatividad y la innovación.
Para calibrar este calado, pero también el riesgo de perder la oportunidad, deberíamos entender que implica un cambio completo de conceptos. Con la IA, la educación dejará de centrarse en la transmisión de conocimientos, mucho más allá de lo logrado por la expansión de internet, para enfocarse en la ordenación y el análisis. Mutará por lo tanto la misión, y con ella la gestión, de los centros educativos y la relación entre docentes y alumnos. El aprendizaje podría enfocarse en enseñarles a ordenar la ingente información a la que tienen acceso, aprender a dudar de lo mal argumentado, contrastar en diversas fuentes y formar sus propias opiniones con espíritu crítico.
Un ejemplo de sus efectos inéditos es que puede abrir nuevas salidas laborales para carreras de humanidades como psicología, filosofía, ética, lingüística o pedagogía, porque una de las claves para gestionar y sacarle el mayor partido a la IA es su condición multidisciplinar. Esos profesionales podrían hacer falta en equipos más diversos de empresas e instituciones.
Semejante promesa de cambio también implica interrogantes. Las herramientas no son una panacea; para que funcionen, millones de usuarios tendremos que aprender a usarlas. Facilitar esa conversión a la escala necesaria requiere planificación política e inversión porque no son tecnologías baratas. ¿Llegarán a todos y llegarán a tiempo?
Al catedrático Julio Gonzalo Arroyo, de la Universidad Nacional de Educación a Distancia (UNED), uno de los mayores expertos españoles en procesamiento de lenguaje natural e IA, le gusta comparar a la generativa con “el cuñado que todo lo sabe” porque habla con autoridad de cualquier cosa, basándose en todo lo que ha leído en su entrenamiento, y sin embargo su conocimiento es de momento superficial y no conviene fiarse demasiado de ella.
Pero el aterrizaje de los servicios tipo ChatGPT ha descolocado al sector. “Con su llegada se rompió el sistema educativo, todavía no podemos precisar el impacto real, lo iremos viendo cuando lleguen al mercado los chavales que ahora están en secundaria. Está claro, hay que cambiar tanto los métodos de aprendizaje como los de evaluación”. Dice que esto es solo el principio, el potencial de la IA generativa es enorme, “tanto para lo bueno como para lo malo”. Por ejemplo, el alumno puede preguntarle cualquier cosa a cualquier hora a esa especie de tutor personalizado y con paciencia infinita.
También es muy hábil… cometiendo errores
“Por desgracia, no es fiable, así que ese tutor, como fuente de autoridad, puede ser muy útil en algunas ocasiones y muy perjudicial en otras”, añade Arroyo. “En temas para los que hay muchísima redundancia en los datos de entrenamiento, la probabilidad de que nos mienta es más baja. Quizás esto ocurre con las materias propias de secundaria o bachillerato. Pero, a medida que el conocimiento es más especializado, la probabilidad de error aumenta significativamente”.
“Es cierto que sustituye a un montón de habilidades —continúa el catedrático—, pero la IA emula nuestra intuición, no nuestro pensamiento racional. En ciertos contextos esto es positivo, por ejemplo cuando un radiólogo examina una radiografía y dice ‘algo está mal, aunque no sé decirte qué’. Ahí está haciendo un diagnóstico intuitivo, basado en toda su experiencia profesional, y puede llegar a sitios donde un protocolo explícito de análisis no llega”. “Como asistente, está probado que la IA puede mejorar la productividad en muchas áreas, aunque no de la misma forma para todas las personas. En general, parece ser más útil para las menos expertas o eficientes que para las más expertas”.
Un estudio de la Organización de Consumidores y Usuarios (OCU), de 2023, señala que el 76,4% de los usuarios de IA generativa está satisfecho o muy satisfecho con la fiabilidad de sus resultados. Algo parecido concluye otro informe internacional del Instituto de Investigación de Capgemini: el 73% de los consumidores mundiales confía en los contenidos creados por la IA generativa. “Un problema enorme porque es una percepción equivocada”, resalta Arroyo, y que además comparten muchas personas altamente cualificadas.
La IA emula nuestra intuición, no nuestro pensamiento racional
Julio Gonzalo Arroyo, catedrático de la Universidad Nacional de Educación a Distancia (UNED)
Por ejemplo el informático británico Geoffrey Hinton, padrino de la IA galardonado con el Premio Turing 2018 por su trabajo en aprendizaje profundo. De hecho, renunció a trabajar para Google por los peligros que aprecia en estas nuevas tecnologías. Sin embargo, “Hinton defiende que la IA es inteligente de verdad. Así que no es solo un problema de los usuarios: es que ni siquiera nos ponemos de acuerdo entre los expertos”, apunta Arroyo.
El presidente de IE University y profesor de Dirección Estratégica, Santiago Íñiguez de Onzoño, se suma al grupo de los optimistas, siempre que se cumplan unos requisitos previos: “Ante el gran reto de la IA, es vital desarrollar el espíritu crítico de los alumnos. Pasaba ya, pero ahora va a ser absolutamente necesario, y en todos los niveles educativos”.
Docentes, los primeros alumnos
Según Íñiguez, es imprescindible preparar a todo el claustro de profesores para transmitir a los alumnos esa capacidad. “Hay que ver cómo integramos ese conocimiento en la educación, y paralelamente en el ámbito laboral. Cómo analizan estos programas o critican la estrategia de las empresas o cómo intervienen en áreas como las artes visuales o el diseño creando obras de arte, por ejemplo”.
Para este experto, el aspecto diferencial reside en usarla de forma eficiente y el valor añadido de la personalización. Ver cómo resuelve las consultas o hace informes o dictámenes, y de qué forma evoluciona “para dar el salto de la lógica actual en la que se basa el procesamiento de datos a un uso más contextual”. “Lo importante es que da acceso a gran cantidad de datos e informes y nos sirve para enriquecer el proceso de aprendizaje. Pero hay que garantizar la veracidad de los datos”.
Íñiguez vaticina que la IA podría ser más empática que la mayoría de los profesores. Además interactúa, “puede ser estimulante, provocativa y animadora durante el proceso de aprendizaje frente al cansancio que pueden padecer los docentes”. “Lo que está por ver es si reemplazará competencias, si puede sustituir completamente la genialidad, por ejemplo, de un profesor estrella”.
Hoy viene a clase el conquistador de medio mundo
¿Algún ejemplo de esa cualidad estimulante? “La suplantación de imágenes, la aparición de descendientes o personajes históricos como Alejandro Magno que hablen directamente al alumno en el aula, con la realidad aumentada. Esto puede potenciar su interés por la lectura”. Para Íñiguez, “los propios profesores pueden hacerse emprendedores, elaborar sus propios contenidos”. Eso sí, “los gobiernos autonómicos deben apostar ya por formar a los docentes, a diferentes velocidades y en todos los niveles educativos a la vez… Que las universidades puedan innovar, formar más en habilidades. Los graduados necesitan formación, pero también virtudes, porque la enseñanza es cada vez más analítica, social y emocional”.
También se necesitan equipos multidisciplinares, desde la filosofía a la lingüística, que trabajen junto a los programadores creando contenidos. “Ya no son de recibo las maneras de enseñar rudimentarias, ir a clase a tomar apuntes”, apunta Íñiguez. “La clase es para interactuar, discutir, plantear dudas, escribir sobre el tema que el docente les pide que trabajen”.
El orientador personal vive en tu casa
Para Juan Cigarrán, ex vicerrector de Tecnología de la UNED y experto en IA aplicada a la educación, la penetración de esta tecnología obliga a establecer modelos capaces de personalizar la enseñanza y realizar un seguimiento de cada estudiante para ir guiándole, aunque ese alumno también gestione su camino. “Es como tener un profesor particular que vigila el proceso de estudio, va detectando sus dificultades y le ayuda con sus dudas”. El sistema podrá construir un itinerario individual que adapta el aprendizaje al ritmo de cada alumno, va elevando el nivel y ofrece al profesor humano toda la información sobre avances, dificultades y tasas de éxito. Un proceso dinámico donde los docentes podrán ajustar los contenidos a lo largo del curso.
“Al profesor le permite centrarse en hacer bien su trabajo, le guía, le evita ir alumno por alumno porque recibe la información directamente de sus resultados. Y al estudiante le estimula con ejercicios y explicaciones a su nivel, detecta lo que necesita entrenar más. Puede ser la enseñanza personalizada de verdad”, resume Cigarrán.
Por ejemplo, un profesor le pide a ChatGPT que le estructure un curso en asignaturas de humanidades, con diferentes niveles de dificultad y ejemplos digitales. Además de minimizar el tiempo necesario para lograrlo, puede corregirlo, perfilarlo y volver esa tarea más creativa. Respecto al peligro del plagio, Cigarrán opina que “las herramientas actuales para detectarlo no son todavía fiables”, además “la IA es capaz de plagiarse a sí misma, con lo cual difunde ese plagio”.
Será menos inteligente si no sabes usarla
De momento, los mayores avances son futuribles. Antes hay que analizar cómo introducir estas herramientas en el aula y dotar a profesores y estudiantes de las competencias digitales necesarias. Aún no existe, según Cigarrán, un modelo sistematizado, pero sí diversos equipos de investigadores que trabajan para crear rutas de aprendizaje. Otra tarea tecnológica por hacer es adaptar las plataformas de aprendizaje ya existentes, como LMS, Mudar, Cambas Black Board o Google Classroom, para que el profesor pueda desarrollar contenidos y los estudiantes, seguirlos de la forma más transparente posible.
Daniel Arribas, responsable de Research en una multinacional tecnológica, también aporta una visión optimista, con precauciones. Igual que aprendimos a filtrar con buscadores, aprenderemos a hablar con los modelos LLM (Large Language Models) y darles instrucciones para resolver problemas. “Esto va a enriquecer el conocimiento muchísimo porque vamos a pasar de un aprendizaje memorístico a uno más razonado”, señala Arribas. “Permitirá estimular la creatividad hasta límites que todavía no podemos imaginar”.
La generación de ninjas digitales
¿A partir de qué edad los niños deberían aprender el uso de la IA? “Si se les digitaliza desde los 10 u 11 años, pueden ser herramientas muy útiles”, responde Juan Cigarrán, especialista en IA aplicada a la educación. Sin embargo, los más pequeños, con tres o cuatro años, ya pueden convivir con las primeras aplicaciones de forma progresiva, porque en el plazo de un lustro “habrá programas mucho más sofisticados que los actuales”, apunta el experto.
Estamos hablando de la primera cohorte IA, de la generación Alfa nacida a partir de 2010, cuya principal diferencia con la precedente generación Z es su convivencia con una IA generativa que les resultará más intuitiva, más natural. De ahí que les apliquen la etiqueta de “ninjas digitales” como un paso evolutivo más allá de la de nativos digitales.
El decano de la escuela de Ciencia y Tecnología de IE University, Ikhlaq Sidhu, también insiste en la profundidad del cambio de modelo: “El papel del maestro es facilitar los problemas y luego proporcionar el entorno de apoyo para que los estudiantes aprendan, lo que incluirá las diferentes herramientas que facilitará la IA”.