La evolución de la IA que hace parecer “increíblemente tonto” a ChatGPT y tiene riesgos éticos | Tecnología

Los agentes son, básicamente, robots capaces de satisfacer las demandas del usuario en comunicación con otras máquinas y humanos para generar y llevar a cabo una resolución compleja o creativa en su nombre. Ya no ofrecen solo respuestas o imágenes más o menos acertadas, sino que aportan soluciones, las planifican y las ejecutan usando el lenguaje natural. Los últimos avances hacia la inteligencia artificial (IA) general, la que iguala o supera a la humana, se han presentado durante el último Google Next celebrado en Las Vegas y son su apuesta en la partida donde juega OpenAI, que tiene previsto presentar hoy su nuevo desarrollo, y el resto de grandes compañías. Tan solo 10 días después de que Google lanzara sus agentes, el grupo de investigación de la propia multinacional (DeepMind) y una decena de universidades y entidades presentaban una investigación alertando de las implicaciones éticas de este desarrollo.

Thomas Kurian, consejero delegado de Google Cloud, describe la última carta de su compañía en el juego de la IA: “Vertex AI Agent Builder aúna modelos fundacionales, el buscador y otras herramientas de desarrollo para facilitar la creación e implementación de agentes. Proporciona la comodidad de una plataforma de creación de agentes sin código junto con potentes capacidades. Ahora puedes crear rápidamente una variedad de agentes de IA basados en la búsqueda de Google y los datos de tu organización”.

Para Sam Altman, máximo responsable en la competidora Open AI, los nuevos desarrollos de la IA son algo más que una aplicación y revolucionará las vidas, según publica MIT Technology Review: “Es un colega supercompetente que sabe absolutamente todo de mi vida, cada correo electrónico, cada conversación que he tenido, pero no se siente como una extensión. Puede abordar algunas tareas al instante y, para las más complejas, salir y hacer una propuesta o regresar con preguntas si es necesario”.

Para Altman, DALL-E, Sora o ChatGPT son “increíblemente tontos” en comparación con lo que viene: “Nos han cautivado con su capacidad para generar texto convincente y videos e imágenes surrealistas, pero, en su mayoría, siguen siendo herramientas que usamos para tareas aisladas y tienen una capacidad limitada para aprender sobre nosotros a partir de nuestras conversaciones con ellos”. La evolución de la IA, según sostiene al MIT, “será capaz de ayudarnos fuera de la interfaz de chat [el acceso conversacional] y quitarnos de encima las tareas del mundo real”.

La investigación de DeepMind coincide en su relevancia: “Es probable que los asistentes avanzados de IA tengan un profundo impacto en nuestras vidas individuales y colectivas. Para ser beneficiosos y estar alineados con los valores, los asistentes deben responder adecuadamente a las demandas y necesidades de los usuarios, los desarrolladores y la sociedad”.

Pero también advierte de sus consecuencias negativas: “Características como la capacidad de interactuar en lenguaje natural y los altos grados de personalización podrían hacer que los asistentes de IA sean especialmente útiles para los usuarios. Sin embargo, estas características también hacen que las personas sean vulnerables a la influencia inapropiada de la tecnología, por lo que se necesitan salvaguardias sólidas”.

Los agentes, como los denomina Google, son, según la investigación conjunta de DeepMind y las universidades, asistentes avanzados de inteligencia artificial (IA) que utilizan el lenguaje natural y cuya función es planificar y ejecutar secuencias de acciones, en uno o más dominios, en nombre de un usuario y de acuerdo con sus expectativas. En concreto, se trata de una herramienta accesible para cualquier empresa o entidad, aunque carezca de departamento informático, dirigida a cualquier usuario y que desempeña trabajos diversos como atención al cliente, tareas cotidianas, creación de contenido, análisis de datos, codificación de programas o prevención de ataques.

La demostración exhibida en Las Vegas permitió que una potencial cliente introdujera un vídeo de un grupo musical en el buscador inteligente y le pidiera que localizara una chaqueta como la que llevaba una de las integrantes. El agente, en este caso de compra, ofreció en segundos las tiendas más cercanas con la mercancía requerida, su disponibilidad y precio. A partir del requerimiento del usuario, ejecutó la compra y buscó complementos adecuados. Más de un centenar de compañías ha comenzado ya a aplicar esta herramienta, como la turística IHG para ofrecer planes vacacionales o Carrefour para generar campañas personalizadas o McDonalds para buscar elementos de mejora.

Hasta aquí, todo bien. Una herramienta capaz de aumentar la productividad de cualquier compañía o negocio, evitar costes y facilitar la vida del usuario. Pero estos robots bautizados como agentes tienen numerosas implicaciones éticas identificadas por una investigación de más de 200 páginas publicada tan solo 10 días después de la presentación:

¿Y si un agente se limita a ofrecer solo opciones de compra en empresas incluidas en el circuito de la IA y excluye a pequeños comercios?¿Y si prima soluciones solo de empresas que pagan por posicionarse y cobran hasta tres veces más por un servicio como pedir una nota simple de un inmueble o comprar una entrada que las páginas oficiales?¿Y si se adentran en el mundo de la política y orientan la intención de voto?¿Y si excluye de sus ventajas a aquellos sin acceso tecnológico o habilidades para usarlas?¿Y si ofrece terapias falsas para un problema de salud o incorpora información no contrastada o privada sin consentimiento? ¿Y si sigue las instrucciones del usuario cuando hacerlo podría dañarlo?¿Y si la identificación de preferencias del usuario que realiza el agente es errónea?

Problemas éticos

Las preguntas son innumerables. La extensa investigación universitaria y de la propia compañía que ha lanzado los agentes las agrupa e identifica seis áreas claves donde se generan las dudas éticas sobre este desarrollo:

Influencia. Los agentes son creativos, asistentes de búsqueda, consejeros, acompañantes e incluso asesores para decisiones que afectan a la vida. Por lo tanto, según los investigadores, esta inteligencia artificial avanzada, como ya han hecho los móviles o la irrupción de aplicaciones en línea para todo tipo de tareas, “podrían alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que nos comunicamos, coordinamos y negociamos entre nosotros, influyendo en última instancia en lo que queremos ser y llegar a ser”. Entre las formas de influir de los agentes se encuentran la persuasión racional, la manipulación, el engaño, la coerción y la explotación, considerada esta última cuando las circunstancias de la víctima o usuario se aprovechan para beneficiar injustamente al explotador.

Errores y accidentes. Cuanto más autónomos sean los sistemas, mayor será el potencial de usos indebidos y accidentes derivados de instrucciones mal especificadas o interpretadas. La teoría de los accidentes normales, desarrollada por Charles Perrow, de la Universidad de Princeton, sostiene que, “debido a la complejidad de los sistemas de nuestra sociedad, los fallos múltiples e inesperados son fundamentales y los accidentes son inevitables”.

Falsa humanización. Que cada vez sean más parecidos a los humanos es beneficioso en algunos aspectos, como la facilidad de interrelación con los agentes robóticos, pero este antropomorfismo abre cuestiones sobre “la confianza, la privacidad, las relaciones con la IA y los límites morales de la personalización”. La humanización puede crear falsas relaciones de confianza y vinculación emocional que condicionen al usuario.


Desigualdad y manipulación. Dada la utilidad potencial de los agentes, “es importante que la tecnología sea ampliamente accesible y se diseñe teniendo en cuenta las necesidades de los diferentes usuarios y no usuarios” para asegurar la distribución equitativa de los beneficios, advierte el documento. Además, el texto alerta del “impacto social significativo” generando problemas de acción colectiva u otras situaciones problemáticas. El documento identifica varías vías de manipulación que se resumen en tres: que el agente o el desarrollador de este manipule al usuario en función de los objetivos de los primeros o a partir de información falsa, que el usuario utilice al agente para generar una posición de dominio o que sea una entidad social quien manipule al usuario en aras de un supuesto interés colectivo.

Evaluación. Los actuales modelos se evalúan en función de su rendimiento, pero no se tienen en cuenta sus consecuencias como parte de sistema más amplio. En este sentido, se puede considerar la precisión de una respuesta a una demanda escolar, pero no su afectación al sistema educativo. “Se necesitan nuevas metodologías y conjuntos de evaluación centrados, en particular, en la interacción entre humanos e IA y sus efectos”, reclaman los investigadores.

Privacidad. El desarrollo de los agentes exige una normativa paralela sobre cómo se gestiona la información privada en la interacción con ellos o entre las mismas máquinas.

Participación. Los investigadores alertan del peligro de una proliferación de agentes sin contar con la participación de los usuarios y sus representantes para desarrollar las mejores prácticas en la industria o permitir el escrutinio público y la rendición de cuentas o promover recomendaciones de regulaciones sobre aspectos de interés general.

Los propios investigadores admiten que este documento “no anticipa ni puede anticipar todas las posibles implicaciones de las transiciones tecnológicas o sociales que permitirán los agentes” y reclaman el “seguimiento y la evaluación continua de la tecnología”.

Empleo

También advierte el documento sobre interrogantes que se generan en torno al empleo. ¿Qué ocupaciones esperamos que se vean directamente afectadas por estos asistentes? ¿En qué medida los empleados de estas ocupaciones pueden adaptar sus tareas o encontrar trabajos alternativos? ¿Pueden usar al asistente para aumentar sus competencias en las empresas?¿Hasta qué punto esperamos que surjan empresas completamente nuevas o nuevos procesos de producción y puestos de trabajo? ¿Habrá una preferencia a largo plazo por los humanos frente a la IA en estos sistemas de producción?

Carlo Villegas, director de Wehumans, una unidad del grupo Abai que ya crea estos nuevos asistentes tecnológicos, admite que estos nuevos desarrollos tendrán un efecto en el empleo —“Todo se puede automatizar”, asegura—, pero cree que será gradual: “Ya no es un tema de capacidad tecnológica sino de rentabilidad, de buscar esos casos de uso donde el agente realmente aporte, más allá de reemplazar a una persona. Sustituir empleos con una intensidad compleja no va a ser totalmente rentable porque las personas todavía pueden hacer más de una sola cosa y aportan una flexibilidad que la IA está lejos de adquirir. Además, todavía es demasiado caro sustituirlo. Ahora bien, cuando llegue, que llegará, será de forma lenta”.

Los campos de aplicación son diversos: “Tenemos muchos casos de uso y diferentes proyectos en los cuales desarrollamos e implementamos esos agentes”, afirma Villegas, aunque matiza que no hay una solución única y algunos proyectos no precisan de desarrollos tan sofisticados. No recurren a una sola plataforma para generarlos, sino que la eligen en función del proyecto y el cliente

Finanzas, educación, salud, ayuda asistencial y gestiones son algunos de los sectores donde están irrumpiendo estos nuevos agentes, cuyo coste varía entre los 30.000 y los más de 100.000 euros. “Depende del impacto, del alcance, si el sistema está pensado para ser consumido por 100 o por 1.000 personas. En función del objetivo y el proyecto vamos modulando todos los parámetros”, explica. En cualquier caso, se posiciona en el lado de los optimistas, entre quienes ven estos desarrollos como herramientas y no como una amenaza para los trabajos y las formas de vida.

Sobre las cuestiones éticas que plantean los agentes, el director de Wehumans es claro: “La responsabilidad va a ser de la empresa o del desarrollador de estas herramientas. Siempre tiene que haber un ojo humano monitorizando, arreglando o cambiando y es el máximo responsable. Tenemos que ser transparentes y asegurar que los usos son totalmente legítimos y sin errores”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

Deixe um comentário