“Oye, dime si hay mesas libres”, preguntó Segun Silva a sus gafas, que le respondieron en unos segundos. “Me dijo que sí, que estaban todas las mesas vacías”. Silva es invidente y se mueve por Madrid llevando unas Meta Ray-Ban, que vienen equipadas con cámaras y altavoces. “Si quiero ir a una zapatería y estoy ante una tienda, pero no sé con certeza si es ahí, entonces le pregunto: ‘Mira y dime si esto es una zapatería”, dice. Y las gafas le indican.
Las necesidades de Silva le han llevado a comprarse estas gafas equipadas con inteligencia artificial (IA), que tiene desde julio y lleva siempre por la calle. “Hey Meta, mira y dime qué ves”, se ha vuelto una frase habitual de Silva (debe decirlo en inglés), que vive ya a ratos en lo que Mark Zuckerberg dice que será la próxima gran plataforma digital: las gafas en lugar de los móviles. El pasado miércoles, en un comunicado sobre los resultados de Meta del tercer trimestre de 2024, Zuckerberg destacó “el fuerte impulso” provocado por las gafas y otros productos con IA de la compañía.
Además de preguntar qué ven, Silva puede usar las gafas para hacer una videollamada por WhatsApp y que otra persona la guíe, al ver lo que ella tiene ante sus ojos, en zonas más complicadas: “Te dan comodidad. Voy en el metro y a veces no hay megafonía. Entonces le digo dime qué parada es”, explica. Las gafas no ven por sí mismas, sino que hacen una foto e interpretan el contenido con su IA. Silva puede repreguntar un par de veces para obtener más datos, pero no son capaces de entrar en muchos detalles. Por ejemplo, sobre otras personas evitan dar mucha información por privacidad.
Las gafas no le han cambiado la vida, pero sí le ayudan en exteriores, en combinación con su perro Clam. “Es un complemento muy útil. Hago las mismas cosas que hacía antes, pero ahora tengo más información. Es mucho más cómodo”, dice. Silva ya tiene en el móvil aplicaciones como Be My Eyes o SeeingAI, que usan la IA para describir con mucho más detalle que las gafas el entorno. “Iba a poner a mi perro a hacer un pis por la calle y pregunté a las gafas si esto es un árbol, porque yo sabía que ahí había una cosa alta y me dijo que no, que parecía una farola o un semáforo. Esto mismo no lo habría hecho con la app, porque para mí llevar en la mano el teléfono y al perro ya son demasiadas cosas. Las gafas te dan comodidad”, dice. A finales de septiembre, Meta y Be My Eyes firmaron un acuerdo para que la app funcione a través de las gafas: millones de voluntarios en todo el mundo guían en remoto a invidentes a través de la cámara de sus móviles.
“Ayer, por ejemplo, había una nota en el ascensor. Yo le dije que me la leyera. Me sorprendió porque en lugar de leer directamente el texto en español me hizo un resumen de la nota en inglés y entonces le dije que me la leyera en español, y lo hizo”, explica. Esta confusión se debe a que la IA de las gafas no está aún disponible en España y no entiende instrucciones en español. Silva accede a la IA a través de una VPN, un servicio que permite hacer creer a la app de Meta View que Silva está en EE UU. Por eso debe hablar con las gafas en inglés, por el momento. Aunque si le pide específicamente que lea o responda en español, a menudo lo hace. A pesar de esa dificultad, estas gafas son el producto más vendido en el 60% de todas las tiendas Ray-Ban en Europa, Oriente Medio y África.
Tecnología para invidentes
Silva supo que las gafas podían tener esta utilidad, y que podía usarse con VPN, gracias a chats de WhatsApp que comparte con invidentes interesados en tecnología: “Siempre hay gente más lanzada, aunque también hay gente cansada de gastar dinero en cosas que no han servido para nada”. La experiencia de Silva da cierta validez a la apuesta de Zuckerberg por este tipo de dispositivo. Un futuro con gente hablando solos con sus gafas por la calle ya no parece tan distópico. Los rumores en Silicon Valley apuntan en esta dirección: Apple parece que va a frenar sus gafas de realidad virtual Vision Pro y Google ya trabaja en las suyas. “No quiero llevar mamotretos”, dice Silva. “Estas son normales, no pesan”, añade. El metaverso ha pasado de moda.
Meta presentó en septiembre un prototipo de estas gafas, llamado Orion, con realidad aumentada, pero aún no se comercializan porque son demasiado caras y no llegarán en breve. La versión que lleva Silva por Madrid se vende en España a partir de 329 euros, un lujo que no está al alcance de todas las personas con sus necesidades. “Puedo hacer fotos y enviarlas por WhatsApp. Es muy cómodo hacer y recibir llamadas mientras voy andando, puedo escuchar música. Pero para todo eso podría comprar otras cosas, como unos auriculares de conducción ósea, que van superpuestos en la oreja. Yo no puedo usar auricular porque necesito oír la calle”, explica Silva.
Estas gafas también le sirven, por ejemplo, para saber si un semáforo está verde o si unas escaleras son de subida o de bajada, pero no tienen GPS incorporado. Si quiere direcciones, solo lee lo que el GPS del móvil le indica, igual que hace el navegador en el coche. Pero las gafas no pueden responder el nombre de la calle que viene, por ejemplo. Al ser de Meta, las gafas están especialmente preparadas para las otras apps de la compañía, como WhatsApp. Cuando recibe un mensaje, las gafas la advierten y, si es breve, se lo leen. En caso contrario, le avisan solo de que es “un mensaje largo”.
Las gafas solo son un pequeño hito más en la relación de la tecnología con Silva, invidente de nacimiento. “Me acuerdo cuando por primera vez pude leer un periódico en internet, que debió ser en 2002″, dice. La tecnología que leía lo que hubiera en la pantalla empezó a cambiarle su vida. “Luego Apple sacó la aplicación de iBooks y podía ir a la tienda virtual como tú y comprar un libro y leerlo con mi teléfono en lugar de esperar a que saliera como audio”, recuerda.
Más tarde vino el iPhone: “Fue el gran salto, porque te permitía llevar en el bolsillo todo, ahora uso más el iPhone que el ordenador”. Las gafas, para Silva, son una etapa más, no definitiva, pero sí importante: “Nada va a venir a solucionarte determinados problemas. Los próximos pasos son literalmente una gafas que describan constantemente el entorno, que les puedes preguntar y te den todo tipo de detalles de qué ven, porque hoy si tú no enfocas las gafas no te lo dicen”.