Las visiones generadas por la IA de
Google siempre serán defectuosas: Así funciona la IA
Una semana después de que sus algoritmos sugirieran a las personas
comer rocas y poner pegamento en la pizza, Google admitió el jueves
que necesitaba hacer ajustes en su nueva y audaz función de búsqueda
generativa de IA. Este episodio destaca los riesgos de la agresiva
apuesta de Google por comercializar la IA generativa, así como las
limitaciones fundamentales y traicioneras de esa tecnología.
La función de Visiones Generadas por la IA de Google se basa en
Gemini, un modelo de lenguaje grande similar al que impulsa ChatGPT
de OpenAI, para generar respuestas escritas a algunas consultas de
búsqueda al resumir información encontrada en línea. El auge actual
de la IA se basa en la impresionante fluidez con el texto de los
modelos de lenguaje grande, pero el software también puede utilizar
esa capacidad para darle un aspecto convincente a falsedades o
errores. Usar la tecnología para resumir información en línea
promete hacer que los resultados de búsqueda sean más fáciles de
digerir, pero es peligroso cuando las fuentes en línea son
contradictorias o cuando las personas pueden usar la información
para tomar decisiones importantes.
“Puedes obtener un prototipo rápido y llamativo ahora bastante
rápido con un modelo de lenguaje grande, pero para hacerlo realmente
de manera que no te diga que comas rocas se necesita mucho trabajo”,
dice Richard Socher, quien hizo contribuciones clave a la IA para el
lenguaje como investigador y, a finales de 2021, lanzó un motor de
búsqueda centrado en la IA llamado You.com.
Socher dice que manejar los modelos de lenguaje grande requiere un
esfuerzo considerable porque la tecnología subyacente no tiene una
comprensión real del mundo y porque la web está plagada de
información
poco confiable. “En algunos
casos, es mejor no darte una respuesta, o mostrarte múltiples puntos
de vista diferentes”, dice.
La jefa de búsqueda de Google, Liz Reid, dijo en la publicación del
blog de la empresa el jueves por la noche que realizaron pruebas
exhaustivas antes de lanzar Visiones Generadas por la IA. Pero
agregó que errores
como los
ejemplos de
|
|
comer rocas y pizza con
pegamento, en los que los algoritmos de Google obtuvieron información de un
artículo satírico y un comentario jocoso en Reddit, respectivamente, habían
motivado cambios adicionales. Estos incluyen una mejor detección de “consultas
sin sentido”, dice Google, y hacer que el sistema dependa menos del contenido
generado por los usuarios.
You.com evita rutinariamente los tipos de errores mostrados por las Visiones
Generadas por la IA de Google, dice Socher, porque su empresa desarrolló una
docena de trucos para evitar que los modelos de lenguaje grande se comporten mal
cuando se usan para la búsqueda.
“Somos más precisos porque dedicamos muchos recursos a ser más precisos”, dice
Socher. Entre otras cosas, You.com utiliza un índice web personalizado diseñado
para ayudar a los modelos de lenguaje grande a evitar información incorrecta.
También selecciona entre múltiples modelos de lenguaje grande diferentes para
responder a consultas específicas y utiliza un mecanismo de citas que puede
explicar cuando las fuentes son contradictorias. Aun así, hacer que la búsqueda
con IA sea correcta es complicado. WIRED descubrió el viernes que You.com no
respondió correctamente a una consulta que se sabe que desconcierta a otros
sistemas de IA, afirmando que “basado en la información disponible, no hay
naciones africanas cuyos nombres comiencen con la letra 'K'”. En pruebas
anteriores, había acertado en la consulta.
La actualización de IA generativa de Google a su producto más utilizado y
lucrativo es parte de una renovación en toda la industria tecnológica inspirada
por el lanzamiento del chatbot ChatGPT de OpenAI en noviembre de 2022. Un par de
meses después del debut de ChatGPT, Microsoft, un socio clave de OpenAI, utilizó
su tecnología para actualizar su motor de búsqueda Bing. El Bing mejorado estaba
plagado de errores generados por IA y comportamientos extraños, pero el CEO de
la compañía, Satya Nadella, dijo que el movimiento estaba diseñado para desafiar
a Google, diciendo “Quiero que la gente sepa que los hicimos bailar”.
Algunos expertos sienten que Google apresuró su actualización de IA. “Me
sorprende que lo lanzaran tal como está
|
|
para tantas consultas:
consultas médicas, financieras. Pensé que serían más cuidadosos”, dice Barry
Schwartz, editor de noticias en Search Engine Land, una publicación que rastrea
la industria de la búsqueda. La empresa debería haber anticipado mejor que
algunas personas intentarían intencionalmente desconcertar a las Visiones
Generadas por la IA, agrega. “Google tiene que ser inteligente con eso”, dice
Schwartz, especialmente cuando muestran los resultados como predeterminados en
su producto más valioso.
Lily Ray, una consultora de optimización de motores de búsqueda, fue durante un
año probadora beta del prototipo que precedió a las Visiones Generadas por
la IA, que Google llamó Experiencia de Búsqueda Generativa. Ella dice que no le
sorprendió ver los errores
que aparecieron la semana pasada, dado cómo la versión anterior tendía a fallar.
“Creo que es prácticamente imposible que siempre haga todo bien”, dice Ray. “Esa
es la naturaleza de la IA”.
Incluso si los errores flagrantes como sugerir a las personas que coman rocas se
vuelven menos comunes, la búsqueda con IA puede fallar de otras maneras. Ray ha
documentado problemas más sutiles con las Visiones Generadas por la IA,
incluyendo resúmenes que a veces se basan en fuentes deficientes, como sitios de
otra región o incluso sitios web desaparecidos, algo que podría proporcionar
información menos útil a los usuarios que buscan recomendaciones de productos,
por ejemplo. Aquellos que trabajan en optimizar contenido para el algoritmo de
búsqueda de Google todavía están tratando de entender qué está pasando. “Dentro
de nuestra industria en este momento, el nivel de confusión está por las nubes”,
dice.
Incluso si los expertos de la industria y los consumidores se familiarizan más
con el comportamiento de la nueva búsqueda de Google, no esperen que deje de
cometer errores. Daniel Griffin, consultor e investigador de búsqueda que está
desarrollando herramientas para facilitar la comparación de diferentes servicios
de búsqueda impulsados por IA, dice que Google enfrentó problemas similares
cuando lanzó Featured Snippets, que respondían a consultas con texto citado de
sitios web, en 2014.
Griffin dice que espera que Google resuelva algunos de los problemas más
evidentes con las Visiones Generadas por la IA, pero que es importante recordar
que nadie ha resuelto el problema de que los modelos de lenguaje grande no
comprendan qué es verdad, o su tendencia a fabricar información. “No es solo un
problema con la IA”, dice. “Es la web, es el mundo. No hay realmente una verdad,
necesariamente.”
|