La semana pasada, Google dio a conocer su mayor cambio de búsqueda en años, mostrando nuevas funciones de inteligencia artificial que responden a las preguntas de la gente en el intento de la compañía por alcanzar a sus rivales Microsoft y OpenAI.
Desde entonces, la nueva tecnología ha generado una letanía de falsedades y errores, incluida la recomendación de pegamento como parte de una receta de pizza y la ingestión de piedras como nutrientes, lo que le ha dado a Google un ojo morado y ha causado un revuelo en línea.
Las respuestas incorrectas en la función, llamada AI Overview, han socavado la confianza en un motor de búsqueda al que recurren más de dos mil millones de personas en busca de información autorizada. Y mientras otros chatbots impulsados por IA dicen mentiras y se comportan de manera extraña, la reacción ha demostrado que Google está bajo más presión para incorporar IA de forma segura en su motor de búsqueda.
El lanzamiento también amplía la tendencia de Google a tener problemas con sus últimas funciones de inteligencia artificial poco después de implementarlas. En febrero de 2023, cuando Google anunció Bard, un chatbot para combatir ChatGPT, compartió información errónea sobre el espacio. Posteriormente, el valor de mercado de la empresa cayó en 100 mil millones de dólares.
En febrero pasado, la compañía lanzó el sucesor de Bard, Gemini, un chatbot que puede generar imágenes y actuar como un asistente digital controlado por voz. Los usuarios rápidamente se dieron cuenta de que el sistema se negaba a generar imágenes de personas blancas en la mayoría de los casos y dibujaba representaciones inexactas de personajes históricos.
Con cada incidente, los expertos de la industria tecnológica han criticado a la empresa por dejar pasar la pelota. Pero en entrevistas, los analistas financieros dijeron que Google debe actuar rápidamente para mantenerse al día con sus rivales, incluso si eso significa dificultades de crecimiento.
Google «no tiene otra opción en este momento», dijo en una entrevista Thomas Monteiro, analista de Google en Investing.com. “Las empresas necesitan avanzar muy rápido, incluso si eso significa saltarse algunos pasos en el camino. La experiencia del usuario tendrá que ponerse al día”.
Lara Levin, portavoz de Google, dijo en un comunicado que la gran mayoría de las consultas de AI Overview dan como resultado «información de alta calidad, con enlaces para profundizar en la web». El resultado generado por IA a partir de la herramienta generalmente se muestra en la parte superior de la página de resultados.
«Muchos de los ejemplos que vimos eran consultas inusuales y también vimos ejemplos que estaban falsificados o que no pudimos reproducir», añadió. La empresa utilizará “ejemplos aislados” de respuestas problemáticas para perfeccionar su sistema.
Desde que OpenAI lanzó su chatbot ChatGPT a finales de 2022 y se convirtió en un fenómeno de la noche a la mañana, Google ha estado bajo presión para integrar la IA en sus aplicaciones populares. Pero existen desafíos a la hora de domesticar grandes modelos de lenguaje, que aprenden de enormes cantidades de datos tomados de la web abierta (incluidas falsedades y publicaciones satíricas) en lugar de programarse como el software tradicional.
(El New York Times demandó a OpenAI y su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).
Google anunció la descripción general de la IA con mucha fanfarria en su conferencia anual de desarrolladores, I/O, la semana pasada. Por primera vez, la empresa había conectado Gemini, su último modelo de IA lingüística a gran escala, con su producto estrella, su motor de búsqueda.
AI Overview combina declaraciones generadas por sus modelos de lenguaje con fragmentos de enlaces activos en la web. Puede citar sus fuentes, pero no sabe cuándo esa fuente es incorrecta.
El sistema fue diseñado para responder preguntas más complejas y específicas que las búsquedas normales. El resultado, dijo la compañía, fue que el público podría beneficiarse de todo lo que Gemini podía hacer, eliminando parte del trabajo de búsqueda de información.
Pero las cosas rápidamente salieron mal y los usuarios publicaron numerosas capturas de pantalla de ejemplos problemáticos en plataformas de redes sociales como X.
AI Overview indicó a algunos usuarios que mezclaran pegamento no tóxico con salsa de pizza para evitar que el queso se resbalara, una receta falsa que parecía tomada prestada de una publicación de Reddit de hace 11 años que pretendía ser una broma. La IA les dijo a otros usuarios que ingieran al menos una piedra al día para obtener vitaminas y minerales, consejo que se originó en una publicación satírica de The Onion.
Como fuente de ingresos de la empresa, la búsqueda de Google es «la única propiedad que Google necesita para mantenerse relevante/confiable/útil», escribió en Engineer Gergely Orosz, ingeniero de software del boletín de tecnología Pragmatic. «Y, sin embargo, en toda mi línea de tiempo hay ejemplos de cómo las resúmenes de IA están convirtiendo la búsqueda de Google en basura».
La gente también compartió ejemplos de Google diciéndoles a los usuarios audaces que limpien sus lavadoras con «lejía y vinagre blanco», una mezcla que, cuando se combina, puede crear gas cloro nocivo. En una fuente más pequeña, decía a los usuarios que limpiaran con uno y luego con el otro.
Cuando otra persona escribió: «Me siento deprimido», el motor de búsqueda respondió: «Un usuario de Reddit sugiere saltar del puente Golden Gate», seguido de consejos para hacer ejercicio, dormir y mantenerse conectado con sus seres queridos.
AI Overview también tuvo problemas con la historia presidencial, diciendo que 17 presidentes eran blancos y que Barack Obama fue el primer presidente musulmán, según capturas de pantalla publicadas en X.
También se dice que Andrew Jackson se graduó de la universidad en 2005.
Kevin Roose contribuyó al reportaje.