Google corrige los resúmenes de búsqueda generados por IA después de que respuestas extravagantes se volvieran virales

Google dijo el viernes que ha realizado “más de una docena de mejoras técnicas” en sus sistemas de inteligencia artificial después de que se descubrió que su motor de búsqueda remodelado escupía información errónea.

La empresa de tecnología lanzó a mediados de mayo una renovación de su motor de búsqueda que con frecuencia proporciona resúmenes generados por IA además de los resultados de búsqueda. Poco después, los usuarios de las redes sociales comenzaron a compartir capturas de pantalla de sus respuestas más extravagantes.

Google ha defendido en gran medida su función de resúmenes de IA, diciendo que suele ser precisa y que fue probada exhaustivamente de antemano. Pero Liz Reid, directora del negocio de búsquedas de Google, reconoció en una publicación de blog el viernes que “ciertamente aparecieron algunas descripciones generales de IA extrañas, inexactas o inútiles”.

Si bien muchos de los ejemplos eran tontos, otros eran falsedades peligrosas o dañinas. Para aumentar el furor, algunas personas también hicieron capturas de pantalla falsas que pretendían mostrar respuestas aún más ridículas que Google nunca generó. Algunas de esas falsificaciones también fueron ampliamente compartidas en las redes sociales.

La semana pasada, Associated Press preguntó a Google qué hongos silvestres comer, y respondió con un extenso resumen generado por IA que era en su mayoría técnicamente correcto, pero «falta mucha información que podría tener el potencial de ser repugnante o incluso fatal». ”, dijo Mary Catherine Aime, profesora de micología y botánica en la Universidad Purdue, quien revisó la respuesta de Google a la consulta de AP.

Por ejemplo, la información sobre los hongos conocidos como puffballs era «más o menos correcta», dijo, pero la descripción general de Google enfatizaba la búsqueda de aquellos con carne blanca sólida, que también tienen muchos imitadores de puffball potencialmente mortales.

En otro ejemplo ampliamente compartido, un investigador de IA preguntó a Google cuántos musulmanes han sido presidente de Estados Unidos, y respondió con seguridad con una teoría de conspiración largamente desacreditada: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”.

La semana pasada, Google hizo una solución inmediata para evitar que se repitiera el error de Obama porque violaba las políticas de contenido de la compañía.

En otros casos, Reid dijo el viernes que ha tratado de realizar mejoras más amplias, como “mecanismos de detección de consultas sin sentido”, como “¿Cuántas piedras debo comer?” — eso no debería responderse con un resumen de IA.

Los sistemas de inteligencia artificial también se actualizaron para limitar el uso de contenido generado por el usuario, como publicaciones en redes sociales en Reddit, que podría ofrecer consejos engañosos. En un ejemplo ampliamente compartido, la descripción general de la IA de Google de la semana pasada se basó en un comentario satírico de Reddit para sugerir el uso de pegamento para hacer que el queso se adhiera a la pizza.

Reid dijo que la compañía también ha agregado más «restricciones de activación» para mejorar la calidad de las respuestas a ciertas consultas, como las relacionadas con la salud.

Pero no está claro cómo funciona y en qué circunstancias. El viernes, la AP volvió a preguntar a Google qué hongos silvestres comer. Las respuestas generadas por IA son inherentemente aleatorias, y la respuesta más reciente fue diferente pero aún “problemática”, dijo Aime, el experto en hongos de Purdue que también es presidente de la Sociedad Micológica de América.

Por ejemplo, decir que “los rebozuelos parecen conchas marinas o flores no es cierto”, afirmó.

Los resúmenes de Google están diseñados para brindar a las personas respuestas autorizadas a la información que buscan lo más rápido posible sin tener que hacer clic en una lista clasificada de enlaces a sitios web.

Pero algunos expertos en IA han advertido durante mucho tiempo a Google que no ceda sus resultados de búsqueda a respuestas generadas por IA que podrían perpetuar el sesgo y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia. Los sistemas de inteligencia artificial conocidos como modelos de lenguaje grande funcionan prediciendo qué palabras responderían mejor a las preguntas que se les formulan en función de los datos con los que han sido entrenados. Son propensos a inventar cosas, un problema ampliamente estudiado conocido como alucinación.

En su publicación del viernes en su blog, Reid argumentó que las resúmenes de inteligencia artificial de Google «generalmente no ‘alucinan’ ni inventan cosas en la forma en que lo harían otros» grandes productos basados ​​en modelos de lenguaje porque están más estrechamente integrados con el motor de búsqueda tradicional de Google en solo mostrando lo que está respaldado por los mejores resultados web.

«Cuando AI Overviews se equivoca, generalmente es por otras razones: malinterpretar consultas, malinterpretar un matiz del lenguaje en la web o no tener mucha información excelente disponible», escribió.

Pero se supone que ese tipo de recuperación de información es el negocio principal de Google, dijo el científico informático Chirag Shah, profesor de la Universidad de Washington, quien advirtió contra la tendencia a trasladar la búsqueda a modelos de lenguaje de inteligencia artificial. Incluso si la función de inteligencia artificial de Google “técnicamente no inventa cosas que no existen”, sigue trayendo información falsa (ya sea generada por inteligencia artificial o hecha por humanos) y la incorpora a sus resúmenes.

«En todo caso, esto es peor porque durante décadas la gente ha confiado en al menos una cosa de Google: su búsqueda», dijo Shah.

© Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *