Google afirma haber realizado más de una docena de mejoras técnicas en las superposiciones (representación) de IA.

Una semana después de que una serie de capturas de pantalla de la herramienta de búsqueda de inteligencia artificial de Google, AI Overviews, que arrojaban respuestas incorrectas se volvieran virales en las redes sociales, Google publicó una explicación y citó «falta de datos» y «brecha de información» como razones del error.

Hace unas semanas, Google lanzó su función de búsqueda experimental de IA en los EE. UU., sin embargo, pronto quedó bajo escrutinio después de que la gente compartiera las extrañas respuestas de la herramienta de búsqueda en las redes sociales, incluidas personas comiendo piedras y pidiendo a la gente que mezclara queso de pizza con pegamento. .

En una publicación de blog, Google reconoció que «definitivamente aparecerán algunas descripciones generales de IA extrañas, inexactas o inútiles», al tiempo que eliminó respuestas supuestamente peligrosas sobre temas como dejar perros en los automóviles y fumar durante el embarazo. Google ha criticado la gran cantidad de capturas de pantalla falsas que se comparten en línea, calificándolas de «obvias» y «tontas».

Dijo que había visto «nuevas búsquedas estúpidas destinadas a generar resultados falsos» y que una de las áreas de mejora era explicar consultas tontas y contenido satírico.

Citando el ejemplo de una pregunta en capturas de pantalla virales: «¿Cuántas piedras debo comer?» – Google dijo que prácticamente nadie hacía esa pregunta antes de que esas capturas de pantalla se volvieran virales. La falta de contenido web de alta calidad en línea que considere seriamente esa cuestión ha creado un «vacío de datos» o «brecha de información», según Google. Al explicar por qué el motor de búsqueda obtuvo una respuesta extraña a esta consulta en particular, Google dijo: «Este tema contiene contenido satírico… que también se volvió a publicar en el sitio web de un proveedor de software de geografía. Entonces, cuando alguien planteó esa pregunta, la búsqueda mostró una Descripción general de la IA que en realidad enlazaba con el único sitio web que abordaba la pregunta».

READ  Lanzamiento de Xiaomi 14 Civi India hoy a las 12 p.m.: transmisión en vivo, qué esperar, más | Noticias técnicas

En una publicación de blog, Liz Reed, vicepresidenta y directora de búsqueda de Google, explicó cómo funcionan las descripciones generales de IA y qué las diferencia de los chatbots y otros productos LLM. Las descripciones generales de IA están «impulsadas por un modelo de lenguaje personalizado, integrado con nuestros sistemas principales de clasificación web y diseñadas para realizar tareas de» búsqueda «tradicionales, como identificar resultados relevantes y de alta calidad del índice de Google», dijo. Es por eso que las descripciones generales de IA no solo brindan resultados de texto, sino que también brindan enlaces relevantes que respaldan los resultados y permiten a las personas explorar más a fondo.

«Es que las descripciones generales de la IA normalmente no» alucinan «o crean cosas de la manera que lo hacen otros productos LLM», dijo.

Según Google, si las resúmenes de IA tienen algún error, es porque «realizan consultas incorrectas, malinterpretan las sutilezas del lenguaje en la web o pierden mucha información buena».

Después de identificar patrones que Google malinterpretó, la compañía dijo que realizó una docena de mejoras técnicas.

  • Google ha desarrollado mejores mecanismos de detección de consultas tontas y ha limitado la inclusión de contenido satírico y humorístico.
  • Google ha actualizado su configuración para limitar el uso de contenido generado por el usuario en respuestas que puedan brindar consejos engañosos.
  • Google ha agregado controles de activación para consultas en las que las superposiciones de IA han resultado inútiles.
  • No se mostrarán resúmenes de IA para temas de noticias importantes cuando la «frescura y autenticidad» sean importantes.

Además de estas mejoras, Google dijo que las revisiones de IA han detectado violaciones de la política de contenido en «menos de cada 7 millones de consultas únicas» que aparecieron y han tomado medidas contra ellas.

READ  WhatsApp: Navidad viene muy bien con bonitos emojis: foto