
«Google AI Overviews Can Produce Medical Misinformation – IEEE Spectrum». Accedido 17 de junio de 2024. https://spectrum.ieee.org/google-ai-search.
El mes pasado, Google lanzó AI Overviews, una herramienta de búsqueda con IA que genera respuestas basadas en diversas fuentes. Aunque Google aseguró haber probado extensamente la herramienta, los usuarios encontraron errores graves en las respuestas.
El mes pasado, Google lanzó su nueva herramienta de búsqueda con IA llamada AI Overviews. La compañía aseguró que había probado la herramienta extensamente, mencionando que «las personas ya han utilizado AI Overviews miles de millones de veces a través de nuestro experimento en Search Labs». A diferencia de una búsqueda típica de Google que devuelve enlaces a páginas web, esta herramienta genera respuestas basadas en diversas fuentes, las cuales enlaza debajo de la respuesta generada.
Inmediatamente después del lanzamiento, los usuarios comenzaron a publicar ejemplos de respuestas extremadamente erróneas, como una receta de pizza que incluía pegamento y el hecho curioso de que un perro había jugado en la NBA.
Renée DiResta, gerente de investigación técnica en el Observatorio de Internet de Stanford, ha seguido la desinformación en línea durante muchos años y habló con IEEE Spectrum sobre el potencial de la herramienta AI Overviews para difundir consejos médicos erróneos. DiResta explicó que Google ha tenido políticas durante mucho tiempo que parecen estar en conflicto con los resultados generados por la búsqueda con IA. La rapidez en el despliegue de estas herramientas de IA en la capacidad de búsqueda ha sido apresurada y poco considerada, ya que los usuarios esperan obtener información autorizada de los motores de búsqueda.
Google reconoció los problemas en una publicación de blog, afirmando que está al tanto de estos resultados pobres y que está intentando mejorar. Mencionaron «refinamientos de activación adicionales para mejorar nuestras protecciones de calidad» en temas de salud, aunque no está claro qué significa exactamente. Generalmente Google tiene una política llamada Your Money or Your Life que aplica altos estándares de cuidado para consultas relacionadas con finanzas y salud. Esta política tiene como objetivo devolver resultados de búsqueda de alta calidad para temas de gran impacto en la vida de las personas. Sin embargo, AI Overviews parece no seguir esta política, devolviendo información de baja calidad en algunas respuestas médicas.