
Google’s Bard and Bing AI Already Citing Each Other in Neural Hall of Mirrors. (2024). Futurism. Recuperado 4 de marzo de 2024, de https://futurism.com/the-byte/bard-bing-neural-hall-of-mirrors
El artículo presenta un escenario de pesadilla para el futuro digital, donde internet se ve saturado de desinformación generada por inteligencia artificial (IA), volviéndolo casi inutilizable. Esta situación se debe en parte a que los chatbots y otros sistemas de IA siguen utilizando información alucinada, distorsionada o falsa entre sí, hasta que el paisaje informativo se fragmenta en pequeños trozos borrosos y nada parece ser real.
Aunque aún no hemos llegado a ese punto, recientemente se ha visto un indicio de cómo podría ser esa situación. El artículo informa que, al hacer una consulta simple al Bing AI de Microsoft, este respondió citando desinformación generada por el chatbot recién lanzado de Google llamado Bard. Esto ocurrió solo un día después del lanzamiento de Bard.
La situación ilustra la baja alfabetización mediática de estos bots. Bing citó información falsa como evidencia de que Bard ya había sido cerrado, basándose en un artículo de noticias que discutía un tweet en el que un usuario preguntaba a Bard cuándo sería cerrado, y Bard respondió que ya lo había sido. Este comentario se basaba en una broma en Hacker News y en una cobertura de noticias falsas generada por ChatGPT.
Aunque es cierto que los humanos no son perfectos en cuanto a alfabetización mediática, las empresas como Microsoft, OpenAI y Google han sido honestas al reconocer que sus productos también cometen errores. Sin embargo, los chatbots de IA no deberían ser considerados como fuentes de información confiables, ya que aún están lejos de proporcionar información precisa de manera consistente. Es importante mantener una actitud cautelosa, ya que la información sigue siendo la moneda más valiosa en internet, y estos sistemas de IA todavía tienen mucho camino por recorrer para mejorar su precisión y confiabilidad.