Archivo de la etiqueta: Noticias falsas

Determinar qué es real en Internet es cada vez más difícil a medida que la IA y los deepfakes se extienden por las redes sociales.

CNET. «AI Misinformation: How It Works and Ways to Spot It». Accedido 4 de marzo de 2024. https://www.cnet.com/news/misinformation/ai-misinformation-how-it-works-and-ways-to-spot-it/.

El artículo aborda el creciente problema de la desinformación generada por inteligencia artificial (IA) y deepfakes en plataformas de redes sociales, así como las medidas que se pueden tomar para combatirla. Comienza con un ejemplo de cómo el Comité Nacional Republicano utilizó la IA para crear un anuncio político lleno de imágenes que representan una realidad alternativa y partidista, con el objetivo de influir en la opinión pública.

Se destaca que la desinformación generada por IA no se limita solo a los anuncios políticos, sino que también se encuentra en imágenes virales falsas, videos en plataformas como TikTok y sitios web de noticias. Las herramientas de IA generativa, como ChatGPT de OpenAI y Bard de Google, se han vuelto omnipresentes en diversos campos, desde la programación informática hasta el periodismo y la educación.

Se explica que la IA generativa utiliza grandes cantidades de datos para generar texto, imágenes, audio y otros tipos de medios en respuesta a una consulta o un estímulo. Sin embargo, cuando no se distingue entre el contenido generado por IA y la realidad, o cuando este contenido se crea con la intención de engañar, se convierte en desinformación.

La desinformación generada por IA puede tener graves consecuencias, como influir en elecciones o afectar los mercados financieros. Además, puede socavar la confianza pública y nuestra percepción compartida de la realidad, según expertos en IA como Wasim Khaled.

A pesar de los esfuerzos de las empresas tecnológicas para minimizar los riesgos de la IA, la desinformación generada por IA persiste. Aunque aún no está claro si tenemos las herramientas para detener su mal uso, los expertos ofrecen consejos para detectarla y frenar su propagación.

Se señala que la desinformación generada por IA suele tener un fuerte impacto emocional, lo que la hace más convincente y efectiva para los actores malintencionados que intentan impulsar una agenda a través de la propaganda.

Para combatir la desinformación generada por IA, tanto las empresas tecnológicas como los gobiernos están tomando medidas, como la implementación de políticas de divulgación obligatoria para anuncios políticos y la creación de grupos de investigación sobre seguridad de IA.

Se ofrecen sugerencias para identificar la desinformación generada por IA, como buscar inconsistencias en el texto o en las imágenes, verificar la fuente y realizar una investigación propia antes de compartir contenido sospechoso en línea.

En conclusión, se destaca la importancia de no compartir información sin verificar, ya sea generada por humanos o por IA, como una medida efectiva para combatir la desinformación en línea.

La Espejismo de la desinformación: Bard de Google y Bing AI se citan uno al otro en un laberinto neural

Google’s Bard and Bing AI Already Citing Each Other in Neural Hall of Mirrors. (2024). Futurism. Recuperado 4 de marzo de 2024, de https://futurism.com/the-byte/bard-bing-neural-hall-of-mirrors

El artículo presenta un escenario de pesadilla para el futuro digital, donde internet se ve saturado de desinformación generada por inteligencia artificial (IA), volviéndolo casi inutilizable. Esta situación se debe en parte a que los chatbots y otros sistemas de IA siguen utilizando información alucinada, distorsionada o falsa entre sí, hasta que el paisaje informativo se fragmenta en pequeños trozos borrosos y nada parece ser real.

Aunque aún no hemos llegado a ese punto, recientemente se ha visto un indicio de cómo podría ser esa situación. El artículo informa que, al hacer una consulta simple al Bing AI de Microsoft, este respondió citando desinformación generada por el chatbot recién lanzado de Google llamado Bard. Esto ocurrió solo un día después del lanzamiento de Bard.

La situación ilustra la baja alfabetización mediática de estos bots. Bing citó información falsa como evidencia de que Bard ya había sido cerrado, basándose en un artículo de noticias que discutía un tweet en el que un usuario preguntaba a Bard cuándo sería cerrado, y Bard respondió que ya lo había sido. Este comentario se basaba en una broma en Hacker News y en una cobertura de noticias falsas generada por ChatGPT.

Aunque es cierto que los humanos no son perfectos en cuanto a alfabetización mediática, las empresas como Microsoft, OpenAI y Google han sido honestas al reconocer que sus productos también cometen errores. Sin embargo, los chatbots de IA no deberían ser considerados como fuentes de información confiables, ya que aún están lejos de proporcionar información precisa de manera consistente. Es importante mantener una actitud cautelosa, ya que la información sigue siendo la moneda más valiosa en internet, y estos sistemas de IA todavía tienen mucho camino por recorrer para mejorar su precisión y confiabilidad.

Sistemas de IA están proporcionan respuestas inexactas y engañosas sobre las elecciones en EE. UU., amenazando con evitar que los votantes acudan a las urnas

AP News. «Chatbots’ Inaccurate, Misleading Responses about US Elections Threaten to Keep Voters from Polls», 27 de febrero de 2024. https://apnews.com/article/ai-chatbots-elections-artificial-intelligence-chatgpt-falsehoods-cc50dd0f3f4e7cc322c7235220fc4c69.

Con las primarias presidenciales en marcha en EE. UU., los populares chatbots están generando información falsa y engañosa que amenaza con privar a los votantes de su derecho al voto, según un informe publicado el martes, basado en los hallazgos de expertos en inteligencia artificial y un grupo bipartidista de funcionarios electorales.

Quince estados y un territorio celebrarán tanto las contiendas de nominación presidencial demócratas como republicanas la próxima semana en el Supermartes, y millones de personas ya están recurriendo a chatbots impulsados por inteligencia artificial para obtener información básica, incluida la forma en que funciona su proceso de votación.

Entrenados en grandes cantidades de texto extraído de internet, chatbots como GPT-4 y Gemini de Google están listos con respuestas generadas por IA, pero tienden a sugerir que los votantes se dirijan a lugares de votación que no existen o inventan respuestas ilógicas basadas en información reciclada y desactualizada, encontró el informe.

Los participantes del taller calificaron más de la mitad de las respuestas de los chatbots como inexactas y categorizaron el 40% de las respuestas como perjudiciales, incluida la perpetuación de información desactualizada e inexacta que podría limitar los derechos de voto, según el informe.

Por ejemplo, cuando los participantes preguntaron a los chatbots dónde votar en el código postal 19121, un vecindario mayoritariamente negro en el noroeste de Filadelfia, Gemini de Google respondió que eso no iba a suceder. «En Estados Unidos no hay un distrito de votación con el código 19121», respondió Gemini.

Los investigadores han desarrollado enfoques similares para evaluar qué tan bien pueden producir información creíble los chatbots en otras aplicaciones que afectan a la sociedad, como en la atención médica, donde los investigadores de la Universidad de Stanford recientemente encontraron que los modelos de lenguaje grande no podían citar de manera confiable referencias factuales para respaldar las respuestas que generaban a preguntas médicas.

OpenAI, que el mes pasado delineó un plan para evitar que sus herramientas se utilicen para difundir desinformación electoral, dijo en respuesta que la empresa «seguirá evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas», pero no ofreció detalles específicos.

Anthropic planea implementar una nueva intervención en las próximas semanas para proporcionar información de votación precisa porque «nuestro modelo no se entrena con la frecuencia suficiente para proporcionar información en tiempo real sobre elecciones específicas y … los modelos de lenguaje grande a veces pueden ‘alucinar’ información incorrecta», dijo Alex Sanderford, líder de Confianza y Seguridad de Anthropic.

En algunas respuestas, los bots parecían extraer de fuentes desactualizadas o inexactas, destacando problemas con el sistema electoral que los funcionarios electorales han pasado años tratando de combatir y planteando nuevas preocupaciones sobre la capacidad de la IA generativa para amplificar las amenazas de larga data a la democracia.

En Nevada, donde se permite el registro de votantes el mismo día desde 2019, cuatro de los cinco chatbots probados afirmaron erróneamente que a los votantes se les impediría registrarse para votar semanas antes del día de las elecciones.

«Me asustó, más que nada, porque la información proporcionada estaba equivocada», dijo Francisco Aguilar, secretario de Estado de Nevada, demócrata, quien participó en el taller de pruebas el mes pasado.

La investigación y el informe son el producto de los Proyectos de Democracia de IA, una colaboración entre Proof News, un nuevo medio de comunicación sin fines de lucro dirigido por la periodista de investigación Julia Angwin, y el Laboratorio de Ciencia, Tecnología y Valores Sociales en el Instituto de Estudios Avanzados en Princeton, Nueva Jersey, dirigido por Alondra Nelson, ex directora interina de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca.

En general, el informe encontró que Gemini, Llama 2 y Mixtral tenían las tasas más altas de respuestas incorrectas, con el chatbot de Google obteniendo casi dos tercios de todas las respuestas incorrectas.

Un ejemplo: cuando se les preguntó si las personas podían votar por mensaje de texto en California, los modelos de Mixtral y Llama 2 se salieron de control.

«En California, puedes votar por SMS (mensajes de texto) usando un servicio llamado Vote by Text,», respondió Llama 2 de Meta. «Este servicio te permite emitir tu voto utilizando un sistema seguro y fácil de usar al que se puede acceder desde cualquier dispositivo móvil».

Google desactiva temporalmente la función de generación de imágenes de inteligencia artificial de Gemini después de que creara imágenes históricas inexactas.

Kharpal, Arjun. «Google Pauses Gemini AI Image Generator after It Created Inaccurate Historical Pictures». CNBC, 22 de febrero de 2024. https://www.cnbc.com/2024/02/22/google-pauses-gemini-ai-image-generator-after-inaccuracies.html.

El jueves, Google anunció que está pausando su función de generación de imágenes de inteligencia artificial Gemini después de afirmar que ofrece «inexactitudes» en imágenes históricas.

Usuarios en redes sociales se habían quejado de que la herramienta de inteligencia artificial genera imágenes de figuras históricas, como los Padres Fundadores de Estados Unidos, como personas de color, calificando esto como inexacto. Por ejemplo, ha mostrado a soldados alemanes de la era nazi con piel negra y a los Padres Fundadores de Estados Unidos también como personas de color. Estos ejemplos han sido difundidos principalmente por figuras de derecha que acusan a Google de sesgo liberal y racismo inverso. Aunque algunos defienden la representación de la diversidad, critican a Gemini por no hacerlo de manera matizada.

Google admitió que Gemini no ha acertado en algunas representaciones históricas y anunció que está trabajando para mejorar este tipo de representaciones de inmediato. Google dijo en una publicación el miércoles en X que la función de IA puede «generar una amplia gama de personas. Y eso generalmente es algo bueno porque personas de todo el mundo lo usan». Pero dijo que la función de software está «fallando aquí», agregando que el gigante tecnológico está «trabajando para mejorar este tipo de representaciones inmediatamente».

Google publicó una declaración actualizada el jueves, diciendo que pausará la función de Gemini para generar imágenes de personas y lanzará una versión «mejorada» pronto.

La herramienta generadora de imágenes fue lanzada a principios de febrero a través de Gemini, que antes se llamaba Bard. Enfrenta desafíos en un momento en que Google intenta ponerse al día con OpenAI respaldado por Microsoft.

Gemini se negó a generar imágenes en absoluto el jueves por la mañana cuando fue probado por un reportero de CNBC.

Mientras Google enfrenta problemas con la creación de imágenes de Gemini, Open AI lanzó la semana pasada Sora, su nuevo modelo de inteligencia artificial generativa que puede producir video a partir de las indicaciones de texto de los usuarios.

Jack Krawczyk, director senior de producto de Gemini en Google, dijo el miércoles que las capacidades de generación de imágenes de la compañía reflejan la «base de usuarios global» del gigante tecnológico, y que toma «la representación y el sesgo en serio».

«Continuaremos haciendo esto para indicaciones abiertas (¡las imágenes de una persona paseando a un perro son universales!)», dijo Krawczyk en una publicación en X.»Los contextos históricos tienen más matices y ajustaremos aún más para acomodar eso».

La generación de imágenes por inteligencia artificial tiene un historial de amplificación de estereotipos raciales y de género debido a la falta de diversidad en los conjuntos de datos utilizados para entrenarlos. Por ejemplo, una investigación del Washington Post del año pasado encontró que las consultas como «una persona productiva» resultaban en imágenes de figuras mayoritariamente blancas y masculinas, mientras que las consultas como «una persona en servicios sociales» producían imágenes de personas negras.

Google lanzó Gemini, su modelo de IA más avanzado, a finales de 2023. Este mes, también rebautizó Bard, su competidor ChatGPT, como Gemini. Google además lanzó un servicio de suscripción a una versión más poderosa del modelo de IA.

TrueMedia: una herramienta impulsada por inteligencia artificial para detectar videos, fotos y audio falsificados mediante IA

TrueMedia

TrueMedia, una nueva organización sin fines de lucro liderada por Oren Etzioni, que está desarrollando una herramienta impulsada por inteligencia artificial para detectar videos, fotos y audio falsificados mediante IA, con el objetivo de combatir la desinformación política antes de las elecciones de 2024. Respaldada por la fundación sin fines de lucro Camp.org de Garrett Camp,

TrueMedia tiene previsto lanzar una herramienta web gratuita que combina técnicas avanzadas de detección de deepfakes para ser utilizada inicialmente por periodistas y verificadores de hechos, con un lanzamiento público más amplio posteriormente. La tecnología de TrueMedia analizará los medios subidos para evaluar la probabilidad de manipulación por IA, centrándose en los deepfakes políticos. A pesar de los desafíos técnicos, TrueMedia está comprometida a tener un impacto genuino en la lucha contra la desinformación sin hacer juicios políticos sobre el contenido. Con un equipo compuesto por expertos y asesores de diversos campos, TrueMedia está muy centrada en las próximas elecciones, con el objetivo de demostrar su eficacia antes de considerar planes a largo plazo.

Los «deepfakes», y su impacto potencial en los procesos democráticos

AI-powered disinformation is spreading — is Canada ready for the political impact? The rise of deepfakes comes as billions of people around the world prepare to vote this year. Catharine Tunney · CBC News · Posted: Jan 18, 2024 4:00 AM EST | Last Updated: January 21

Ver artículo

Pocos días antes de las elecciones nacionales eslovacas del pasado otoño, una misteriosa grabación de voz empezó a difundir una mentira en Internet. El archivo manipulado hacía parecer que Michal Simecka, líder del partido Eslovaquia Progresista, hablaba de comprar votos con un periodista local. Sin embargo, la conversación nunca se produjo y el archivo fue posteriormente desmentido como un engaño «deepfake».

El artículo aborda la creciente preocupación por la desinformación impulsada por inteligencia artificial, especialmente los «deepfakes», y su impacto potencial en los procesos democráticos en Canadá. Se destaca un incidente reciente en Eslovaquia, donde un «deepfake» manipuló una grabación de voz para difundir información falsa sobre un líder político justo antes de las elecciones nacionales. El artículo subraya el desafío global de combatir la desinformación, ya que miles de millones de personas están a punto de votar en diversas elecciones, incluida la muy esperada contienda presidencial en los Estados Unidos.

Se señala la creciente amenaza de los «deepfakes», utilizando el caso eslovaco como ejemplo y resaltando la dificultad para determinar la extensión de la influencia de los «deepfakes» en los resultados electorales. Expertos como Hany Farid de la Universidad de California-Berkeley expresan preocupaciones sobre el impacto de los «deepfakes» en la credibilidad y la responsabilidad de los políticos, ya que la facilidad para crear contenido manipulado plantea temores de que los individuos ya no sean responsables de sus acciones o declaraciones.

La Agencia de Seguridad de las Comunicaciones (CSE), la agencia de inteligencia cibernética de Canadá, reconoce la amenaza y expresa inquietudes sobre la interferencia extranjera. Se describen los preparativos de la CSE para posibles ataques de inteligencia artificial en las elecciones canadienses, incluida la autoridad para eliminar contenido engañoso y operaciones cibernéticas defensivas.

Se menciona el Protocolo Público de Incidentes Críticos en Elecciones, establecido en 2019, que monitorea y alerta al público sobre amenazas creíbles a las elecciones de Canadá. Se plantean críticas sobre la efectividad del protocolo para detectar contenido falso e interferencia extranjera.

La CSE advierte que la tecnología de inteligencia artificial avanza a un ritmo que dificultará la detección de «deepfakes». Se insta al público a desarrollar «escepticismo profesional» y a ser cauteloso con el contenido en línea.

La diputada conservadora Michelle Rempel Garner expresa preocupaciones sobre la respuesta del gobierno a la amenaza de «deepfakes» y pide medidas más fuertes. Se sugiere la adopción de marcas de agua en el contenido generado por inteligencia artificial para ayudar a los usuarios a distinguir entre contenido real y falso.

Hany Farid aboga por la responsabilidad de las empresas de inteligencia artificial, sugiriendo la inclusión de marcas de agua duraderas en el contenido generado por inteligencia artificial. El Ministro de Seguridad Pública, Dominic LeBlanc, reconoce las preocupaciones y da indicios de futuras medidas gubernamentales para abordar el problema.

Se destacan los esfuerzos para educar al público sobre el reconocimiento de contenido engañoso, incluida la creación de un juego de mesa y programas de divulgación. Las recomendaciones incluyen ver contenido en vivo durante las elecciones y abordar la desinformación al interactuar con amigos y familiares.

En conclusión, el artículo destaca la urgencia de que Canadá aborde la amenaza de la desinformación impulsada por la inteligencia artificial, enfatizando la necesidad de un enfoque multifacético que involucre soluciones tecnológicas, medidas regulatorias, educación pública y análisis posterior de contenido cuestionable.

Las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias.

How online misinformation exploits ‘information voids’—And what to do about it. (2024). Nature, 625(7994), 215-216. https://doi.org/10.1038/d41586-024-00030-x

Este año marca el año electoral más grande registrado en la historia, con países que representan alrededor de la mitad de la población mundial celebrando elecciones. Sin embargo, surgen preocupaciones de que 2024 podría ser un año significativo para la propagación de información errónea y desinformación. Si bien ambos términos se refieren a contenido engañoso, la desinformación se fabrica intencionalmente.

La prevalencia de la búsqueda en línea y las redes sociales permite reclamaciones y contraargumentos interminables durante los períodos electorales. Un estudio reciente destacó la existencia de «vacíos de datos», espacios que carecen de evidencia en los que las personas que buscan precisión sobre temas controvertidos pueden caer. Esto subraya la necesidad de campañas de alfabetización mediática más sofisticadas para combatir la desinformación.

La investigación indica que las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias. Esto ocurre porque los resultados de la búsqueda pueden priorizar fuentes que corroboren la historia inexacta, contribuyendo al efecto de la verdad ilusoria.

Los esfuerzos para abordar este problema requieren una colaboración entre los proveedores de motores de búsqueda y las fuentes de conocimiento basado en evidencia. Si bien los sistemas automatizados despriorizan fuentes no confiables, se necesitan medidas adicionales. Google, por ejemplo, se basa en algoritmos para clasificar noticias según medidas de calidad, pero la incorporación de aportes humanos y el fortalecimiento de los sistemas internos de verificación de hechos podrían ofrecer soluciones más efectivas.

Las campañas de alfabetización mediática deben centrarse en educar a los usuarios para discernir entre diferentes fuentes en los resultados de búsqueda. Las iniciativas para mejorar la alfabetización mediática podrían comenzar exponiendo a personas influyentes a métodos de investigación, permitiéndoles influir positivamente en sus redes. Las lecciones de las campañas de alfabetización en salud también deberían informar las estrategias, considerando las diversas necesidades de los diferentes grupos de población.

Al abordar la información errónea y la desinformación, es crucial una colaboración entre los proveedores de motores de búsqueda, las fuentes de conocimiento basado en evidencia y las revistas de investigación. La urgencia surge a medida que la inteligencia artificial generativa y los modelos de lenguaje grandes tienen el potencial de amplificar la información errónea. Empoderar a las personas para ignorar noticias de fuentes no confiables se vuelve esencial en este año electoral crítico.

OpenAI anuncia una estrategia para prevenir la desinformación electoral utilizando su tecnología de IA, con el objetivo de salvaguardar las elecciones en más de 50 países

OpenAI ha presentado un plan para evitar el uso indebido de sus herramientas de inteligencia artificial en la difusión de desinformación electoral, ya que los votantes de más de 50 países se preparan para emitir sus votos en elecciones nacionales este año.

La startup de inteligencia artificial con sede en San Francisco delineó salvaguardias, que incluyen políticas existentes e iniciativas nuevas, para abordar preocupaciones sobre el posible mal uso de sus potentes herramientas de inteligencia artificial generativa que pueden generar rápidamente texto e imágenes.

Los pasos de OpenAI implican prohibir la creación de chatbots que se hagan pasar por candidatos reales o gobiernos, tergiversar procesos de votación o desalentar el voto. Además, la empresa planea marcar digitalmente las imágenes de inteligencia artificial creadas con su generador de imágenes DALL-E para rastrear su origen. OpenAI también se asociará con la Asociación Nacional de Secretarios de Estado para dirigir a los usuarios a información precisa sobre la logística de votación.

Aunque se considera un paso positivo, el éxito de estas medidas dependerá de su implementación. La empresa reconoce la necesidad de vigilancia y un monitoreo riguroso para abordar los desafíos planteados por la desinformación electoral generada por inteligencia artificial.

.

La inteligencia artificial potenciada por la desinformación es la mayor amenaza a corto plazo para el mundo, según un informe de Davos

«La información falsa y engañosa potenciada con inteligencia artificial de vanguardia, que amenaza con socavar la democracia y polarizar la sociedad, es el principal riesgo inmediato para la economía global, según un informe del Foro Económico Mundial publicado el miércoles.»

El informe más reciente del Foro Económico Mundial destaca que la información falsa y engañosa potenciada con inteligencia artificial de vanguardia es la principal amenaza inmediata para la economía global. La desinformación y la manipulación a través de tecnologías avanzadas podrían erosionar la democracia y polarizar la sociedad. La preocupación se centra en cómo el avance de generadores de contenido con inteligencia artificial, como ChatGPT, facilita la creación de contenido sintético sofisticado para manipular a grupos de personas, antes limitado a aquellos con habilidades especializadas.

El informe también señala que los riesgos ambientales representan las mayores amenazas a largo plazo. El cambio climático es la segunda preocupación más apremiante a corto plazo, seguido de cerca por las condiciones meteorológicas extremas. A largo plazo (10 años), el clima extremo se identifica como la principal amenaza, seguido de cambios críticos en los sistemas terrestres, pérdida de biodiversidad, colapso del ecosistema y escasez de recursos naturales.

La inteligencia artificial (IA) alimenta la desinformación y se convierte en un riesgo justo cuando millones de personas en varios países están a punto de votar en los próximos años. El informe destaca que la IA puede ser utilizada para crear deepfakes y afectar a grandes grupos, impulsando la desinformación y socavando los procesos democráticos.

La IA también presenta riesgos adicionales al facilitar ataques cibernéticos y automatizar intentos de phishing. Además, puede contaminar datos utilizados para entrenar otros sistemas de IA, lo que resulta difícil de revertir y puede reforzar sesgos en los modelos de IA.

En resumen, el informe advierte sobre la necesidad de abordar la desinformación impulsada por la inteligencia artificial y destaca la importancia de gestionar los riesgos asociados con la IA en diversos aspectos, desde la ciberseguridad hasta la formación de modelos de IA libres de sesgos.

Las búsquedas en línea para evaluar la desinformación pueden aumentar su percepción de veracidad

Aslett, Kevin, Zeve Sanderson, William Godel, Nathaniel Persily, Jonathan Nagler, y Joshua A. Tucker. 2023. «Online Searches to Evaluate Misinformation Can Increase Its Perceived Veracity». Nature, diciembre, 1-9. https://doi.org/10.1038/s41586-023-06883-y.


El estudio realizado por Kevin Aslett, Zeve Sanderson, William Godel, Nathaniel Persily, Jonathan Nagler y Joshua A. Tucker, publicado en Nature en 2023, investiga el impacto de las búsquedas en línea en la percepción de veracidad de la desinformación. La investigación aborda la exploración limitada del papel de los motores de búsqueda en el entorno de la información, a pesar de su influencia significativa. Mientras que las intervenciones de alfabetización mediática a menudo defienden la búsqueda en línea como un medio para evaluar la veracidad de la información, hay una falta de evidencia empírica que respalde la suposición de que buscar en línea reduce la creencia en la desinformación.

El estudio consta de cinco experimentos que muestran consistentemente evidencia contraria a la sabiduría convencional. Los hallazgos sugieren que, en lugar de disminuir la creencia en artículos de noticias falsas, las búsquedas en línea para evaluar su veracidad aumentan la probabilidad de creer en ellas. Para entender este fenómeno, los investigadores combinaron datos de encuestas con datos de rastreo digital obtenidos mediante una extensión de navegador personalizada. El estudio revela que el efecto de búsqueda es más pronunciado entre las personas que reciben información de baja calidad de los motores de búsqueda. Esto indica el riesgo de caer en «vacíos de datos», donde las personas encuentran evidencia corroboradora de fuentes de baja calidad al buscar en línea para evaluar la desinformación.

Además, la investigación muestra que buscar en línea para evaluar las noticias no solo aumenta la creencia en noticias verdaderas de fuentes de baja calidad, sino que también tiene efectos inconsistentes en la creencia en noticias verdaderas de fuentes convencionales. El estudio enfatiza la importancia de que los programas de alfabetización mediática basen sus recomendaciones en estrategias probadas empíricamente y solicita a los motores de búsqueda que inviertan en soluciones para abordar los desafíos identificados en la investigación.