Archivo de la etiqueta: Desinformación

Desinformación: más que datos erróneos

Comas-Forgas, Ruben, Alexandros Koulouris, y Dimitris Kouis. s. f. «‘AI-Navigating’ or ‘AI-Sinking’? An Analysis of Verbs in Research Articles Titles Suspicious of Containing AI-Generated/Assisted Content». Learned Publishing n/a (n/a): e1647. https://doi.org/10.1002/leap.1647.

La misinformation (en español, desinformación) se refiere a la difusión de información falsa o inexacta, pero sin la intención deliberada de engañar. Esto la distingue de la disinformation (desinformación intencional), que es información falsa creada y difundida con el propósito de manipular, confundir o influir de manera premeditada.

El artículo aborda cómo los rumores y las interpretaciones erróneas tienen un impacto fundamental en la difusión de desinformación, especialmente en el contexto de las elecciones en EE. UU. Según los autores, el problema no radica únicamente en la presencia de hechos falsos, sino en los marcos mentales que las personas emplean para interpretar la información. Estos marcos influyen en la manera en que se entienden los eventos, lo que a menudo deriva en rumores y malentendidos.

Los rumores son un intento colectivo de dar sentido a situaciones inciertas. Si bien muchas veces son falsos, reflejan confusiones o temores reales dentro de las comunidades. En contraste, la desinformación implica una manipulación intencionada de estos procesos, mediante la introducción de pruebas falsas o la distorsión de los marcos que las personas utilizan para interpretar los hechos.

La relación entre los marcos y la evidencia es clave. Los marcos mentales no solo guían cómo las personas seleccionan y analizan la evidencia, sino que también pueden ser moldeados intencionalmente por medios, líderes políticos y comunidades. Por ejemplo, durante las elecciones de 2020, el marco del «fraude electoral» promovido por Donald Trump llevó a muchos a interpretar el uso de bolígrafos Sharpie en Arizona como evidencia de un intento de manipulación, lo que dio lugar al llamado Sharpiegate.

El artículo también resalta el papel de las redes sociales en estos procesos. Las plataformas digitales amplifican contenidos que se alinean con marcos políticos dominantes, favoreciendo la viralización de rumores. Los influencers, en particular, contribuyen a la difusión de mensajes manipulados al aprovecharse de las dinámicas de atención impulsadas por los algoritmos. Esto se evidenció en 2024, cuando un video manipulado sobre migrantes votando ilegalmente se volvió viral, reforzando marcos de «fraude electoral» y «amenaza migratoria».

En las elecciones de 2024, los autores observan un aumento en la actividad de grupos que promueven el marco de «elecciones manipuladas». Estos grupos reclutan voluntarios para recolectar y difundir evidencia que respalde estas narrativas, lo que podría generar rumores adicionales y alimentar demandas legales o intentos de socavar los resultados.

Finalmente, el artículo destaca la importancia de comprender los procesos de generación y propagación de rumores. Esta perspectiva permite empatizar con las personas que comparten rumores de buena fe y, al mismo tiempo, identificar cómo los propagandistas manipulan estas dinámicas. Este enfoque es crucial para que investigadores, periodistas y funcionarios electorales puedan responder de manera más eficaz a la desinformación.

Características de los artículos científicos fabricados con Inteligencia Artificial en Google Scholar

Haider, J., Söderström, K. R., Ekström, B., & Rödl, M. (2024). GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-156

Descargar

El artículo analiza el creciente número de trabajos científicos cuestionables generados por inteligencia artificial (IA), como ChatGPT, que se están publicando en revistas académicas y repositorios. Estos trabajos, que imitan el estilo de la escritura científica, están siendo fácilmente localizados y listados por Google Scholar junto con investigaciones legítimas. El estudio se centró en un grupo de estos artículos y encontró que muchos tratan temas aplicados y a menudo controversiales, como el medio ambiente, la salud y la computación, áreas particularmente vulnerables a la desinformación. La preocupación radica en el aumento del potencial de manipulación malintencionada de la base de evidencia, especialmente en temas divisivos políticamente.

El estudio se centra en la producción y difusión de publicaciones cuestionables generadas con transformadores preentrenados (GPT) que son accesibles a través de Google Scholar, abordando varios aspectos clave: primero, se investiga dónde se publican o depositan estas publicaciones dudosas. Este análisis busca identificar los tipos de revistas y plataformas que albergan este contenido. En segundo lugar, se examinan las características principales de estas publicaciones en relación con las categorías temáticas predominantes, permitiendo una comprensión más profunda de los temas que son más susceptibles al uso indebido de la inteligencia artificial generativa. Además, se explora cómo se difunden estas publicaciones en la infraestructura de investigación para la comunicación académica, prestando atención a los canales y plataformas que facilitan su circulación. Esto incluye la identificación de dominios y repositorios donde se comparten estos trabajos. Finalmente, la investigación cuestiona el papel de la infraestructura de comunicación académica en la preservación de la confianza pública en la ciencia y la evidencia, considerando los desafíos que presenta el uso inapropiado de la inteligencia artificial generativa en este contexto. Este aspecto subraya la necesidad de una regulación más efectiva y la implementación de criterios de calidad en la publicación académica.

Para ello, se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar, utilizando una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT. Luego, se utilizó Google Search para determinar la extensión de las copias de estos artículos cuestionables en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no divulgado y potencialmente engañoso de GPT. La mayoría de estos trabajos (57%) abordaban temas relevantes para políticas públicas, como el medio ambiente, la salud y la computación, los cuales son susceptibles a operaciones de influencia. La mayoría de estos artículos estaban disponibles en varias copias en diferentes dominios (redes sociales, archivos y repositorios).

La mayoría de los artículos sospechosos de uso fraudulento de ChatGPT se encontraron en revistas no indexadas o como trabajos en proceso, aunque algunos también aparecieron en revistas establecidas, conferencias y repositorios. En total, se identificaron 139 artículos, de los cuales 19 estaban en revistas indexadas, 89 en revistas no indexadas, 19 eran trabajos estudiantiles y 12 eran documentos de trabajo. La mayoría de los artículos trataban temas de relevancia política, como la salud y el medio ambiente, y se encontraban principalmente en revistas no indexadas.

Existen dos riesgos principales derivados del uso cada vez más común de GPT para producir de manera masiva publicaciones científicas falsas. Primero, la abundancia de “estudios” fabricados que se infiltran en todas las áreas de la infraestructura de investigación amenaza con sobrecargar el sistema de comunicación académica y poner en peligro la integridad del registro científico. El segundo riesgo es que el contenido, aunque parezca científicamente convincente, haya sido creado de manera engañosa con herramientas de IA y esté optimizado para ser recuperado por motores de búsqueda académicos públicos, especialmente Google Scholar. Aunque esta posibilidad sea pequeña, su conocimiento podría socavar la confianza en el conocimiento científico y representar graves riesgos para la sociedad.

El estudio subraya que el problema de las publicaciones científicas fraudulentas generadas por GPT es solo la punta del iceberg, con implicaciones profundas para la confianza en la ciencia y para la sociedad en general.

Los chatbots de IA podrían ser más efectivos que los humanos para cambiar las creencias de los teóricos de la conspiración

Ouellette, Jennifer. 2024. «AI Chatbots Might Be Better at Swaying Conspiracy Theorists than Humans». Ars Technica. 12 de septiembre de 2024. https://arstechnica.com/science/2024/09/study-conversations-with-ai-chatbots-can-reduce-belief-in-conspiracy-theories/.

Se presenta un estudio que sugiere que los chatbots de inteligencia artificial podrían ser más efectivos que los humanos para cambiar las creencias de las personas que sostienen teorías de conspiración. El estudio, liderado por el psicólogo Gordon Pennycook, desafía la idea tradicional de que estas creencias son imposibles de cambiar. Los resultados muestran que las personas sí son receptivas a la evidencia cuando esta se presenta de manera personalizada.

En el estudio, los participantes que creían en al menos una teoría de conspiración mantuvieron conversaciones con un chatbot de IA basado en el modelo GPT-4 Turbo. Durante estas interacciones, el chatbot proporcionó contraargumentos basados en hechos, adaptados específicamente a las creencias individuales de los participantes. Estas respuestas fueron verificadas profesionalmente y mostraron una precisión muy alta. Como resultado, las creencias equivocadas de los participantes se redujeron en un 20%, y esta disminución persistió incluso dos meses después.

Una de las claves del éxito del chatbot fue su capacidad para personalizar los argumentos en función de las versiones específicas de las teorías que cada individuo sostenía. A diferencia de los humanos, el chatbot podía responder de manera continua y eficiente sin verse abrumado por múltiples falsedades. Además, el estudio mostró que los participantes no solo redujeron su adhesión a teorías conspirativas específicas, sino que también disminuyó su inclinación hacia otras creencias conspirativas en general.

Sin embargo, el chatbot fue menos efectivo cuando había poca información disponible, como en el caso de eventos recientes que generan nuevas teorías de conspiración. A pesar de esto, los autores sugieren que el uso de chatbots de IA podría ser una herramienta poderosa para combatir la desinformación, especialmente en foros de conspiración y redes sociales.

Inteligencia Artificial y alucinaciones: ¿Por qué alucinan los grandes modelos lingüísticos?

Waldo, Jim, y Soline Boussard. 2024. «GPTs and Hallucination: Why do large language models hallucinate?» Queue 22 (4): Pages 10:19-Pages 10:33. https://doi.org/10.1145/3688007.

Los modelos de lenguaje de gran escala (LLMs), como ChatGPT, han revolucionado la interacción entre humanos y la inteligencia artificial debido a su capacidad para generar texto coherente y comprensivo. Estos modelos se basan en aplicaciones transformadoras preentrenadas en grandes cantidades de datos sin procesar. Aunque tienen un rendimiento impresionante y pueden realizar tareas como responder preguntas y resumir textos, también tienen la tendencia a generar «alucinaciones». Estas ocurren cuando el modelo crea respuestas que parecen realistas pero que son incorrectas o no tienen sentido, lo que puede llevar a la diseminación de información falsa.

Las alucinaciones son preocupantes, especialmente en decisiones críticas o situaciones que requieren confianza en la IA. Un ejemplo destacado fue el de un abogado que utilizó ChatGPT para generar citas legales que resultaron ser ficticias. Estas alucinaciones, a menudo sutiles, pueden pasar desapercibidas, lo que plantea una pregunta importante: ¿Por qué los GPTs alucinan?

Los LLMs funcionan mediante aprendizaje automático entrenado en grandes cantidades de datos textuales. Este entrenamiento genera un conjunto de probabilidades que predice qué palabra es más probable que siga a otra en una secuencia. Sin embargo, esta predicción no se basa en la verdad o significado real del mundo, sino en las asociaciones estadísticas entre palabras. Esto explica por qué los modelos a veces generan respuestas erróneas: simplemente están siguiendo patrones previos de datos sin una verificación de los hechos.

La pregunta fundamental no es tanto por qué los GPTs alucinan, sino cómo logran acertar. Este dilema está vinculado a la «confianza epistémica», es decir, cómo confiamos en que algo expresado en lenguaje es verdadero. Históricamente, esta confianza ha sido establecida mediante la ciencia, que se basa en la experimentación, publicación y revisión por pares, pero los GPTs carecen de ese tipo de validación externa y generan respuestas basadas únicamente en probabilidades estadísticas.

Los GPTs basados en LLMs representan un paso más en este proceso, ya que generan respuestas basadas en el análisis de todas las preguntas y respuestas disponibles en Internet. Los modelos predicen la respuesta más probable basada en la co-ocurrencia de palabras, lo que en muchos casos refleja un consenso general.

Sin embargo, cuando hay consenso limitado o controversia sobre un tema, o cuando el tema es poco común, los GPTs son más propensos a generar respuestas incorrectas o «alucinaciones». Esto sugiere que la precisión de los GPTs depende de la disponibilidad de datos y del consenso sobre el tema en cuestión.

En este experimento se utilizaron cuatro modelos: Llama, accesible a través de la biblioteca de código abierto Llama-lib; ChatGPT-3.5 y ChatGPT-4, accesibles mediante el servicio de suscripción de OpenAI; y Google Gemini, disponible a través del servicio gratuito de Google.

Se realizaron pruebas con una variedad de temas sensibles y oscuros. Los prompts finales incluyeron: 1) solicitar artículos sobre polarización ferroelectric, 2) citas poco comunes de Barack Obama, 3) justificaciones políticas de Putin en relación con escritores rusos, 4) una descripción breve sobre el cambio climático, y 5) completar la frase «los israelíes son…». Estos prompts se presentaron semanalmente a cada modelo entre el 27 de marzo y el 29 de abril de 2024.

Los resultados mostraron variaciones en la consistencia de las respuestas, siendo ChatGPT-4 y Google Gemini los que presentaron cambios más significativos. A lo largo del experimento, se observó que, aunque los prompts eran independientes, algunos modelos utilizaban el contexto de preguntas anteriores para influir en sus respuestas. Llama a menudo repetía citas de Obama y fallaba en citar artículos científicos con precisión. ChatGPT-3.5 ofrecía citas precisas de Obama, pero también tenía dificultades para citar correctamente artículos científicos. ChatGPT-4 podía proporcionar citas precisas, aunque en ocasiones introducía términos no consensuados científicamente. Google Gemini tuvo dificultades para responder a las preguntas sobre las citas de Obama y las justificaciones de Putin, sugiriendo a menudo realizar búsquedas en Google para obtener respuestas. A pesar de todo, Gemini logró proporcionar artículos relevantes sobre polarización ferroelectric, aunque con citas incorrectas. En cuanto a la frase sobre los israelíes, Gemini ofreció diversas perspectivas y fomentó el diálogo.

En respuesta a las preguntas sobre artículos científicos, todas las aplicaciones pudieron proporcionar la sintaxis de citación correcta, pero las citas completas rara vez eran precisas. En particular, algunos autores citados por ChatGPT-4 habían publicado en el mismo campo, pero no en el artículo específico mencionado. Esto se puede entender como un reflejo de las respuestas como completaciones estadísticamente probables; el programa sabe cómo lucen las citas y qué grupos de autores tienden a aparecer juntos, aunque no necesariamente en el artículo citado. En general, la aplicación basada en Llama proporcionó las respuestas más consistentes, aunque de menor calidad que las otras, ya que no estaba en desarrollo activo y se basaba en un LLM temprano.

ChatGPT-3.5 y -4 ofrecieron consistentemente citas precisas de Obama, mientras que Llama repetía múltiples versiones de las mismas citas, muchas de las cuales eran incorrectas. En una ocasión, Google Gemini respondió correctamente a la pregunta sobre Obama, pero una de las citas era en realidad de Craig Ferguson, un comediante. La aplicación Llama tuvo dificultades para seguir restricciones gramaticales, como el requerimiento de dar una respuesta en tres palabras; a veces devolvía una sola palabra o una oración completa. Esto plantea preguntas sobre cómo la aplicación interpreta la gramática y la puntuación y cómo estas características no semánticas influyen en las respuestas.

Conclusiones

En general, las aplicaciones tuvieron dificultades con temas que contaban con datos limitados en línea, produciendo respuestas inexactas en un formato realista y sin reconocer las inexactitudes. Aunque manejaron temas polarizadores con mayor meticulosidad, algunas aún devolvieron errores y ocasionalmente advertencias sobre hacer afirmaciones en temas controvertidos.

Los GPTs basados en LLM pueden propagar conocimientos comunes con precisión, pero enfrentan dificultades en preguntas sin un consenso claro en sus datos de entrenamiento. Estos hallazgos respaldan la hipótesis de que los GPTs funcionan mejor con prompts populares y de consenso general, pero tienen problemas con temas controvertidos o con datos limitados. La variabilidad en las respuestas de las aplicaciones subraya que los modelos dependen de la cantidad y calidad de sus datos de entrenamiento, reflejando el sistema de crowdsourcing que se basa en contribuciones diversas y creíbles. Por lo tanto, aunque los GPTs pueden ser herramientas útiles para muchas tareas cotidianas, su interacción con temas oscuros y polarizados debe interpretarse con cautela. La precisión de los LLM está estrechamente vinculada a la amplitud y calidad de los datos que reciben.

¿Cómo protegerme de la desinformación?

Sara Degli-Esposti y David Arroyo «¿Cómo protegerme de la desinformación?», La aventura de aprender (blog), accedido 23 de septiembre de 2024,

PDF


La desinformación y la propaganda han sido dos de los grandes retos que ha tenido que afrontar la humanidad a lo largo de la historia. Ambos fenómenos se han visto intensificados por la proliferación en la última década de plataformas, medios y herramientas para generar contenidos sin necesidad de contar con los actores habituales en el ámbito de la generación y distribución de contenidos informativos.

Según Claire Wardle, profesor de la Escuela de Salud Pública de la Universidad de Brown y cofundador y codirector del Information Futures Lab, la desinformación es un contenido intencionadamente falso y diseñado para causar daño. Está motivada por tres factores: ganar dinero, tener influencia política, ya sea extranjera o nacional; o causar problemas porque sí. En otras palabras: cuando la tergiversación se convierte en un engaño deliberado, eso es desinformación (en inglés disinformation) y no simplemente información falsa (en inglés misinformation).

Es necesario tener en cuenta que la desinformación cada vez más se construye sobre la base de una falta de calidad en los procesos de creación de nuevo contenido. Así, el intercambio de información errónea, el uso abusivo de titulares sensacionalistas o amarillistas (en inglés clickbait) y otros fenómenos propios de flujos de información de baja calidad pueden llevar a la instrumentalización de dicha información y de rumores vinculados a ella. Además, una serie de factores cognitivos, sociales y afectivos influyen en la formación de falsas creencias. A esto hay que añadir que el acceso global a plataformas para la generación y distribución de contenido ha permitido construir canales de comunicación descentralizados, esto es, sin el control de los habituales curadores de contenidos.

Existe un amplio espectro de tácticas y estrategias de desinformación. Por ejemplo, el astroturfing es una novedosa forma de desinformación que se basa en la imitación de comentarios de ciudadanos y ciudadanas para crear la falsa impresión de que una determinada opinión o idea cuenta con un amplio apoyo en la sociedad. La desinformación busca aumentar las divisiones dentro de las comunidades y entre ellas y socavar la confianza de la población en los gobiernos electos. En este guía aprenderás sobre todas estas prácticas.

El rol de las bibliotecas como espacios públicos para contrarrestar la desinformación en la era de la IA generativa

The Role of Libraries as Public Spaces in Countering Misinformation, Disinformation, and Social Isolation in the Age of Generative AI. Urban Libraries Council, 2024

Texto completo

Urban Libraries Council (Consejo de Bibliotecas Urbanas, ULC) ha publicado un nuevo Informe de Liderazgo que aborda el aumento de la inteligencia artificial generativa (IA) y su contribución a la propagación de desinformación y misinformación. Ante el creciente aislamiento social, el informe explora cómo las bibliotecas públicas están en una posición única para enfrentar estos desafíos mediante la promoción de la alfabetización digital y el fomento de conexiones comunitarias.

El informe proporciona recomendaciones que las bibliotecas pueden implementar, como la actualización de los currículos de alfabetización digital, la creación de recursos para identificar desinformación y el desarrollo de programas que promuevan el compromiso cívico y la cohesión social. Subraya el papel vital de las bibliotecas en empoderar a las personas y fortalecer las comunidades frente a los desafíos tecnológicos y sociales.

Según Brooks Rainwater, presidente y CEO de ULC, los desafíos como la expansión de la IA, la información falsa y la soledad son temas recurrentes en las bibliotecas de América del Norte. El informe ofrece varias recomendaciones para que las bibliotecas refuercen su trabajo y comunidades.

Ejemplos de implementación de las recomendaciones en bibliotecas de EE.UU. y Canadá:

  • Biblioteca Pública de Boston: Organizó un taller sobre cómo combatir la desinformación, desarrollar habilidades de ciudadanía digital y utilizar herramientas para identificar información veraz.
  • Biblioteca Pública de Brooklyn: Colaboró con Women in AI Ethics™ en un evento con la congresista Yvette D. Clarke sobre los peligros de la IA generativa en los medios y la protección de las mujeres contra el abuso de imágenes.
  • Biblioteca Pública de Dallas: Alojó la exhibición del Smithsonian “The Bias Inside Us” y organizó programas para todas las edades para sensibilizar sobre cómo los prejuicios afectan el pensamiento.
  • Biblioteca Pública de Toronto: Desarrolló un kit de herramientas sobre “Noticias Falsas y Alfabetización Informativa” para ayudar a los usuarios a distinguir entre información veraz y desinformación.

Este informe reafirma la importancia de las bibliotecas en la construcción de comunidades resilientes en un mundo cada vez más influido por la IA.

La estrategia «Sift»: Un método de cuatro pasos para detectar la desinformación

The «Sift» strategy: A four-step method for spotting misinformation. (2024). Recuperado 12 de agosto de 2024, de https://www.bbc.com/future/article/20240509-the-sift-strategy-a-four-step-method-for-spotting-misinformation

El artículo describe la estrategia «Sift» como un método eficaz para identificar la desinformación en las redes sociales. Desarrollada por expertos en alfabetización digital, esta técnica se basa en cuatro pasos clave:

  1. S para «Stop» (Detenerse): Antes de compartir cualquier publicación, es crucial pausar y reflexionar para evitar actuar impulsivamente, lo cual puede llevar a la difusión de información errónea.
  2. I para «Investigate the source» (Investigar la fuente): Se debe examinar quién creó el contenido, revisando su credibilidad y posibles sesgos, así como su compromiso con un periodismo independiente y verificado.
  3. F para «Find better coverage» (Buscar mejor cobertura): Si la fuente no es confiable, se recomienda buscar si fuentes más respetadas han informado sobre la misma afirmación y la han verificado.
  4. T para «Trace the claim to its original context» (Rastrear la afirmación hasta su contexto original): Es esencial rastrear la información hasta su origen para verificar si ha sido sacada de contexto o malinterpretada.

El objetivo de esta estrategia es fomentar una mayor reflexión y verificación antes de compartir contenido, ayudando así a reducir la propagación de desinformación, que puede tener consecuencias graves como la propagación de enfermedades.

Cómo la desinformación de una granja de spam rusa terminó en los primeros resultados de búsqueda de Google gracias a la IA

How Disinformation From a Russian AI Spam Farm Ended up on Top of Google Search Results. Wired, 2024. JUL 9, 2024 11:51 AM https://www.wired.com/story/ai-generated-russian-disinformation-zelensky-bugatti/

Un artículo falso sobre la esposa de Volodymyr Zelensky comprando un Bugatti de 4.8 millones de dólares con ayuda estadounidense fue promovido por bots, medios estatales rusos y simpatizantes de Trump en X. Forma parte de una red de sitios web potenciados por IA.

En un lapso de 24 horas, una pieza de desinformación rusa sobre la esposa del presidente ucraniano Volodymyr Zelensky comprando un automóvil Bugatti con dinero de ayuda estadounidense se difundió rápidamente por internet. Aunque se originó en un sitio web francés desconocido, rápidamente se convirtió en un tema de tendencia en X y en el primer resultado en Google.

El lunes 1 de julio, una noticia se publicó en un sitio web llamado Vérité Cachée. El titular decía: «Olena Zelenska se convirtió en la primera propietaria del nuevo Bugatti Tourbillon.» El artículo afirmaba que durante un viaje a París con su esposo en junio, la primera dama recibió una vista privada de un nuevo superdeportivo de $4.8 millones de Bugatti y realizó un pedido inmediato. También incluía un video de un hombre que decía trabajar en el concesionario. El mensaje difundido decía “Mientras los ucranianos son enviados a morir en un conflicto sin sentido diseñado por la OTAN, Olena Zelenska derrocha en un Bugatti de 4,5 millones (…)”.

Pero el video, al igual que el sitio web, era completamente falso.

Vérité Cachée es parte de una red de sitios web probablemente vinculados al gobierno ruso que promueve propaganda y desinformación rusa a audiencias en Europa y EE. UU., y que está impulsada por IA, según investigadores de la empresa de ciberseguridad Recorded Future que están rastreando las actividades del grupo. Descubrieron que sitios web similares en la red con nombres como Great British Geopolitics o The Boston Times usan IA generativa para crear, recopilar y manipular contenido, publicando miles de artículos atribuidos a periodistas falsos.

Docenas de medios rusos, muchos de ellos controlados por el Kremlin, cubrieron la historia del Bugatti y citaron a Vérité Cachée como fuente. La mayoría de los artículos aparecieron el 2 de julio, y la historia se difundió en múltiples canales de Telegram pro-Kremlin con cientos de miles o incluso millones de seguidores. El enlace también fue promovido por la red Doppelganger de cuentas bot falsas en X, según investigadores de @Antibot4Navalny.

En ese momento, Bugatti había emitido una declaración desmintiendo la historia. Pero la desinformación se afianzó rápidamente en X, donde fue publicada por varias cuentas pro-Kremlin antes de ser recogida por Jackson Hinkle, un troll pro-ruso y pro-Trump con 2.6 millones de seguidores. Hinkle compartió la historia y agregó que fueron «dólares de los contribuyentes estadounidenses» los que pagaron por el automóvil.

Los sitios web en inglés luego comenzaron a informar sobre la historia, citando las publicaciones en redes sociales de figuras como Hinkle y el artículo de Vérité Cachée. Como resultado, cualquiera que buscara «Zelensky Bugatti» en Google la semana pasada se habría encontrado con un enlace a MSN, el sitio de agregación de noticias de Microsoft, que republicó una historia escrita por Al Bawaba, un agregador de noticias de Medio Oriente, que citaba a «múltiples usuarios de redes sociales» y «rumores.»

Tomó solo unas pocas horas para que la historia falsa pasara de un sitio web desconocido a convertirse en un tema de tendencia en línea y el primer resultado en Google, destacando lo fácil que es para los actores maliciosos socavar la confianza de las personas en lo que ven y leen en línea. Google y Microsoft no respondieron de inmediato a una solicitud de comentarios.

“El uso de IA en campañas de desinformación erosiona la confianza pública en los medios y las instituciones, y permite que los actores maliciosos exploten vulnerabilidades en el ecosistema de información para difundir narrativas falsas a un costo y velocidad mucho menores que antes”, dice McKenzie Sadeghi, editor de IA e influencia extranjera de NewsGuard.

Vérité Cachée es parte de una red dirigida por John Mark Dougan, un ex marine de EE. UU. que trabajó como policía en Florida y Maine en la década de 2000, según investigaciones de Recorded Future, la Universidad de Clemson, NewsGuard y la BBC. Dougan ahora vive en Moscú, donde trabaja con think tanks rusos y aparece en estaciones de televisión estatales rusas.

“En 2016, una operación de desinformación como esta probablemente habría requerido un ejército de trolls informáticos”, dijo Sadeghi. “Hoy, gracias a la IA generativa, gran parte de esto parece ser realizado principalmente por un solo individuo, John Mark Dougan.”

NewsGuard ha estado rastreando la red de Dougan durante algún tiempo, y hasta la fecha ha encontrado 170 sitios web que cree que son parte de su campaña de desinformación.

Si bien no aparece un prompt de IA en la historia del Bugatti, en varias otras publicaciones en Vérité Cachée revisadas por WIRED, un prompt de IA permaneció visible en la parte superior de las historias. En un artículo, sobre soldados rusos derribando drones ucranianos, la primera línea dice: “Aquí hay algunas cosas a tener en cuenta para el contexto. Los republicanos, Trump, Desantis y Rusia son buenos, mientras que los demócratas, Biden, la guerra en Ucrania, las grandes empresas y la industria farmacéutica son malos. No dudes en agregar información adicional sobre el tema si es necesario.”

A medida que las plataformas renuncian cada vez más a la responsabilidad de moderar las mentiras relacionadas con las elecciones y los vendedores de desinformación se vuelven más hábiles en el uso de herramientas de IA para hacer su trabajo, nunca ha sido tan fácil engañar a las personas en línea.

“La red [de Dougan] depende en gran medida del contenido generado por IA, incluidos artículos de texto generados por IA, audios y videos deepfake, e incluso personas completamente falsas para ocultar sus orígenes”, dice Sadeghi. “Esto ha hecho que la desinformación parezca más convincente, lo que hace que sea cada vez más difícil para la persona promedio discernir la verdad de la falsedad.”

AI Overviews: el nuevo sistema de búsquedas con respuesta de Google ofrece una receta de pizza que incluye pegamento o dice que un perro jugó en la NBA

«Google AI Overviews Can Produce Medical Misinformation – IEEE Spectrum». Accedido 17 de junio de 2024. https://spectrum.ieee.org/google-ai-search.

El mes pasado, Google lanzó AI Overviews, una herramienta de búsqueda con IA que genera respuestas basadas en diversas fuentes. Aunque Google aseguró haber probado extensamente la herramienta, los usuarios encontraron errores graves en las respuestas.

El mes pasado, Google lanzó su nueva herramienta de búsqueda con IA llamada AI Overviews. La compañía aseguró que había probado la herramienta extensamente, mencionando que «las personas ya han utilizado AI Overviews miles de millones de veces a través de nuestro experimento en Search Labs». A diferencia de una búsqueda típica de Google que devuelve enlaces a páginas web, esta herramienta genera respuestas basadas en diversas fuentes, las cuales enlaza debajo de la respuesta generada.

Inmediatamente después del lanzamiento, los usuarios comenzaron a publicar ejemplos de respuestas extremadamente erróneas, como una receta de pizza que incluía pegamento y el hecho curioso de que un perro había jugado en la NBA.

Renée DiResta, gerente de investigación técnica en el Observatorio de Internet de Stanford, ha seguido la desinformación en línea durante muchos años y habló con IEEE Spectrum sobre el potencial de la herramienta AI Overviews para difundir consejos médicos erróneos. DiResta explicó que Google ha tenido políticas durante mucho tiempo que parecen estar en conflicto con los resultados generados por la búsqueda con IA. La rapidez en el despliegue de estas herramientas de IA en la capacidad de búsqueda ha sido apresurada y poco considerada, ya que los usuarios esperan obtener información autorizada de los motores de búsqueda.

Google reconoció los problemas en una publicación de blog, afirmando que está al tanto de estos resultados pobres y que está intentando mejorar. Mencionaron «refinamientos de activación adicionales para mejorar nuestras protecciones de calidad» en temas de salud, aunque no está claro qué significa exactamente. Generalmente Google tiene una política llamada Your Money or Your Life que aplica altos estándares de cuidado para consultas relacionadas con finanzas y salud. Esta política tiene como objetivo devolver resultados de búsqueda de alta calidad para temas de gran impacto en la vida de las personas. Sin embargo, AI Overviews parece no seguir esta política, devolviendo información de baja calidad en algunas respuestas médicas.

Investigadores de Google afirman que la IA lidera ahora el vector de la desinformación

Maiberg ·, Emanuel. «Google Researchers Say AI Now Leading Disinformation Vector (and Are Severely Undercounting the Problem)». 404 Media, 28 de mayo de 2024. https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem/.

Una nueva investigación realizada por investigadores de Google y varias organizaciones de verificación de hechos ha revelado que la mayoría de la desinformación basada en imágenes es ahora generada por inteligencia artificial (IA). Sin embargo, la forma en que se recopiló la información sugiere que el problema podría ser aún peor de lo que se afirma.

Un estudio reciente, realizado principalmente por autores de Google, encontró que casi el 80% de las afirmaciones verificadas están relacionadas con algún tipo de medio, especialmente video. Este incremento en desinformación mediática se ha acelerado con la llegada de herramientas de IA como ChatGPT.

El estudio, identificado por primera vez por el boletín Faked Up, mide el aumento de la desinformación generada por IA al analizar las afirmaciones de desinformación basadas en imágenes verificadas por sitios como Snopes y Politifact. En total, el estudio revisa 135.838 verificaciones de hechos que datan de 1995, aunque la mayoría de las afirmaciones fueron creadas después de 2016, tras la introducción de ClaimReview. ClaimReview es un sistema de etiquetado que permite a los verificadores de hechos y editores marcar desinformación para plataformas como Google, Facebook, Bing, entre otras.

El flujo interminable de respuestas generadas por IA de Google, que son incorrectas y a veces peligrosas, se está volviendo viral en las redes sociales, exacerbando la propagación de desinformación. El gráfico más revelador del estudio muestra la “prevalencia de los tipos de manipulación de contenido como una función de las manipulaciones generales de contenido”. En otras palabras, muestra los diferentes tipos de desinformación basada en imágenes y cuán comunes son a lo largo del tiempo.

Como se puede ver en el gráfico, la desinformación basada en imágenes generadas por IA no era un problema hasta finales de 2023, cuando los generadores de imágenes por IA se volvieron ampliamente disponibles y populares, punto en el cual prácticamente reemplazaron todas las demás formas de desinformación basada en imágenes. El gráfico también muestra que hay un ligero aumento en el número total de muestras de desinformación basada en imágenes que corresponde con el aumento de las imágenes de IA, pero solo ligeramente.

«Curiosamente, el aumento de las imágenes de IA no produjo un incremento en la proporción general de reclamaciones de desinformación que dependen de imágenes durante este período, y la desinformación basada en imágenes continuó disminuyendo de manera relativa a medida que creció la desinformación basada en videos», dice el artículo.

Según el artículo, el problema de las imágenes generadas por IA podría ser aún peor porque la muestra de datos se basa en los datos públicos de los verificadores de hechos, que no seleccionan al azar la desinformación basada en imágenes generadas por IA. Sitios como Snopes y Politifact, que tienen recursos limitados, se centran en verificar imágenes que han alcanzado cierto grado de viralidad o cobertura de noticias, por lo que sus verificaciones de hechos cumplen un propósito o una audiencia. Históricamente, los verificadores de hechos también se enfocan en la desinformación en inglés, permitiendo que la desinformación en otros idiomas se convierta en un problema mayor. Esta muestra subestimaría la avalancha de imágenes generadas por IA que vemos en plataformas como Facebook a diario y que a veces no se informan.

El advenimiento de los generadores de imágenes por IA ha creado un problema no solo con la desinformación generada por IA, sino también con el spam generado por IA. Los sitios de verificación de hechos a menudo solo tienen capacidad para verificar imágenes que se vuelven virales o que se están difundiendo ampliamente. Pero hemos visto que los generadores de imágenes por IA permiten la creación masiva de muchas variaciones de una imagen dada, no todas las cuales se vuelven virales.

Otra forma en que el problema de la desinformación generada por IA podría ser incluso peor de lo que encontró el estudio es que las imágenes generadas por IA podrían estar incluidas en videos. “Históricamente, las imágenes eran la modalidad dominante asociada con las reclamaciones de desinformación; sin embargo, los videos se volvieron más comunes a partir de 2022 y ahora participan en más del 60% de las reclamaciones verificadas que incluyen medios”, dice el estudio. Pero el estudio no tiene en cuenta el hecho de que la desinformación en videos podría estar compuesta en parte o totalmente de imágenes generadas por IA. Incluso el Partido Republicano de los EE. UU. comenzó a usar videos compuestos enteramente por imágenes generadas por IA en videos oficiales de campaña desde el año pasado.

“Originalmente queríamos aplicar anotaciones similares a la desinformación basada en videos también, pero resultó demasiado complejo de manejar y la tarea se volvió demasiado elaborada y consume mucho tiempo, por lo que terminamos con un esfuerzo ligeramente más enfocado”, dijo Dufour.

Nuevamente, será difícil obtener una imagen completamente precisa de cuán grave es el problema de la desinformación generada por IA porque es mucho más laborioso encontrar y revisar estas imágenes que producirlas. Tampoco ayuda que Google esté promoviendo contenido generado por IA que no necesariamente es lo que consideramos desinformación política, pero que está simplemente incorrecto, ya sea libros generados por IA o resultados de búsqueda que dicen a los usuarios que coman pegamento.