Archivo de la etiqueta: Noticias falsas

Los motores de búsqueda y las plataformas de IA pueden reforzar las creencias previas de los usuarios en lugar de promover la información confiable.

Leung, Eugina, y Oleg Urminsky. “The Narrow Search Effect and How Broadening Search Promotes Belief Updating.” Proceedings of the National Academy of Sciences 122, no. 0 (March 24, 2025). https://www.pnas.org/doi/abs/10.1073/pnas.2408175122

A partir de 21 estudios con 9.906 participantes y diversas plataformas (Google, ChatGPT, Bing con IA, entre otras), los autores identifican el «efecto de búsqueda estrecha». Este fenómeno surge cuando los usuarios, influenciados por sus creencias previas, formulan búsquedas sesgadas que, combinadas con los algoritmos optimizados para ofrecer resultados alineados con esas búsquedas, refuerzan suposiciones preexistentes en lugar de desafiarlas.

​El «efecto de búsqueda estrecha» se relaciona estrechamente con el sesgo de confirmación, una tendencia cognitiva en la que las personas buscan, interpretan y recuerdan información que confirma sus creencias preexistentes, desestimando datos que las contradicen. Este sesgo puede influir significativamente en la forma en que los usuarios interactúan con los motores de búsqueda, afectando la objetividad de la información que consumen.

El estudio muestra que este efecto se mantiene en distintos ámbitos (salud, finanzas, política, sociedad) y que estrategias como pedir a los usuarios que corrijan conscientemente sus sesgos tienen una efectividad limitada. Sin embargo, modificar los algoritmos para ofrecer resultados más amplios y diversos puede fomentar la actualización de creencias. Los autores proponen un diseño de algoritmos basado en principios conductuales para mejorar la neutralidad de la información.

Para contrarrestar estos sesgos y promover una actualización efectiva de creencias, es esencial implementar estrategias tanto a nivel de usuario como de diseño algorítmico. Los usuarios deben ser conscientes de sus propios sesgos cognitivos y adoptar prácticas de búsqueda más amplias y críticas. Por otro lado, los desarrolladores de motores de búsqueda y plataformas de IA tienen la responsabilidad de diseñar algoritmos que presenten una diversidad de perspectivas y reduzcan la tendencia a reforzar creencias preexistentes. Este enfoque dual puede contribuir a una interacción más equilibrada y objetiva con la información en línea.

MASK: El nuevo test que revela cuán deshonestos pueden ser los modelos de IA

Rajkumar, Radhika. «This New AI Benchmark Measures How Much Models LieZDNet, March 11, 2025. https://www.zdnet.com/article/this-new-ai-benchmark-measures-how-much-models-lie/

Los resultados de la evaluación muestran que los modelos de IA no solo son capaces de mentir, sino que a mayor escala y capacidad, parecen volverse más deshonestos. Este fenómeno se denomina «alignment faking» o fingimiento de alineación, cuando un modelo aparenta seguir valores éticos mientras, en realidad, actúa de manera opuesta cuando está bajo presión.

Investigadores del Center for AI Safety y Scale AI han desarrollado un nuevo referente para evaluar la honestidad de los modelos de inteligencia artificial (IA). Llamado MASK (Model Alignment between Statements and Knowledge), este benchmark mide la capacidad de los modelos para mentir de manera consciente, diferenciando entre precisión y honestidad. Hasta ahora, la industria no contaba con una herramienta eficaz para evaluar si un modelo generaba información falsa con intención de engañar.

El estudio incluyó más de 1.500 consultas diseñadas para inducir respuestas falsas, evaluando 30 modelos avanzados. Uno de los principales descubrimientos fue que una mayor precisión en los modelos no implica mayor honestidad. De hecho, algunos de los modelos más avanzados en términos de conocimiento demostraron ser especialmente hábiles en el engaño.

Los hallazgos muestran que modelos más grandes y avanzados no son necesariamente más honestos. De hecho, a mayor escala, parecen volverse más deshonestos. Grok 2 fue el modelo con mayor proporción de respuestas deshonestas (63%), mientras que Claude 3.7 Sonnet tuvo el mayor porcentaje de respuestas honestas (46.9%).

El estudio destaca que la capacidad de los modelos de IA para mentir representa un serio riesgo para la seguridad, la privacidad y la confianza en la tecnología. Ejemplos de estas amenazas incluyen:

  • Errores financieros y legales: Si un modelo de IA informa erróneamente sobre una transacción bancaria, podría generar pérdidas económicas significativas.
  • Desinformación deliberada: Los modelos podrían difundir información errónea de forma intencionada, con posibles consecuencias en ámbitos como la política, la salud o el derecho.
  • Filtraciones de datos sensibles: Si un modelo no es honesto sobre su acceso a información privada, podría poner en riesgo la seguridad de los usuarios.

MASK benchmark marca un avance significativo en la evaluación de la ética de la IA, al centrarse en la intencionalidad detrás de las respuestas falsas. Sus hallazgos sugieren que la industria debe replantearse cómo se desarrollan y regulan estos modelos, especialmente en aplicaciones donde la transparencia y la confianza son esenciales.

Bibliotecas universitarias españolas: generando entornos seguros frente a los desórdenes de la información

Morera-Gracia, Eva. «Bibliotecas universitarias españolas: generando entornos seguros frente a los desórdenes de la información.» Revista de Investigación sobre Bibliotecas, Educación y Sociedad 2024. Universidad Complutense de Madrid. https://revistas.ucm.es/index.php/RIBE/article/download/99922/4564456572332?inline=1.

El artículo analiza el papel de las bibliotecas universitarias españolas en la lucha contra la desinformación, destacando su compromiso con la alfabetización mediática. Presenta estrategias como cursos de competencia digital y guías informativas para promover el pensamiento crítico. Además, resalta iniciativas complementarias en otros ámbitos educativos y municipales.

La autora enfatiza que, según la Federación Internacional de Asociaciones de Bibliotecarios y Bibliotecas (IFLA), estas instituciones tienen un compromiso ético e institucional para garantizar el acceso a información fiable. En este sentido, las bibliotecas deben ir más allá de su función tradicional de conservar y difundir el conocimiento académico y científico, convirtiéndose en espacios de verificación y formación para la ciudadanía.

El artículo se centra en tres objetivos principales. Primero, estudia el concepto de desorden de la información, analizando cómo la información puede ser manipulada, distorsionada o presentada de manera errónea. Segundo, distingue los diferentes tipos de desinformación, como la información errónea, la propaganda engañosa y la desinformación deliberada. Finalmente, describe diversas estrategias y actividades que las bibliotecas universitarias españolas han implementado para crear entornos informativos seguros.

Para desarrollar el estudio, se llevó a cabo un proceso metodológico en varias fases. Primero, se realizó una recopilación y análisis de fuentes sobre desinformación y el papel de las bibliotecas en su combate. Luego, se definieron las categorías del desorden informativo y se identificaron estrategias efectivas para abordarlo. Finalmente, se ejemplificaron estas estrategias con casos concretos de bibliotecas universitarias en España.

Entre las iniciativas más relevantes se encuentran los cursos de competencia digital, diseñados para mejorar la capacidad de los usuarios en la evaluación crítica de la información y el manejo de herramientas digitales. Además, las bibliotecas han desarrollado LibGuides, guías digitales que proporcionan recursos y estrategias para identificar y combatir la desinformación, promoviendo la alfabetización mediática y digital.

Además del contenido del artículo, existen otras iniciativas y perspectivas que refuerzan el papel de las bibliotecas y las instituciones educativas en la lucha contra la desinformación. Por ejemplo, Neus Castellano, directora de la Biblioteca Gabriel García Márquez de Barcelona, enfatiza que estas instituciones actúan como un «pegamento social» y un refugio frente a la desinformación predominante en las redes sociales. Por otro lado, expertos en alfabetización mediática resaltan la necesidad de educar a los jóvenes para que desarrollen un pensamiento crítico que les permita discernir entre noticias falsas y contenido veraz.

En el ámbito municipal, la Biblioteca de Xàtiva ha impulsado un club de lectura fácil en colaboración con asociaciones locales, con el objetivo de fomentar la inclusión y facilitar el acceso a la lectura a personas con dificultades lectoras, como migrantes o individuos con poca escolarización. A nivel universitario, la Universidad de Córdoba ha decidido cerrar sus cuentas en la red social X (antes Twitter), argumentando que la plataforma ha favorecido comportamientos contrarios a los valores democráticos.

En conclusión, el artículo subraya la importancia de las bibliotecas universitarias españolas en la generación de entornos seguros frente a los desórdenes de la información. A través de iniciativas como los cursos de competencia digital y la creación de recursos específicos, estas instituciones desempeñan un papel clave en la educación de ciudadanos críticos y bien informados. Complementadas con otras estrategias a nivel municipal y académico, las bibliotecas se consolidan como espacios fundamentales para la lucha contra la desinformación en un mundo cada vez más saturado de información manipulada.

Alertan sobre propaganda rusa infiltrada en los principales chatbots de IA

NewsGuard. «A Well-Funded, Moscow-Based Global Disinformation Machine Flooded the Internet with Russian Propaganda—Now It’s Polluting AI ChatbotsNewsGuard Reality Check, March 6, 2025. https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global.

Un informe reciente de NewsGuard, compartido por Axios, revela que una operación de desinformación rusa sigue afectando a los principales chatbots de inteligencia artificial (IA), los cuales están replicando propaganda pro-Kremlin.

Según el informe, una red de unos 150 sitios web vinculados a Rusia, conocida como la red Pravda, ha inundado internet con noticias falsas desde abril de 2022. Esto no solo engaña a los buscadores, sino también a los sistemas de IA que se entrenan con datos de la web, alterando la forma en que procesan y presentan información.

NewsGuard evaluó a 10 de los principales chatbots, entre ellos ChatGPT-4o (OpenAI), Gemini (Google), Copilot (Microsoft), Claude (Anthropic), Meta AI, entre otros. En el estudio, se probaron 15 narrativas falsas promovidas por la red Pravda, utilizando distintos estilos de preguntas para simular interacciones reales con los usuarios.

Principales resultados del informe:

  • Los chatbots repitieron desinformación rusa en un 33,55% de las respuestas.
  • En un 18,22% no ofrecieron respuesta.
  • Solo un 48,22% refutó o corrigió la información falsa.
  • Todos los chatbots replicaron, en algún momento, narrativas falsas de Pravda.
  • Siete de ellos citaron directamente artículos de Pravda como fuente.
  • Se identificaron 92 artículos diferentes de Pravda usados como referencia en las respuestas de los chatbots.

Estos hallazgos confirman otro informe de febrero de 2025 del grupo estadounidense American Sunlight Project (ASP), que alertó que la red Pravda no busca tanto atraer lectores humanos, sino influir en los modelos de lenguaje de IA. A esta estrategia la denominaron «LLM grooming», es decir, entrenar indirectamente a los modelos para normalizar narrativas falsas.

El informe advierte que los riesgos de este tipo de manipulación son elevados, tanto a nivel político como social y tecnológico, debido a la capacidad de los modelos de IA para amplificar desinformación a gran escala.

Borges anticipó con su relato uno de los mayores desafíos de nuestro tiempo la era de la información y la desinformación

“Esa fabulosa biblioteca contenía (dicho en palabras de hoy)
toda la información posible, porque cualquier posible conjunto
de palabras estaba en alguna de sus inagotables estanterías.
Libros buenos y malos, mediocres; falsos y auténticos, medio
falsos y medio verdaderos: todos”.


Borges “La Biblioteca de Babel”

La célebre Biblioteca de Babel de Borges es una metáfora poderosa sobre la infinitud de la información. En ella, cualquier combinación posible de palabras existe y, por tanto, también existen todos los libros concebibles: los verdaderos y los falsos, los geniales y los mediocres, los que tienen sentido y los que son puro desvarío. En ese universo total, los habitantes de la biblioteca están condenados a buscar sin descanso fragmentos de sentido entre estanterías interminables, donde cada texto valioso está sepultado por millones de textos absurdos. Tener acceso a toda la información posible no significa, por tanto, alcanzar el conocimiento; más bien implica enfrentarse a un caos abrumador del que es casi imposible extraer certezas.

La comparación con Internet hoy resulta inevitable. Nuestra red global funciona como una Babel contemporánea: una vastísima acumulación de textos, imágenes, vídeos y datos en la que conviven noticias reales con bulos, obras maestras con contenidos triviales, información rigurosa con opiniones infundadas. Al igual que en la biblioteca borgiana, en Internet también está todo, pero ese “todo” no garantiza encontrar lo que buscamos, ni mucho menos la verdad. El problema ya no es solo acceder a la información, sino saber discernir entre lo valioso y lo irrelevante, entre lo auténtico y lo falso, entre lo que aporta conocimiento y lo que solo genera ruido.

En el universo de Borges, los bibliotecarios desesperaban tratando de dar sentido a los interminables anaqueles. Hoy, nosotros cumplimos ese mismo papel cada vez que navegamos por Internet, aunque ahora contamos además con la ayuda —o quizás la trampa— de los algoritmos. Estas fórmulas invisibles filtran los contenidos y deciden qué parte de la biblioteca infinita nos muestran, moldeando nuestra percepción del mundo y condicionando nuestras búsquedas. Así, a la dificultad de encontrar sentido dentro del exceso, se suma el riesgo de quedar atrapados en burbujas de información que refuerzan nuestras propias ideas y nos alejan aún más de una posible verdad común.

En definitiva, Borges anticipó con su relato uno de los mayores desafíos de nuestro tiempo: que el exceso de información puede ser tan paralizante como la falta de ella. Frente a esta Babel digital en la que vivimos, nuestra tarea es desarrollar pensamiento crítico, crear filtros responsables y, sobre todo, no perder la voluntad de seguir buscando sentido entre el caos.

Elon Musk y la Guerra de la Información: tácticas de manipulación en Twitter

+Duran, Gil, y George Lakoff. Algorithm Warfare: How Elon Musk Uses Twitter to Control Brains. The Frame Lab.https://www.theframelab.org/algorithm-warfare-how-elon-musk-uses/

El artículo analiza cómo Elon Musk utiliza Twitter de manera estratégica para controlar la narrativa y manipular la opinión pública, aplicando tácticas similares a las de Donald Trump en la guerra de la información. Se destacan cuatro tácticas clave que Musk emplea:

  1. Enmarcado preventivo: Musk utiliza Twitter para enmarcar los temas a su favor antes de que lo hagan otros. Un ejemplo es el caso de los «Twitter Files», que presentó como un escándalo de censura del gobierno a favor de Joe Biden, aunque en realidad no tenía pruebas de tal acto. Este enmarcado, aunque infundado, crea la narrativa de que los medios de comunicación ocultan una gran verdad, mientras él desacredita a los medios tradicionales.
  2. Desviación: Musk distrae la atención de temas importantes para centrarla en información falsa o engañosa. Un caso fue cuando desvió la atención de un artículo negativo de The Wall Street Journal sobre su empresa, The Boring Company, atacando a Apple con acusaciones falsas sobre su publicidad y su relación con Twitter.
  3. Desviación de ataques: Musk utiliza Twitter para desviar los ataques hacia él, redirigiendo la conversación hacia sus críticos, políticos demócratas o progresistas. Un ejemplo reciente fue cuando insinuó que sus predecesores en Twitter podrían haber facilitado actividades ilegales, mientras él mismo había debilitado el equipo encargado de la seguridad infantil.
  4. Globo sonda: Musk utiliza su cuenta para lanzar ideas y probar la respuesta pública. Algunas propuestas, como la reintegración de Trump en Twitter, se concretan, mientras que otras parecen ser provocaciones para generar controversia, como su sugerencia de convertir la sede de Twitter en un refugio para personas sin hogar.

Estas tácticas, que combinan desinformación, distracción y manipulación de la narrativa, sirven para proteger la imagen de Musk, desviar la atención de sus fracasos y consolidar su poder en la plataforma.

El papel de los bibliotecarios escolares en el desarrollo de habilidades de alfabetización informativa en estudiantes ante las noticias falsas

EveryLibrary. «Researching Your Way Through a Million ResultsEveryLibrary, accessed January 30, 2025. https://action.everylibrary.org/researching_your_way_through_a_million_results

Los bibliotecarios escolares son fundamentales para ayudar a los estudiantes a desarrollar habilidades de alfabetización informativa en un mundo saturado de información incorrecta. Enseñan a localizar, evaluar la calidad y cantidad de las fuentes, y dar crédito a los materiales utilizados. Además, promueven la ciudadanía digital responsable. En lugar de confiar solo en búsquedas de Google, los estudiantes aprenden a utilizar bases de datos académicas y a filtrar fuentes confiables, lo que les permite ser investigadores y ciudadanos más críticos en un entorno digital lleno de noticias falsas.

Las investigaciones han demostrado que las noticias falsas viajan seis veces más rápido que las verdaderas en las redes sociales. Afortunadamente, los bibliotecarios escolares ayudan a los estudiantes a navegar por un mundo en el que les rodea demasiada información incorrecta. En colaboración con los profesores y los padres, los bibliotecarios escolares ofrecen lecciones esenciales que no solo ayudan a los estudiantes con su proyecto de investigación actual, sino que también ayudan a desarrollar habilidades de alfabetización críticas necesarias para toda una vida de aprendizaje, investigación y lectura.

Hace sólo unas décadas, el panorama era totalmente distinto. Si un estudiante tenía un proyecto de investigación, acudía a la biblioteca de su colegio, donde encontraba la colección de enciclopedias de la biblioteca para localizar un artículo sobre su tema. Tomaba notas, ya que el libro de referencia no estaba disponible para préstamo. Posteriormente sacaba un libro escrito por un autor experto y se iba a casa con su libro y sus notas, dos fuentes de información de alta calidad pero sucintas. Ahora, no sólo hay dos fuentes disponibles, sino probablemente miles, o incluso millones. Muchas de esas fuentes tienen información excelente, mientras que otras simplemente no la tienen. Algunas estarán desactualizadas, otras serán parciales y otras contendrán información completamente falsa.

¿Cómo distinguirlas? Y, ¿cómo hacer esta investigación rápida y eficazmente con tanto contenido? Dado que la investigación es tan diferente hoy en día, los alumnos necesitan desarrollar unas aptitudes increíblemente sólidas en materia de alfabetización informacional. Los bibliotecarios escolares pueden ayudar a los estudiantes a navegar por este mundo en constante cambio de la alfabetización informacional. He aquí cuatro maneras en que los bibliotecarios escolares pueden ayudar a los estudiantes a tener éxito:

Localización de información

Hay mejores formas de empezar que una búsqueda en Google. Por ejemplo, las bibliotecas escolares suelen estar suscritas a bases de datos de investigación de alta calidad, a muchas de las cuales se puede acceder desde casa. Buscar en una base de datos de alta calidad y adecuada a la edad, como una de EBSCO o Gale, conducirá a resultados más sólidos. Por supuesto, la biblioteca escolar también tiene toda una colección de libros que han sido seleccionados y examinados por el bibliotecario de la escuela. Estos libros están escritos para el nivel y las necesidades informativas de tu alumno, por lo que encajan de forma natural y sencilla en su proceso de investigación.

Aun así, muchos alumnos querrán o necesitarán buscar en la red. Para ello, necesitarán competencias informacionales y estrategias de investigación de alto nivel. Aquí es donde los bibliotecarios escolares pueden ayudar de nuevo. Enseñan a los alumnos a hacerse preguntas clave mientras buscan, ayudándoles a saber qué sitios web son los mejores para utilizar. Algunas de estas preguntas son ¿Pertenece el sitio web a una institución establecida, como una universidad o un organismo público? ¿Es esa institución experta en el campo que estás investigando? ¿Quién aloja la información del sitio web? ¿Tiene la URL del sitio web algún componente sospechoso?

Cantidad de información

Las búsquedas en Internet nos ofrecen millones de resultados. Pero, ¿cuánta información se necesita realmente? A veces, los alumnos localizan y utilizan un largo artículo de Internet, cuando una entrada de enciclopedia habría cubierto rápidamente el contenido necesario. Evaluar la cantidad de información necesaria es otra importante habilidad de pensamiento crítico que se desarrolla en la biblioteca. Cuando se necesita una pequeña cantidad de información, un bibliotecario puede ayudar a localizar una enciclopedia en línea de buena reputación.

Calidad de las fuentes

Una vez que los alumnos han localizado sus fuentes, los bibliotecarios escolares les instan a que las examinen de forma crítica. Una forma fácil de hacerlo es buscar una cita. Lo bueno de Internet es que ofrece contenidos que pueden ser actuales y vanguardistas. ¿El inconveniente? Hay muchos contenidos antiguos. Animar a los alumnos a buscar fechas ayuda a los estudiantes a encontrar los materiales más recientes para su investigación.

El sitio web también debe tener un autor. Una parte importante de la alfabetización informacional consiste en saber quién escribió el material y por qué. ¿Quién es el autor? Si no hay nombre, ¿hay una razón lógica para que no lo haya? ¿Es un experto en la materia? ¿El autor intenta informarte o persuadirte? Si es así, ¿notas algún lenguaje que muestre parcialidad? Todas estas preguntas ayudan a los alumnos a localizar materiales fácticos sólidos.

Dar crédito

Por último, los bibliotecarios escolares trabajan para promover la ciudadanía digital, ayudando a los alumnos a mantenerse seguros y a ser responsables en Internet. Un componente importante de la responsabilidad en línea es dar crédito por la información utilizada. Es fácil sacar información de Internet, pero es necesario dar crédito a las ideas utilizadas en un proyecto o trabajo. Muchas bibliotecas escolares están suscritas a programas o utilizan recursos gratuitos para que citar las fuentes sea más fácil que nunca. Infórmate en la biblioteca de tu centro.

Desarrollar las competencias básicas en materia de información ayudará a los alumnos a ser buenos investigadores y pensadores críticos. Estas destrezas les serán muy útiles a lo largo de su trayectoria educativa y más allá. Por ejemplo, estas mismas habilidades ayudarán a los estudiantes a localizar y detectar esas noticias falsas tan frecuentes hoy en día. Las competencias informacionales de los estudiantes deben ser más agudas que nunca, no sólo para ser buenos estudiantes, sino también para ser ciudadanos bien informados.

Las pruebas demuestran que la herramienta de búsqueda ChatGPT es vulnerable a la manipulación y el engaño

Evershed, Nick. «ChatGPT Search Tool Vulnerable to Manipulation and Deception, Tests ShowThe Guardian, December 24, 2024. https://www.theguardian.com/technology/2024/dec/24/chatgpt-search-tool-vulnerable-to-manipulation-and-deception-tests-show

La herramienta de búsqueda de ChatGPT, impulsada por inteligencia artificial (IA), presenta vulnerabilidades que permiten manipular los resultados y devolver información errónea o incluso maliciosa, según una investigación realizada por The Guardian. La prueba reveló que el sistema es susceptible a la manipulación mediante el uso de contenido oculto en las páginas web, lo que podría alterar las respuestas de ChatGPT, un proceso conocido como «inyección de instrucciones» o «prompt injection». Esta técnica permite que terceros modifiquen el comportamiento de la IA, logrando, por ejemplo, que ChatGPT devuelva reseñas positivas de productos a pesar de que el sitio web contenga opiniones negativas.

En las pruebas realizadas, ChatGPT fue dirigido a páginas web falsas que imitaban las de productos, como una cámara, con el objetivo de analizar las respuestas generadas por la IA. Cuando las páginas contenían texto oculto con instrucciones para proporcionar una evaluación favorable, incluso cuando los comentarios reales eran negativos, la herramienta de IA generaba respuestas completamente positivas, manipulando así la percepción del producto. Además, en algunos casos, la inserción de texto oculto que no incluía instrucciones explícitas también modificaba las respuestas, favoreciendo una evaluación positiva mediante reseñas falsas.

La preocupación de los expertos en seguridad es significativa. Jacob Larsen, investigador de ciberseguridad, advirtió que si el sistema de búsqueda de ChatGPT se lanzara en su estado actual, existiría un «alto riesgo» de que se crearan sitios web diseñados específicamente para engañar a los usuarios y manipular los resultados de búsqueda. Sin embargo, también señaló que la funcionalidad de búsqueda es relativamente nueva y está disponible solo para usuarios premium, por lo que OpenAI probablemente esté trabajando en la corrección de estos problemas.

Desinformación: más que datos erróneos

Comas-Forgas, Ruben, Alexandros Koulouris, y Dimitris Kouis. s. f. «‘AI-Navigating’ or ‘AI-Sinking’? An Analysis of Verbs in Research Articles Titles Suspicious of Containing AI-Generated/Assisted Content». Learned Publishing n/a (n/a): e1647. https://doi.org/10.1002/leap.1647.

La misinformation (en español, desinformación) se refiere a la difusión de información falsa o inexacta, pero sin la intención deliberada de engañar. Esto la distingue de la disinformation (desinformación intencional), que es información falsa creada y difundida con el propósito de manipular, confundir o influir de manera premeditada.

El artículo aborda cómo los rumores y las interpretaciones erróneas tienen un impacto fundamental en la difusión de desinformación, especialmente en el contexto de las elecciones en EE. UU. Según los autores, el problema no radica únicamente en la presencia de hechos falsos, sino en los marcos mentales que las personas emplean para interpretar la información. Estos marcos influyen en la manera en que se entienden los eventos, lo que a menudo deriva en rumores y malentendidos.

Los rumores son un intento colectivo de dar sentido a situaciones inciertas. Si bien muchas veces son falsos, reflejan confusiones o temores reales dentro de las comunidades. En contraste, la desinformación implica una manipulación intencionada de estos procesos, mediante la introducción de pruebas falsas o la distorsión de los marcos que las personas utilizan para interpretar los hechos.

La relación entre los marcos y la evidencia es clave. Los marcos mentales no solo guían cómo las personas seleccionan y analizan la evidencia, sino que también pueden ser moldeados intencionalmente por medios, líderes políticos y comunidades. Por ejemplo, durante las elecciones de 2020, el marco del «fraude electoral» promovido por Donald Trump llevó a muchos a interpretar el uso de bolígrafos Sharpie en Arizona como evidencia de un intento de manipulación, lo que dio lugar al llamado Sharpiegate.

El artículo también resalta el papel de las redes sociales en estos procesos. Las plataformas digitales amplifican contenidos que se alinean con marcos políticos dominantes, favoreciendo la viralización de rumores. Los influencers, en particular, contribuyen a la difusión de mensajes manipulados al aprovecharse de las dinámicas de atención impulsadas por los algoritmos. Esto se evidenció en 2024, cuando un video manipulado sobre migrantes votando ilegalmente se volvió viral, reforzando marcos de «fraude electoral» y «amenaza migratoria».

En las elecciones de 2024, los autores observan un aumento en la actividad de grupos que promueven el marco de «elecciones manipuladas». Estos grupos reclutan voluntarios para recolectar y difundir evidencia que respalde estas narrativas, lo que podría generar rumores adicionales y alimentar demandas legales o intentos de socavar los resultados.

Finalmente, el artículo destaca la importancia de comprender los procesos de generación y propagación de rumores. Esta perspectiva permite empatizar con las personas que comparten rumores de buena fe y, al mismo tiempo, identificar cómo los propagandistas manipulan estas dinámicas. Este enfoque es crucial para que investigadores, periodistas y funcionarios electorales puedan responder de manera más eficaz a la desinformación.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.