Archivo de la etiqueta: Desinformación

La IA contra sí misma: Google intensifica la lucha contra los anuncios fraudulentos

Huamani, K. “AI Is a Gold Mine for Spammers and Scammers, but Google Is Using It as a Tool to Fight Back.” AP News, 16 de abril de 2026.

Leer artículo

Este articulo analiza la creciente paradoja de la inteligencia artificial en el ecosistema digital: la misma tecnología que facilita la proliferación de fraudes y estafas en internet se ha convertido también en la principal herramienta para combatirlos. En particular, se centra en el informe anual de seguridad publicitaria de Google, que revela cómo el uso de sistemas avanzados de IA —como Gemini— está permitiendo detectar y bloquear anuncios maliciosos antes de que lleguen al público.

El texto de Kaitlyn Huamani analiza cómo la expansión de la inteligencia artificial generativa ha intensificado un problema antiguo: el de los fraudes y el spam en internet. Aunque estos engaños existen desde los inicios de la red, la accesibilidad de herramientas de IA ha permitido a los estafadores producir contenidos mucho más sofisticados —como anuncios de productos milagro o vídeos con voces falsas de celebridades— a una velocidad y escala sin precedentes. Expertos como Nate Elliott destacan que la gran diferencia actual no es la naturaleza del problema, sino su aceleración exponencial, que beneficia tanto a actores legítimos como a los maliciosos. Esta tendencia tiene un impacto real: según el Federal Bureau of Investigation, en el último año se registraron más de 22.000 denuncias por estafas relacionadas con IA, con pérdidas que superan los 893 millones de dólares.

Frente a este escenario, grandes empresas tecnológicas como Google están reforzando sus sistemas de defensa mediante el uso de su propia inteligencia artificial. En su informe anual de seguridad publicitaria, la compañía reconoce el aumento de anuncios fraudulentos cada vez más complejos, pero subraya la eficacia de sus herramientas basadas en IA. Su sistema, impulsado por Gemini, logró detectar más del 99% de los anuncios que infringían las políticas antes de que llegaran a los usuarios. En 2025, Google bloqueó o eliminó más de 8.300 millones de anuncios y suspendió cerca de 24,9 millones de cuentas de anunciantes, de las cuales más de 4 millones estaban vinculadas a actividades fraudulentas. Estas cifras reflejan tanto la magnitud del problema como el esfuerzo creciente por contenerlo.

El artículo también explica cómo funcionan estas herramientas defensivas. Gracias a Gemini, Google puede analizar cientos de miles de millones de señales —como la antigüedad de las cuentas, patrones de comportamiento o características de las campañas— para evaluar la intención real de los anunciantes. Esto permite distinguir con mayor precisión entre negocios legítimos y actores maliciosos, reduciendo además los errores: las suspensiones indebidas de anunciantes se han reducido en un 80%. Otro avance clave es la velocidad, ya que procesos que antes llevaban segundos o minutos ahora se realizan en milisegundos, lo que permite bloquear amenazas antes incluso de que se publiquen.

Aun así, el problema sigue siendo complejo y dinámico. Los anuncios fraudulentos adoptan múltiples formas y evolucionan constantemente, replicando estrategias tradicionales pero con mayor volumen y rapidez gracias a la IA. Google insiste en que no clasifica los anuncios en función de si han sido generados por inteligencia artificial, sino según si incumplen sus políticas, ya que muchas empresas legítimas también utilizan estas herramientas de forma correcta. En este contexto, los expertos coinciden en que la confrontación entre estafadores y sistemas de defensa continuará intensificándose.

En última instancia, el texto plantea un escenario en el que la lucha contra el fraude digital se convierte en una especie de “IA contra IA”. Como señala Matt Seitz, el volumen del problema es ya tan grande que no puede gestionarse únicamente con intervención humana. Esto anticipa un futuro en el que la automatización será clave tanto para la creación de amenazas como para su detección, consolidando una carrera tecnológica permanente entre ataque y defensa en el entorno digital.

Desinformación vs. alucinaciones en la IA: dos errores distintos, un mismo riesgo

Cosstick, John. “AI Misinformation vs AI Hallucinations: What’s the Difference.” Tech Life Future, 2025. https://www.techlifefuture.com/ai-misinformation-vs-ai-hallucinations/

Se analiza una distinción clave en el ecosistema informativo contemporáneo: la diferencia entre la desinformación generada por inteligencia artificial y las llamadas “alucinaciones” de la IA. Aunque ambos fenómenos implican la producción de información falsa o engañosa, su origen y naturaleza son distintos.

La desinformación en IA suele estar vinculada a la intención humana: se genera o difunde contenido falso de manera deliberada para manipular, influir o engañar. En cambio, las alucinaciones son errores inherentes al funcionamiento de los modelos de lenguaje, que producen información incorrecta sin intención maliciosa, simplemente porque “rellenan” lagunas con contenido plausible pero no verificado.

El texto profundiza en las causas técnicas de las alucinaciones, señalando que estas surgen de limitaciones estructurales de los sistemas de IA. Los modelos funcionan mediante generación probabilística: predicen qué texto es más probable en función de patrones aprendidos, no de una verificación factual. Esto puede llevar a la invención de datos, citas académicas inexistentes o errores históricos. Factores como datos de entrenamiento incompletos o sesgados, así como limitaciones en la arquitectura de los modelos, contribuyen a este fenómeno. En esencia, la IA no “miente”, sino que construye respuestas verosímiles a partir de patrones, lo que puede resultar en afirmaciones erróneas presentadas con gran coherencia.

Por otro lado, la desinformación impulsada por IA se inscribe en dinámicas sociales más amplias. No depende tanto de fallos técnicos como de usos intencionados de la tecnología: desde la creación de contenidos engañosos mediante técnicas como el prompt engineering hasta su difusión masiva a través de redes sociales, bots o influencers. Este tipo de desinformación explota los sesgos cognitivos de los usuarios y puede tener consecuencias especialmente graves en ámbitos como la política, la salud o la opinión pública.

El artículo subraya que, aunque ambos fenómenos pueden parecer similares para el usuario —información falsa presentada de forma convincente—, requieren estrategias distintas de mitigación. Las alucinaciones demandan mejoras técnicas en los modelos, como mejores datos de entrenamiento o sistemas de verificación interna. La desinformación, en cambio, exige respuestas sociales, regulatorias y educativas, incluyendo alfabetización mediática y control de los canales de difusión.

Por último, se destaca que el auge de la inteligencia artificial ha intensificado el problema de la fiabilidad de la información. Estudios recientes muestran que una proporción significativa de respuestas generadas por IA puede ser incorrecta o engañosa, lo que pone en riesgo la integridad del ecosistema informativo. En este contexto, comprender la diferencia entre desinformación y alucinación no es solo una cuestión técnica, sino una competencia crítica para navegar en un entorno cada vez más mediado por algoritmos.

El peligro invisible de las respuestas de la IA: suena convincente, pero puede ser una respuesta errónea o malintencionada

Woman thinking deeply while using laptop surrounded by bubble showing truth and misinformation
A woman contemplates the choice between truth and misinformation while using a laptop in a dimly lit room.

AI School Librarian. “Confident Answers Are Not the Same as Correct Answers.Substack, 2026. https://aischoollibrarian.substack.com/p/confident-answers-are-not-the-same

Se plantea una advertencia fundamental en la era de la inteligencia artificial generativa: la apariencia de seguridad en una respuesta no equivale a su veracidad. Los sistemas de IA están diseñados para producir textos coherentes, fluidos y convincentes, lo que genera una ilusión de autoridad que puede inducir a error.

Esta característica no es accidental, sino inherente a su funcionamiento: los modelos predicen qué respuesta “suena” correcta basándose en patrones estadísticos, no en una comprensión real de la verdad. Así, la confianza expresiva de la IA puede enmascarar errores, lagunas o incluso invenciones, lo que obliga a replantear cómo interpretamos y evaluamos sus respuestas.

El texto subraya que este fenómeno tiene profundas implicaciones educativas e informativas. Tradicionalmente, los humanos han asociado la confianza con la competencia, confiando más en quienes se expresan con seguridad. La IA explota involuntariamente este sesgo cognitivo: presenta información con una estructura clara y un tono firme, lo que reduce la tendencia del usuario a cuestionar su contenido. Sin embargo, como advierten diversos análisis, esta “brecha de confianza” puede llevar a aceptar respuestas incorrectas simplemente porque están bien formuladas. En contextos académicos o profesionales, esto puede erosionar el pensamiento crítico y fomentar una dependencia excesiva de sistemas automatizados.

Otro aspecto relevante es que la calidad de las respuestas depende en gran medida de cómo se formula la pregunta. Los usuarios con mayor conocimiento previo o habilidades de “prompting” obtienen resultados más precisos y útiles, mientras que quienes carecen de estas competencias pueden recibir respuestas superficiales o incompletas. Esto introduce un nuevo tipo de desigualdad informativa: no todos los usuarios acceden al mismo nivel de calidad en la información generada por IA, lo que cuestiona la idea de que estas herramientas democratizan el conocimiento.

El artículo también insiste en que la IA no distingue adecuadamente entre niveles de certeza. Puede presentar hechos bien establecidos y afirmaciones especulativas con el mismo grado de seguridad, dificultando que el usuario discrimine entre información fiable y dudosa. Este “aplanamiento de la certeza” es especialmente problemático en ámbitos como la salud, la educación o la toma de decisiones, donde la precisión y el contexto son esenciales.

Por ello se propone una actitud crítica y reflexiva como respuesta a este desafío. La IA debe entenderse como una herramienta de apoyo, no como una autoridad definitiva. Verificar la información, contrastarla con fuentes fiables y mantener el juicio propio se convierten en habilidades clave en este nuevo entorno. En última instancia, el artículo no rechaza el uso de la inteligencia artificial, pero advierte que su integración en la vida cotidiana exige una alfabetización informacional más sofisticada, capaz de distinguir entre lo que suena convincente y lo que realmente es cierto.

Los efectos destructivos de la desinformación en el cerebro humano Ejemplos que ponen en alerta la prevalencia de la desinformación en el siglo XXI.

Psychology Today. “The Destructive Effects of Misinformation on the Human Brain.” The Changing Brain, febrero de 2026. https://www.psychologytoday.com/us/blog/the-changing-brain/202602/the-destructive-effects-of-misinformation-on-the-human-brain

En conjunto, el artículo alerta de que la desinformación debe entenderse como un problema de salud cognitiva y social: una forma de “contaminación mental” que afecta tanto a los procesos internos del cerebro como a las dinámicas colectivas de la sociedad contemporánea.

La desinformación actúa sobre el cerebro humano de forma comparable a un agente biológico perjudicial: no es simplemente información errónea, sino una alteración profunda de los mecanismos cognitivos básicos. El artículo explica que la información es un “nutriente esencial” para el cerebro, de la misma manera que el oxígeno lo es para los pulmones. Cuando ese nutriente está contaminado, el funcionamiento cerebral se ve comprometido en múltiples niveles, desde los procesos neuroquímicos hasta las conductas observables. Así como una mínima alteración en los impulsos nerviosos puede provocar un fallo físico grave, la introducción de información falsa puede generar distorsiones en la percepción, el juicio y la toma de decisiones.

Uno de los efectos más relevantes es la alteración de la memoria. La investigación psicológica ha demostrado que la desinformación puede integrarse en los recuerdos hasta el punto de sustituirlos o mezclarse con ellos. Este fenómeno, conocido como “efecto de desinformación”, implica que la memoria no es un registro fiel de la realidad, sino un sistema maleable que puede ser reescrito por información posterior. Así, las personas pueden recordar hechos que nunca ocurrieron o reinterpretar eventos reales a la luz de datos falsos, lo que tiene consecuencias especialmente graves en ámbitos como el testimonio judicial o la construcción de la memoria colectiva.

Otro aspecto clave es la persistencia de la desinformación incluso después de haber sido corregida. Diversos estudios señalan que, una vez que una idea falsa ha sido incorporada, resulta extremadamente difícil eliminarla del todo: el cerebro sigue utilizándola como referencia, fenómeno conocido como “influencia continuada”. Esto se debe a que la información inicial deja huellas cognitivas duraderas y a que el cerebro tiende a preferir narrativas coherentes, aunque sean incorrectas, frente a la incertidumbre. En este sentido, la desinformación no solo engaña momentáneamente, sino que configura marcos mentales estables.

El artículo también destaca el papel de las emociones como vehículo de desinformación. Las creencias falsas suelen ir acompañadas de respuestas emocionales intensas —miedo, ira, entusiasmo— que refuerzan su aceptación y difusión. El cerebro humano está especialmente predispuesto a procesar información emocional, lo que explica por qué los contenidos sensacionalistas o polarizantes se propagan con mayor rapidez. En el contexto digital actual, donde las redes sociales amplifican este tipo de mensajes, la desinformación encuentra un entorno ideal para expandirse y consolidarse.

Finalmente, el texto subraya que la desinformación del siglo XXI no es un fenómeno aislado, sino sistémico. Su prevalencia se ve impulsada por factores tecnológicos, cognitivos y sociales: la velocidad de difusión supera la capacidad de verificación, los algoritmos favorecen contenidos emocionales y los individuos tienden a aceptar información que confirma sus creencias previas. Como resultado, la desinformación no solo afecta al individuo —alterando su cerebro y su percepción de la realidad—, sino que también erosiona el tejido social al aumentar la polarización y debilitar la confianza en el conocimiento experto.

Alfabetización mediática en la era del contenido generado por IA: ahogados en el “slop”

Frontier Learning Lab. “Drowning in Slop: Media Literacy in the Age of AI.” Substack, 2026. https://frontierlearninglab.substack.com/p/drowning-in-slop-media-literacy-in

Se plantea que nos encontramos en una nueva fase del ecosistema informativo caracterizada por la sobreproducción masiva de contenidos generados por inteligencia artificial, fenómeno que se ha popularizado bajo el término “AI slop”. Este concepto hace referencia a materiales digitales producidos en grandes cantidades, pero con escasa calidad, profundidad o fiabilidad, diseñados principalmente para captar atención y generar ingresos en la economía de los clics.

Slop IA (o «AI Slop») se refiere al contenido digital de baja calidad, repetitivo y masivo generado automáticamente por inteligencia artificial. Es considerado el equivalente al «spam» o «basura» en la era de la IA, priorizando cantidad sobre calidad para ganar clics o interacción en redes sociales

La tesis central del texto es que este exceso de contenido no solo supone un problema de desinformación, sino también de saturación cognitiva. A diferencia de etapas anteriores —en las que el reto era distinguir entre información verdadera y falsa—, ahora el desafío consiste en navegar un entorno donde el volumen de contenido irrelevante, superficial o redundante dificulta incluso encontrar información significativa. En este contexto, el problema no es solo la mentira, sino el ruido: una “contaminación informativa” que diluye el conocimiento valioso.

El artículo subraya que esta situación está impulsada por incentivos estructurales del ecosistema digital. Las plataformas premian el volumen, la velocidad y el «engagement» (compromiso), lo que favorece la proliferación de contenido automatizado. La inteligencia artificial permite producir textos, imágenes o vídeos a gran escala y bajo coste, generando una especie de industrialización del contenido que prioriza la cantidad sobre la calidad. Como resultado, el espacio digital se llena de materiales repetitivos, poco fiables o directamente inútiles.

Uno de los aspectos más relevantes es el impacto de este fenómeno en la confianza. Cuando los usuarios se enfrentan a grandes cantidades de contenido indistinguible en términos de calidad —y cada vez más difícil de verificar—, se produce una erosión progresiva de la credibilidad del entorno informativo. No se trata solo de creer información falsa, sino de dejar de confiar en cualquier información. Este proceso puede derivar en un escepticismo generalizado que debilita tanto el conocimiento compartido como el debate público.

El texto también introduce la idea de una nueva brecha digital: no tanto de acceso a la información, sino de calidad de la información consumida. Mientras algunos usuarios acceden a contenidos fiables (a menudo de pago o producidos por instituciones consolidadas), otros quedan atrapados en ecosistemas dominados por contenido automatizado, clickbait (viberanzuelo) o desinformación. Esta desigualdad informativa tiene implicaciones profundas para la educación, la participación democrática y la cohesión social.

En este escenario, la alfabetización mediática adquiere un papel central, pero debe transformarse. El artículo sostiene que las estrategias tradicionales —centradas en analizar críticamente cada unidad de información— resultan insuficientes ante el volumen actual. En su lugar, propone enfoques más adaptados al entorno digital, como el filtrado activo de fuentes, la lectura lateral (comparar múltiples fuentes antes de profundizar) y el desarrollo de hábitos de consumo informativo más selectivos.

Además, se enfatiza la necesidad de una alfabetización que no sea solo técnica, sino también cultural y ética. Los usuarios deben comprender cómo funcionan los algoritmos, cuáles son los intereses económicos detrás de la producción de contenido y cómo sus propios sesgos cognitivos influyen en lo que consumen y comparten. La alfabetización mediática se redefine así como una competencia integral que combina pensamiento crítico, conocimiento tecnológico y responsabilidad social.

Para concluir, el artículo advierte que la solución no puede recaer únicamente en los individuos. Aunque la educación en alfabetización mediática es fundamental, también se requieren cambios estructurales en las plataformas tecnológicas, como la mejora de los sistemas de recomendación, la transparencia en el uso de IA y posibles regulaciones que limiten la proliferación de contenido de baja calidad. Sin embargo, incluso con estas medidas, el texto sugiere que el reto persistirá: en un mundo donde generar contenido es prácticamente gratuito, la escasez ya no es de información, sino de atención, criterio y significado.

Expertos ante la desinformación generada por IA

Weikmann, Teresa, Ferre Wouters, Marina Tulin, Michael Hameleers, Claes H. de Vreese, Brahim Zarouali y Michaël Opgenhaffen. 2026. “On the Same Page? Experts Are Mostly, but Not Always Aligned about Disinformation in Times of Generative AI.” Harvard Kennedy School (HKS) Misinformation Review, 3 de marzo de 2026. https://doi.org/10.37016/mr-2020-196

El estudio analiza hasta qué punto los expertos que trabajan en la lucha contra la desinformación comparten una visión común sobre el impacto de la inteligencia artificial generativa en la difusión de información falsa. Para ello, los autores realizaron una encuesta en línea a 92 especialistas europeos —académicos, verificadores de hechos y periodistas— vinculados a redes como el European Digital Media Observatory, una iniciativa impulsada por la Comisión Europea para combatir la desinformación digital.

El objetivo era examinar tres aspectos fundamentales: la percepción de competencia profesional frente a la desinformación generada por IA, la evaluación de los riesgos que plantea para la democracia y la sociedad, y la atribución de responsabilidades para mitigar sus efectos. Los resultados muestran que, aunque existen diferencias en la forma de abordar el problema, los expertos comparten un amplio consenso sobre la gravedad potencial del fenómeno y sobre la necesidad de respuestas coordinadas.

En términos de competencia percibida, la mayoría de los expertos afirma sentirse relativamente preparada para afrontar los desafíos que plantea la desinformación generada mediante inteligencia artificial. Sin embargo, los verificadores de hechos destacan como el grupo más confiado en su capacidad para detectar y analizar contenidos falsos. Esta mayor seguridad se explica en gran medida por su experiencia práctica y por el uso cotidiano de herramientas de verificación y detección digital. Por el contrario, académicos y periodistas muestran niveles de confianza algo menores, aunque aún elevados. Esta diferencia sugiere que la especialización profesional y la familiaridad con tecnologías de verificación influyen significativamente en la percepción de capacidad para enfrentarse a este tipo de amenazas informativas.

En relación con los riesgos asociados a la desinformación generada por IA, el estudio revela un elevado grado de consenso entre los tres grupos analizados. Una gran mayoría de los expertos considera que el principal peligro reside en el aumento de la confusión pública sobre la autenticidad de la información: la proliferación de imágenes sintéticas, deepfakes o textos generados automáticamente puede dificultar cada vez más distinguir entre lo verdadero y lo falso. Además, muchos expertos creen que esta situación puede erosionar el debate democrático al socavar la confianza en las fuentes informativas y en la evidencia visual o textual. No obstante, el análisis también muestra una posición matizada: algunos especialistas advierten que estos temores pueden formar parte de ciclos recurrentes de alarma tecnológica que históricamente acompañan la aparición de nuevas herramientas digitales.

Las divergencias más significativas aparecen cuando se analiza quién debería asumir la responsabilidad de combatir la desinformación generada por inteligencia artificial. Aunque existe un amplio acuerdo en señalar a las grandes plataformas digitales como actores clave —debido a su papel en la distribución masiva de contenidos—, los diferentes grupos profesionales enfatizan responsabilidades distintas. Los verificadores de hechos tienden a atribuir una mayor responsabilidad a las plataformas tecnológicas y también a su propio trabajo como actores especializados en la detección de información falsa. Los académicos, en cambio, destacan con mayor frecuencia el papel de los usuarios de noticias, subrayando la importancia de la alfabetización mediática y del desarrollo de competencias críticas para evaluar la información en línea. Los periodistas, por su parte, se sitúan en una posición intermedia, aunque tienden a expresar una visión más alarmista sobre el impacto potencial de estas tecnologías.

Desde el punto de vista de las políticas públicas, el estudio subraya la importancia de considerar la diversidad de perspectivas existentes entre los expertos que asesoran a las instituciones. Las diferencias observadas no implican necesariamente desacuerdo fundamental, sino que reflejan los distintos enfoques profesionales sobre cómo abordar el problema: algunos privilegian soluciones tecnológicas y regulatorias —como la responsabilidad de las plataformas—, mientras que otros destacan la dimensión educativa y social, centrada en la alfabetización mediática. En conjunto, los resultados sugieren que la lucha contra la desinformación generada por inteligencia artificial requiere un enfoque multidimensional que combine regulación tecnológica, verificación profesional y fortalecimiento de la capacidad crítica de los ciudadanos.

La administración Trump recurre a imágenes falsas generadas por IA como estrategia política

Huamani, Kaitlyn. “Trump’s Use of AI Images Sparks Alarm and Misinformation Fears.” The Independent, 27 de enero de 2026.

Ver original

Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.

Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.

Un pasaje destacado del artículo se refiere a un caso en el que la cuenta oficial de la Casa Blanca en X (antes Twitter) publicó una fotografía digitalmente alterada de la abogada de derechos civiles Nekima Levy Armstrong en la que aparecía aparentemente llorando tras un arresto. La imagen original había sido compartida por una secretaria de Seguridad Nacional, pero la versión difundida por el canal oficial fue retocada para acentuar las lágrimas, lo que provocó críticas de que se estaba utilizando la IA para manipular la percepción pública de eventos reales. Críticos como académicos en estudios de información sostienen que etiquetar estas publicaciones como “memes” puede ser una táctica para minimizar la crítica, aunque su difusión desde canales oficiales les confiere una legitimidad peligrosa.

El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.

Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.

En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.

El desafío de la desinformación: reconstruir la confianza en el mundo de la posverdad

Evidence for Democracy. “The Misinformation Challenge: Rebuilding Trust in a Post-Truth World.Evidence for Democracy (E4D), 19 de enero de 2026.

Texto completo

La investigación aborda la creciente amenaza que representan la desinformación y la información errónea (“misinformation”) para la democracia en Canadá. Partiendo de la evaluación oficial de la Comisionada de Interferencia Extranjera, que identifica la desinformación como el mayor riesgo existencial para la democracia canadiense contemporánea, el informe profundiza en las causas, manifestaciones y efectos de este fenómeno en el contexto político y social del país.

El estudio señala que la desinformación está siendo impulsada por una combinación de factores tecnológicos y sociales: el auge de tecnologías emergentes como la inteligencia artificial, un ecosistema digital poco regulado dominado por grandes plataformas, y agentes hostiles tanto internos como externos que explotan estos espacios para difundir narrativas falsas. Estas dinámicas no solo alimentan la polarización política y socavan la confianza en instituciones públicas, sino que también tienen consecuencias concretas para comunidades vulnerables, incluidas amenazas de violencia, discriminación y exclusión social.

Además, el informe destaca que las respuestas legislativas y políticas del gobierno canadiense han sido fragmentadas y lentas frente al rápido crecimiento de estas nuevas formas de desinformación, con intentos de regulación amplia enfrentando desafíos constitucionales y resistencia política. Frente a este panorama, la investigación propone un enfoque multifacético: medidas regulatorias claras sobre contenido generado por IA, mayor transparencia algorítmica en plataformas digitales, la creación de un organismo federal de supervisión y una inversión sostenida en alfabetización mediática digital para reforzar la resiliencia ciudadana y reconstruir la confianza pública en procesos democráticos e instituciones.

En síntesis, el informe de E4D destaca que la desinformación no es un problema superficial de “noticias falsas”, sino un fenómeno profundo que erosiona la confianza pública, distorsiona el diálogo cívico y pone en riesgo la integridad de la democracia, requiriendo respuestas coordinadas que combinen regulación, educación pública y rendición de cuentas de las plataformas tecnológicas.

Los chatbots de IA aún tienen dificultades con la precisión de las noticias

Pal, Moinak. «AI chatbots still struggle with news accuracy, study finds”. Digital Trends, 13 de enero de 2026

Texto completo

Se remarca la importancia del estudio dado que una proporción creciente de usuarios usa sistemas de IA para informarse. Aunque no reemplazan completamente a los medios tradicionales, estas herramientas ya se integran en hábitos informativos, lo que eleva el riesgo de difundir desinformación, especialmente cuando las respuestas se presentan con tono seguro y sin advertencias claras sobre sus limitaciones.

El artículo de Digital Trends resume los hallazgos de un experimento de cuatro semanas en el que se evaluó la capacidad de varios chatbots de inteligencia artificial generativa para identificar, priorizar y resumir noticias reales (incluyendo enlaces directos a los artículos) sobre acontecimientos diarios en Québec. La prueba fue diseñada y publicada originalmente por The Conversation, con el objetivo de medir cuánto pueden confiar los usuarios en estos sistemas como fuentes de noticias.

Los resultados del experimento revelaron problemas significativos: algunos chatbots, como Google Gemini, acabaron inventando medios de comunicación completos e informes que nunca existieron, lo que se conoce como alucinación de IA. Por ejemplo, en uno de los casos, Gemini afirmó falsamente que hubo una huelga de conductores de autobús escolar en Québec en septiembre de 2025, cuando en realidad lo que ocurrió fue la retirada temporal de autobuses Lion Electric por un problema técnico real.

Más allá de la fabricación de noticias completas, los sistemas evaluados generaron respuestas con errores frecuentes: citaron fuentes ficticias o inactivas, proporcionaron URLs incompletas o no válidas, tergiversaron el contenido de informes legítimos e insertaron conclusiones inventadas que no estaban en las noticias originales. En general, solo alrededor del 37 % de las respuestas incluyeron una URL de fuente completa y legítima, y menos de la mitad de los resúmenes fueron totalmente precisos.

El análisis también encontró que estas herramientas a menudo añadían información de más —como afirmar que cierta noticia “reavivó debates” o “expuso tensiones” que no existían en los hechos reales— creando narrativas que no estaban sustentadas. Esto puede dar la impresión de profundidad o perspicacia, pero en realidad amplifica la desinformación.

Además, los errores no se limitaron solo a invenciones completas: en algunos casos, los chatbots distorsionaron noticias reales, por ejemplo al informar incorrectamente sobre el trato a solicitantes de asilo o al dar ganadores equivocados de eventos deportivos, y otros cometieron errores básicos en datos como estadísticas o información personal. En suma, la IA generativa sigue teniendo dificultades para distinguir entre resumir hechos y crear contexto o sentido, lo que genera respuestas que pueden ser engañosas o inexactas.

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.