Archivo de la etiqueta: Desinformación

Alfabetización mediática en la era del contenido generado por IA: ahogados en el “slop”

Frontier Learning Lab. “Drowning in Slop: Media Literacy in the Age of AI.” Substack, 2026. https://frontierlearninglab.substack.com/p/drowning-in-slop-media-literacy-in

Se plantea que nos encontramos en una nueva fase del ecosistema informativo caracterizada por la sobreproducción masiva de contenidos generados por inteligencia artificial, fenómeno que se ha popularizado bajo el término “AI slop”. Este concepto hace referencia a materiales digitales producidos en grandes cantidades, pero con escasa calidad, profundidad o fiabilidad, diseñados principalmente para captar atención y generar ingresos en la economía de los clics.

Slop IA (o «AI Slop») se refiere al contenido digital de baja calidad, repetitivo y masivo generado automáticamente por inteligencia artificial. Es considerado el equivalente al «spam» o «basura» en la era de la IA, priorizando cantidad sobre calidad para ganar clics o interacción en redes sociales

La tesis central del texto es que este exceso de contenido no solo supone un problema de desinformación, sino también de saturación cognitiva. A diferencia de etapas anteriores —en las que el reto era distinguir entre información verdadera y falsa—, ahora el desafío consiste en navegar un entorno donde el volumen de contenido irrelevante, superficial o redundante dificulta incluso encontrar información significativa. En este contexto, el problema no es solo la mentira, sino el ruido: una “contaminación informativa” que diluye el conocimiento valioso.

El artículo subraya que esta situación está impulsada por incentivos estructurales del ecosistema digital. Las plataformas premian el volumen, la velocidad y el «engagement» (compromiso), lo que favorece la proliferación de contenido automatizado. La inteligencia artificial permite producir textos, imágenes o vídeos a gran escala y bajo coste, generando una especie de industrialización del contenido que prioriza la cantidad sobre la calidad. Como resultado, el espacio digital se llena de materiales repetitivos, poco fiables o directamente inútiles.

Uno de los aspectos más relevantes es el impacto de este fenómeno en la confianza. Cuando los usuarios se enfrentan a grandes cantidades de contenido indistinguible en términos de calidad —y cada vez más difícil de verificar—, se produce una erosión progresiva de la credibilidad del entorno informativo. No se trata solo de creer información falsa, sino de dejar de confiar en cualquier información. Este proceso puede derivar en un escepticismo generalizado que debilita tanto el conocimiento compartido como el debate público.

El texto también introduce la idea de una nueva brecha digital: no tanto de acceso a la información, sino de calidad de la información consumida. Mientras algunos usuarios acceden a contenidos fiables (a menudo de pago o producidos por instituciones consolidadas), otros quedan atrapados en ecosistemas dominados por contenido automatizado, clickbait (viberanzuelo) o desinformación. Esta desigualdad informativa tiene implicaciones profundas para la educación, la participación democrática y la cohesión social.

En este escenario, la alfabetización mediática adquiere un papel central, pero debe transformarse. El artículo sostiene que las estrategias tradicionales —centradas en analizar críticamente cada unidad de información— resultan insuficientes ante el volumen actual. En su lugar, propone enfoques más adaptados al entorno digital, como el filtrado activo de fuentes, la lectura lateral (comparar múltiples fuentes antes de profundizar) y el desarrollo de hábitos de consumo informativo más selectivos.

Además, se enfatiza la necesidad de una alfabetización que no sea solo técnica, sino también cultural y ética. Los usuarios deben comprender cómo funcionan los algoritmos, cuáles son los intereses económicos detrás de la producción de contenido y cómo sus propios sesgos cognitivos influyen en lo que consumen y comparten. La alfabetización mediática se redefine así como una competencia integral que combina pensamiento crítico, conocimiento tecnológico y responsabilidad social.

Para concluir, el artículo advierte que la solución no puede recaer únicamente en los individuos. Aunque la educación en alfabetización mediática es fundamental, también se requieren cambios estructurales en las plataformas tecnológicas, como la mejora de los sistemas de recomendación, la transparencia en el uso de IA y posibles regulaciones que limiten la proliferación de contenido de baja calidad. Sin embargo, incluso con estas medidas, el texto sugiere que el reto persistirá: en un mundo donde generar contenido es prácticamente gratuito, la escasez ya no es de información, sino de atención, criterio y significado.

Expertos ante la desinformación generada por IA

Weikmann, Teresa, Ferre Wouters, Marina Tulin, Michael Hameleers, Claes H. de Vreese, Brahim Zarouali y Michaël Opgenhaffen. 2026. “On the Same Page? Experts Are Mostly, but Not Always Aligned about Disinformation in Times of Generative AI.” Harvard Kennedy School (HKS) Misinformation Review, 3 de marzo de 2026. https://doi.org/10.37016/mr-2020-196

El estudio analiza hasta qué punto los expertos que trabajan en la lucha contra la desinformación comparten una visión común sobre el impacto de la inteligencia artificial generativa en la difusión de información falsa. Para ello, los autores realizaron una encuesta en línea a 92 especialistas europeos —académicos, verificadores de hechos y periodistas— vinculados a redes como el European Digital Media Observatory, una iniciativa impulsada por la Comisión Europea para combatir la desinformación digital.

El objetivo era examinar tres aspectos fundamentales: la percepción de competencia profesional frente a la desinformación generada por IA, la evaluación de los riesgos que plantea para la democracia y la sociedad, y la atribución de responsabilidades para mitigar sus efectos. Los resultados muestran que, aunque existen diferencias en la forma de abordar el problema, los expertos comparten un amplio consenso sobre la gravedad potencial del fenómeno y sobre la necesidad de respuestas coordinadas.

En términos de competencia percibida, la mayoría de los expertos afirma sentirse relativamente preparada para afrontar los desafíos que plantea la desinformación generada mediante inteligencia artificial. Sin embargo, los verificadores de hechos destacan como el grupo más confiado en su capacidad para detectar y analizar contenidos falsos. Esta mayor seguridad se explica en gran medida por su experiencia práctica y por el uso cotidiano de herramientas de verificación y detección digital. Por el contrario, académicos y periodistas muestran niveles de confianza algo menores, aunque aún elevados. Esta diferencia sugiere que la especialización profesional y la familiaridad con tecnologías de verificación influyen significativamente en la percepción de capacidad para enfrentarse a este tipo de amenazas informativas.

En relación con los riesgos asociados a la desinformación generada por IA, el estudio revela un elevado grado de consenso entre los tres grupos analizados. Una gran mayoría de los expertos considera que el principal peligro reside en el aumento de la confusión pública sobre la autenticidad de la información: la proliferación de imágenes sintéticas, deepfakes o textos generados automáticamente puede dificultar cada vez más distinguir entre lo verdadero y lo falso. Además, muchos expertos creen que esta situación puede erosionar el debate democrático al socavar la confianza en las fuentes informativas y en la evidencia visual o textual. No obstante, el análisis también muestra una posición matizada: algunos especialistas advierten que estos temores pueden formar parte de ciclos recurrentes de alarma tecnológica que históricamente acompañan la aparición de nuevas herramientas digitales.

Las divergencias más significativas aparecen cuando se analiza quién debería asumir la responsabilidad de combatir la desinformación generada por inteligencia artificial. Aunque existe un amplio acuerdo en señalar a las grandes plataformas digitales como actores clave —debido a su papel en la distribución masiva de contenidos—, los diferentes grupos profesionales enfatizan responsabilidades distintas. Los verificadores de hechos tienden a atribuir una mayor responsabilidad a las plataformas tecnológicas y también a su propio trabajo como actores especializados en la detección de información falsa. Los académicos, en cambio, destacan con mayor frecuencia el papel de los usuarios de noticias, subrayando la importancia de la alfabetización mediática y del desarrollo de competencias críticas para evaluar la información en línea. Los periodistas, por su parte, se sitúan en una posición intermedia, aunque tienden a expresar una visión más alarmista sobre el impacto potencial de estas tecnologías.

Desde el punto de vista de las políticas públicas, el estudio subraya la importancia de considerar la diversidad de perspectivas existentes entre los expertos que asesoran a las instituciones. Las diferencias observadas no implican necesariamente desacuerdo fundamental, sino que reflejan los distintos enfoques profesionales sobre cómo abordar el problema: algunos privilegian soluciones tecnológicas y regulatorias —como la responsabilidad de las plataformas—, mientras que otros destacan la dimensión educativa y social, centrada en la alfabetización mediática. En conjunto, los resultados sugieren que la lucha contra la desinformación generada por inteligencia artificial requiere un enfoque multidimensional que combine regulación tecnológica, verificación profesional y fortalecimiento de la capacidad crítica de los ciudadanos.

La administración Trump recurre a imágenes falsas generadas por IA como estrategia política

Huamani, Kaitlyn. “Trump’s Use of AI Images Sparks Alarm and Misinformation Fears.” The Independent, 27 de enero de 2026.

Ver original

Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.

Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.

Un pasaje destacado del artículo se refiere a un caso en el que la cuenta oficial de la Casa Blanca en X (antes Twitter) publicó una fotografía digitalmente alterada de la abogada de derechos civiles Nekima Levy Armstrong en la que aparecía aparentemente llorando tras un arresto. La imagen original había sido compartida por una secretaria de Seguridad Nacional, pero la versión difundida por el canal oficial fue retocada para acentuar las lágrimas, lo que provocó críticas de que se estaba utilizando la IA para manipular la percepción pública de eventos reales. Críticos como académicos en estudios de información sostienen que etiquetar estas publicaciones como “memes” puede ser una táctica para minimizar la crítica, aunque su difusión desde canales oficiales les confiere una legitimidad peligrosa.

El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.

Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.

En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.

El desafío de la desinformación: reconstruir la confianza en el mundo de la posverdad

Evidence for Democracy. “The Misinformation Challenge: Rebuilding Trust in a Post-Truth World.Evidence for Democracy (E4D), 19 de enero de 2026.

Texto completo

La investigación aborda la creciente amenaza que representan la desinformación y la información errónea (“misinformation”) para la democracia en Canadá. Partiendo de la evaluación oficial de la Comisionada de Interferencia Extranjera, que identifica la desinformación como el mayor riesgo existencial para la democracia canadiense contemporánea, el informe profundiza en las causas, manifestaciones y efectos de este fenómeno en el contexto político y social del país.

El estudio señala que la desinformación está siendo impulsada por una combinación de factores tecnológicos y sociales: el auge de tecnologías emergentes como la inteligencia artificial, un ecosistema digital poco regulado dominado por grandes plataformas, y agentes hostiles tanto internos como externos que explotan estos espacios para difundir narrativas falsas. Estas dinámicas no solo alimentan la polarización política y socavan la confianza en instituciones públicas, sino que también tienen consecuencias concretas para comunidades vulnerables, incluidas amenazas de violencia, discriminación y exclusión social.

Además, el informe destaca que las respuestas legislativas y políticas del gobierno canadiense han sido fragmentadas y lentas frente al rápido crecimiento de estas nuevas formas de desinformación, con intentos de regulación amplia enfrentando desafíos constitucionales y resistencia política. Frente a este panorama, la investigación propone un enfoque multifacético: medidas regulatorias claras sobre contenido generado por IA, mayor transparencia algorítmica en plataformas digitales, la creación de un organismo federal de supervisión y una inversión sostenida en alfabetización mediática digital para reforzar la resiliencia ciudadana y reconstruir la confianza pública en procesos democráticos e instituciones.

En síntesis, el informe de E4D destaca que la desinformación no es un problema superficial de “noticias falsas”, sino un fenómeno profundo que erosiona la confianza pública, distorsiona el diálogo cívico y pone en riesgo la integridad de la democracia, requiriendo respuestas coordinadas que combinen regulación, educación pública y rendición de cuentas de las plataformas tecnológicas.

Los chatbots de IA aún tienen dificultades con la precisión de las noticias

Pal, Moinak. «AI chatbots still struggle with news accuracy, study finds”. Digital Trends, 13 de enero de 2026

Texto completo

Se remarca la importancia del estudio dado que una proporción creciente de usuarios usa sistemas de IA para informarse. Aunque no reemplazan completamente a los medios tradicionales, estas herramientas ya se integran en hábitos informativos, lo que eleva el riesgo de difundir desinformación, especialmente cuando las respuestas se presentan con tono seguro y sin advertencias claras sobre sus limitaciones.

El artículo de Digital Trends resume los hallazgos de un experimento de cuatro semanas en el que se evaluó la capacidad de varios chatbots de inteligencia artificial generativa para identificar, priorizar y resumir noticias reales (incluyendo enlaces directos a los artículos) sobre acontecimientos diarios en Québec. La prueba fue diseñada y publicada originalmente por The Conversation, con el objetivo de medir cuánto pueden confiar los usuarios en estos sistemas como fuentes de noticias.

Los resultados del experimento revelaron problemas significativos: algunos chatbots, como Google Gemini, acabaron inventando medios de comunicación completos e informes que nunca existieron, lo que se conoce como alucinación de IA. Por ejemplo, en uno de los casos, Gemini afirmó falsamente que hubo una huelga de conductores de autobús escolar en Québec en septiembre de 2025, cuando en realidad lo que ocurrió fue la retirada temporal de autobuses Lion Electric por un problema técnico real.

Más allá de la fabricación de noticias completas, los sistemas evaluados generaron respuestas con errores frecuentes: citaron fuentes ficticias o inactivas, proporcionaron URLs incompletas o no válidas, tergiversaron el contenido de informes legítimos e insertaron conclusiones inventadas que no estaban en las noticias originales. En general, solo alrededor del 37 % de las respuestas incluyeron una URL de fuente completa y legítima, y menos de la mitad de los resúmenes fueron totalmente precisos.

El análisis también encontró que estas herramientas a menudo añadían información de más —como afirmar que cierta noticia “reavivó debates” o “expuso tensiones” que no existían en los hechos reales— creando narrativas que no estaban sustentadas. Esto puede dar la impresión de profundidad o perspicacia, pero en realidad amplifica la desinformación.

Además, los errores no se limitaron solo a invenciones completas: en algunos casos, los chatbots distorsionaron noticias reales, por ejemplo al informar incorrectamente sobre el trato a solicitantes de asilo o al dar ganadores equivocados de eventos deportivos, y otros cometieron errores básicos en datos como estadísticas o información personal. En suma, la IA generativa sigue teniendo dificultades para distinguir entre resumir hechos y crear contexto o sentido, lo que genera respuestas que pueden ser engañosas o inexactas.

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Políticas gubernamentales de Estados Unidos han eliminado el acceso a información científica sobre el clima y la han reemplazado con desinformación

Cell, Kate. 2025. «Disinformation Undermines Our Right to ScienceUnion of Concerned Scientists Blog. https://blog.ucs.org/kate-cell/disinformation-undermines-our-right-to-science/.

El texto parte de un informe reciente de la UNESCO sobre tendencias globales en la libertad de expresión y desarrollo de medios, destacando especialmente la problemática de la desinformación climática. La autora señala que, hacia finales de 2025, determinadas políticas gubernamentales en Estados Unidos han eliminado el acceso a información científica sobre el clima, la han reemplazado con desinformación

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó su informe cuatrienal sobre Tendencias Mundiales en la Libertad de Expresión y Desarrollo de los Medios. Lo que sigue es una versión ligeramente adaptada de la contribución sobre desinformación climática.

A medida que la Tierra continúa calentándose [principalmente debido a la actividad humana] y los impactos en nuestro clima se vuelven cada vez más severos, la ciencia que busca advertirnos y orientarnos está siendo silenciada. Líderes globales poderosos y grandes corporaciones ignoran o niegan la ciencia en un intento deliberado de engañar al público y retrasar la acción urgente necesaria para proteger la habitabilidad del planeta.

En el articulo se analiza cómo la desinformación climática socava el derecho colectivo al conocimiento científico y a la toma de decisiones basada en evidencia. Según la autora, políticas gubernamentales recientes en Estados Unidos han limitado el acceso público a información científica sobre el clima, reemplazándola por narrativas sesgadas o desinformación. Esto afecta evaluaciones oficiales, como la National Climate Assessment, y disminuye la confianza en los científicos, poniendo en riesgo la acción frente al cambio climático.

Cell destaca que, aunque los efectos del cambio climático están bien documentados, existen poderosas fuerzas políticas y corporativas que niegan o manipulan la información científica para retrasar medidas urgentes. La autora señala casos recientes en los que se ha distorsionado información sobre olas de calor extremas, afectando la percepción pública y la preparación frente a eventos climáticos que ponen en riesgo la vida de millones de personas. Además, se ha limitado el acceso a recursos oficiales, obligando a investigadores y ciudadanos a buscar información en fuentes independientes o archivos previos.

La desinformación no solo tiene consecuencias sociales, sino también científicas y económicas. Los datos indican un aumento significativo de la mortalidad por calor extremo en las últimas décadas, y estudios económicos muestran pérdidas vinculadas a las emisiones de industrias específicas. A pesar de la solidez de la evidencia científica, estas campañas buscan debilitar la autoridad de los expertos y retrasar la adopción de políticas efectivas (Cell, 2025).

La autora identifica a la industria de los combustibles fósiles y a sus aliados políticos como los principales impulsores de esta desinformación. Documentos históricos muestran que estas industrias tenían conocimiento del cambio climático décadas atrás, pero eligieron estrategias de negación y manipulación para proteger sus intereses económicos. Entre las tácticas empleadas se incluyen la exageración de incertidumbres científicas, el financiamiento de estudios cuestionables, el acoso a científicos y la manipulación de funcionarios gubernamentales. Investigaciones realizadas por la Union of Concerned Scientists y otros organismos demuestran que la industria de los combustibles fósiles ha utilizado todas las tácticas del manual de desinformación:

  • Contratar a un científico que utilizaba métodos desacreditados y no revelaba la financiación de la industria.
  • Generar dudas exagerando las incertidumbres de la ciencia del cambio climático y dirigiéndose a profesores y estudiantes.
  • Acosar a los científicos climáticos.
  • Comprar credibilidad.

Además, las plataformas digitales juegan un papel crucial en la difusión de desinformación, muchas veces de forma indirecta al priorizar contenido que genera mayor interacción y publicidad. Esto amplifica la exposición de la sociedad a narrativas falsas o engañosas sobre el cambio climático, incluyendo teorías conspirativas y ataques a políticas de mitigación. La influencia de estas prácticas también afecta a instituciones científicas, limitando financiamiento, debilitando agencias regulatorias y generando presión sobre investigadores, lo que repercute en la comunicación científica y en la implementación de políticas basadas en evidencia.

Fake News: ¿Cuál es el daño? Repensando los efectos reales de la desinformación

Cunliffe-Jones, Peter. Fake News – What’s the Harm? Open Access Monograph. University of Westminster Press, 2024.

Texto completo

PDF

ePub

En Fake News – What’s the Harm?, Peter Cunliffe-Jones, periodista y fundador de Africa Check, sostiene que desde el estallido global de preocupación por la desinformación en 2016, el debate público y académico se ha apoyado en suposiciones erróneas sobre la naturaleza, el alcance y los efectos reales de las llamadas “fake news”. A partir de un análisis exhaustivo de 250 estudios de caso recopilados durante cuatro años, el autor propone una revisión profunda del concepto de “information disorder”, argumentando que la narrativa dominante suele simplificar un fenómeno complejo y multifacético.

El libro plantea cuatro ideas clave para periodistas, verificadores, responsables políticos y plataformas digitales. Primero, Cunliffe-Jones insiste en que el desorden informativo no puede reducirse únicamente a la desinformación: intervienen también la mala información, el contenido mal contextualizado, la manipulación interesada y, en ocasiones, errores no intencionados que circulan tanto en ámbitos digitales como fuera de ellos. Segundo, destaca que la desinformación no es un problema exclusivamente online; por el contrario, en muchos contextos —sobre todo en países del Sur Global— la transmisión oral, las creencias locales y la comunicación en espacios presenciales pueden causar daños equiparables o incluso mayores que los provocados por los contenidos digitales virales.

En tercer lugar, el autor subraya que la desinformación que afecta a los responsables políticos puede ser tan peligrosa como la que circula entre el público. Políticos, legisladores y autoridades pueden tomar decisiones erróneas si reciben información falsa o distorsionada, lo que genera consecuencias sociales y económicas de gran alcance. Esto rompe con la idea convencional de que el principal riesgo recae únicamente en la ciudadanía desinformada. Por último, Cunliffe-Jones propone un modelo práctico para que verificadores, investigadores y plataformas puedan distinguir entre afirmaciones falsas que tienen un potencial real de causar consecuencias perjudiciales y aquellas que, aunque incorrectas, apenas generan efectos tangibles. Este marco busca ayudar a priorizar recursos, mejorar intervenciones y equilibrar la lucha contra la desinformación con la defensa de la libertad de expresión.

La obra ha sido ampliamente elogiada por especialistas internacionales en periodismo y estudios sobre medios. Lucas Graves destaca que ofrece un nuevo marco explicativo capaz de superar los debates repetitivos sobre el “pánico moral” en torno a las fake news. Masato Kajimoto subraya que el libro avanza hacia una visión más matizada y sistemática del problema, mientras que Herman Wasserman resalta su valor para investigadores, activistas y legisladores, especialmente por su perspectiva histórica y su atención al contexto africano.

Cunliffe-Jones, con décadas de experiencia como reportero y con un papel fundamental en el desarrollo del movimiento de verificación de datos —incluida su participación en el Código de Principios de la IFCN—, ofrece aquí una reflexión sólida, crítica y constructiva. Su enfoque combina análisis riguroso, ejemplos reales y recomendaciones concretas, convirtiendo esta obra en un aporte clave para comprender y enfrentar el impacto social de la desinformación contemporánea.

En las elecciones de Georgia a Nueva York, los deepfakes hechos con IA están dirigiendo el discurso político y la percepción de los votantes.

Hurt, Davina, y Ann Skeet. “AI fuels a new wave of political lies.” Salon, 29 noviembre 2025.

Texto completo

La inteligencia artificial está siendo usada para generar “deepfakes” y contenido político engañoso que distorsiona la realidad en campañas electorales recientes en Estados Unidos. Un ejemplo citado es un anuncio en la carrera al Senado por Georgia en el que la campaña del candidato republicano Mike Collins difundió un vídeo en el que aparecía el senador demócrata Jon Ossoff supuestamente diciendo que no le importaban los granjeros porque “solo había visto una granja en Instagram” — una frase que Ossoff nunca pronunció.

El texto señala que, aunque la sátira política siempre ha existido (por ejemplo en caricaturas), la IA borra la frontera entre ficción y realidad de una forma sin precedentes: las falsedades generadas por IA pueden parecer auténticas, con imagen y voz convincente, lo que las hace aún más peligrosas cuando son usadas por los propios actores políticos.

Además, el artículo advierte que este tipo de contenido —cuando se difunde desde cuentas oficiales o con aspecto institucional— degrada el debate democrático, al transformar opiniones o propaganda en “evidencia visual” aparentemente real. Bajo esa lógica, la IA no solo ayuda a mentir, sino a construir una “realidad alternativa” destinada a manipular percepciones colectivas, socavando la confianza pública en los procesos políticos.

Finalmente, los autores exhortan a la necesidad de marcos regulatorios y éticos claros que exijan transparencia en el uso de IA en campañas políticas, de modo que la manipulación mediática deje de ser una estrategia con potencial de dañar la democracia

Guía para abordar los deepfakess en las escuelas : kit de herramientas

Future of Privacy Forum. A School Administrator’s Guide to Addressing Deepfakes: Problem of Practice Toolkit. Issue Brief: Education. 2025

Texto completo

Este kit de herramientas, publicado por el Future of Privacy Forum, está diseñado para guiar a los administradores escolares en la identificación, respuesta y mitigación de los daños potenciales que representan los deepfakes.

Los deepfakes son medios sintéticos realistas (imágenes, videos, audio o texto) creados o manipulados con inteligencia artificial (IA) que pueden hacer que las personas parezcan decir o hacer cosas que no hicieron. El documento establece que la IA generativa presenta desafíos éticos y de seguridad significativos para las escuelas, ya que se puede utilizar para difundir desinformación, perpetrar fraudes y acosar a estudiantes y personal, socavando la confianza. Además, se señala que los deepfakes impactan y dañan de manera desproporcionada a ciertos grupos demográficos, lo que puede resultar en un aumento del acoso y la hipersexualización.

El kit de herramientas recomienda que los distritos realicen una Autoevaluación de Preparación para identificar su nivel actual de preparación. Para ello, deben revisar y actualizar sus políticas existentes (como las de bullying, acoso, Título IX y uso de tecnología) para abordar explícitamente los deepfakes y el abuso sexual basado en imágenes. Es crucial que los líderes escolares revisen las leyes estatales y locales relativas a la posesión y distribución de Imágenes Íntimas No Consensuadas (NCII) y Material de Abuso Sexual Infantil (CSAM) para asegurar el cumplimiento. También se enfatiza la necesidad de contar con políticas que reconozcan que la detección confiable de deepfakes es difícil debido a las limitaciones de las tecnologías de detección.

Se anima a los distritos a desarrollar un programa de capacitación para educar a estudiantes, padres y personal sobre las implicaciones de privacidad, los impactos socioemocionales, el riesgo desproporcionado para ciertos grupos y las posibles consecuencias del mal uso de los deepfakes. Además, el kit incluye Escenarios de práctica (como un incidente de deepfake de desnudez de un estudiante y un incidente generado por un empleado) para facilitar discusiones críticas.

La guía concluye con la importancia de establecer un equipo de respuesta a incidentes claramente definido y protocolos de comunicación para garantizar la privacidad y la integridad de la investigación, y para utilizar métodos de justicia restaurativa para reparar el daño causado al individuo objetivo y a la comunidad en general







.