Archivo de la etiqueta: Desinformación

Rage bait “contenido que provoca indignación” palabra del año para Oxford 2025

Oxford ha elegido rage bait como la Palabra del Año 2025. El término ha adquirido relevancia en un contexto marcado por disturbios sociales, debates sobre la regulación del contenido en línea y una creciente preocupación por el bienestar digital.

Según los expertos, su uso refleja un cambio más profundo en la forma en que hablamos sobre la atención —cómo se capta y cómo se ofrece— y sobre el compromiso y la ética en los entornos digitales.

Los datos lingüísticos muestran que el uso de rage bait se ha triplicado en los últimos doce meses. Aunque está formado por dos palabras, Oxford aclara que no se trata de una trampa lingüística, ya que la Palabra del Año puede ser tanto un término simple como una expresión considerada una unidad de significado.

Rage bait combina rage (rabia o estallido violento de ira) y bait (cebo o bocado atractivo). Ambas palabras existen desde el inglés medio. Aunque guarda cierta relación con clickbait, el concepto de rage bait se centra específicamente en provocar enfado, discordia y polarización.

La aparición de rage bait como término independiente demuestra la flexibilidad del inglés para unir palabras ya establecidas y crear expresiones nuevas que capturan fenómenos actuales. En este caso, el término refleja un rasgo característico del mundo digital contemporáneo y de las dinámicas que moldean nuestra comunicación en línea.

¡Ten cuidado! ¡No te dejes engañar! Proyecto de alfabetización informacional para combatir la desinformación en la educación

Lopes, Carlos, Maria Luz Antunes, y Tatiana Sanches. 2025. Be Careful! Não te deixes enganar! Projeto de literacia no combate à desinformação no ensino superior. Lisboa: Edições ISPA. http://hdl.handle.net/10400.12/13586

El proyecto BE CAREFUL! tiene como finalidad fortalecer la alfabetización informacional en el ámbito de la educación superior para enfrentar el fenómeno creciente de la desinformación. Parte del reconocimiento de que los estudiantes interactúan cada día con sistemas de información y algoritmos complejos, que pueden reforzar la propagación de contenidos engañosos si no se manejan con pensamiento crítico. El documento subraya la responsabilidad colectiva de comprender cómo se produce, circula y utiliza la información, especialmente en entornos académicos.

La propuesta se sustenta en el Marco de la ACRL para la Alfabetización Informacional en la Educación Superior, adaptado al contexto portugués. El proyecto desarrolla seis grandes áreas de competencia: evaluar la autoridad y credibilidad de las fuentes, comprender la creación de información como un proceso, reconocer el valor de la información, investigar desde el cuestionamiento, establecer un diálogo académico ético y sostenible y realizar búsquedas estratégicas en entornos cada vez más complejos. Cada apartado combina definiciones, retos asociados al uso de la Inteligencia Artificial y las habilidades que los estudiantes e investigadores deben adquirir.

Uno de los ejes principales del proyecto es la reflexión sobre la Inteligencia Artificial, que transforma la forma en que se produce y se consume la información. El documento señala riesgos como la difusión de contenidos sesgados, la generación de textos y referencias falsos, la confusión entre autoría humana y artificial y la posibilidad de reproducir prejuicios presentes en los datos de entrenamiento. A la vez, promueve un uso ético, transparente y crítico de estas herramientas, invitando a explicar cuándo han sido utilizadas y a verificar siempre la fiabilidad de los resultados generados por la IA.

El proyecto propone además diversas estrategias educativas: lectura lateral, uso de herramientas de verificación (CRAAP, RADAR, PILS), análisis comparado de fuentes, debates guiados sobre la IA, construcción de preguntas de investigación y prácticas de citación y referencia que respeten la integridad académica. Se destaca el papel esencial de las bibliotecas y de sus profesionales como agentes formadores en estas competencias, promoviendo cursos, talleres y acciones colaborativas.

En conjunto, el proyecto BE CAREFUL! pretende reforzar la integridad académica, el pensamiento crítico y las prácticas de Ciencia Abierta. Su impacto se orienta a crear comunidades universitarias más preparadas para navegar en entornos informativos complejos, evaluar la fiabilidad del conocimiento y tomar decisiones fundamentadas, contribuyendo así a reducir la vulnerabilidad frente a la desinformación.

Los desafíos de las bibliotecas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social con Sara Martínez Cardama. Planeta biblioteca 2025/11/14

Los desafíos de las bibliotecas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social con Sara Martínez Cardama

Planeta biblioteca 2025/11/14

ESCUCHAR

Descargar

La entrevista con la profesora e investigadora Sara Martínez Cardama explora los desafíos más urgentes que enfrentan las bibliotecas públicas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social derivado de la vida digital. Martínez Cardama analiza cómo estas problemáticas impactan en el trabajo cotidiano de los profesionales de la información y subraya la necesidad de reforzar la esfera pública a través de espacios seguros, críticos y participativos.

Destaca la importancia de que las bibliotecas desarrollen programas sólidos de alfabetización mediática e informacional, priorizando competencias como la evaluación crítica de fuentes, la verificación de datos y la gestión ética de la información. También ofrece su visión sobre la “postneutralidad” en bibliotecas, defendiendo un rol más activo en la defensa de derechos democráticos y en la lucha contra las noticias falsas, donde las herramientas de fact-checking aportan, pero no sustituyen, el pensamiento crítico.

Además, pone en valor la investigación cualitativa para comprender mejor los fenómenos sociales, así como los proyectos intergeneracionales que fortalecen la cohesión comunitaria. Aborda los dilemas éticos del advocacy bibliotecario y reflexiona sobre la evolución de las bibliotecas en países donde se han cerrado centros juveniles y bibliotecas públicas, como Reino Unido.

Finalmente, plantea los nuevos valores que las bibliotecas deben asumir en la era digital: compromiso social, responsabilidad informativa, apertura, cuidado comunitario y un papel activo en la reconstrucción de la esfera pública.

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos, independientemente del idioma o el territorio

European Broadcasting Union & British Broadcasting Corporation. (2025, octubre 16). News Integrity in AI Assistants. International study on AI assistants and news content

Texto completo

Toolkit

Se analiza el desempeño de los asistentes de inteligencia artificial al responder consultas sobre noticias en 14 idiomas y 18 países. Se evaluaron más de 3 000 respuestas generadas por plataformas como ChatGPT, Microsoft Copilot, Google Gemini y Perplexity. Periodistas y expertos examinaron su exactitud, atribución de fuentes, diferenciación entre hechos y opiniones, y la calidad del contexto proporcionado.

Los resultados revelan un panorama preocupante: aproximadamente el 45 % de las respuestas contenían errores graves y el 81 % presentaba algún tipo de deficiencia. Los fallos más comunes fueron la atribución falsa o inexistente de fuentes (en torno al 31 %) y la inexactitud factual, incluyendo información obsoleta o inventada (cerca del 20 %).

El informe indica que el asistente de Google, Gemini, obtuvo el rendimiento más bajo, con problemas importantes en hasta el 72-76 % de sus respuestas. Además, se constató que estas deficiencias no dependen del idioma ni del país, sino que se reproducen de forma sistémica y generalizada en distintos entornos culturales y lingüísticos.

Los investigadores alertan de los riesgos que implica que los asistentes de IA se conviertan en una fuente de información de noticias para el público, ya que algunos usuarios ya los usan como sustituto de los motores de búsqueda tradicionales. Esta tendencia podría afectar la confianza pública, la calidad informativa y la participación democrática.

Finalmente se dan una serie de recomendaciones dirigidas a desarrolladores, medios y organismos reguladores: mejorar la transparencia en la citación de fuentes, distinguir claramente entre hechos y opiniones, actualizar los contenidos con mayor rapidez y establecer sistemas de monitoreo continuo sobre la calidad informativa de las respuestas generadas por la inteligencia artificial.

La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.

De que manera los bibliotecarios escolares en Escocia abordan los problemas de la desinformación y la información errónea

Chartered Institute of Library and Information Professionals in Scotland (CILIPS). Tackling Misinformation and Disinformation for Scottish School Librarians Project Report. Liderado por Bruce Ryan, Edinburgh Napier University. CILIPS Research Fund, 2025

Texto completo

Los bibliotecarios escolares en Escocia ya realizan un esfuerzo significativo para abordar la desinformación, su capacidad para hacerlo de manera eficaz se ve seriamente limitada por carencias estructurales y de reconocimiento institucional. El informe insiste en que, para que puedan desempeñar plenamente su papel, es imprescindible darles apoyo sostenido, recursos adecuados, oportunidades de formación y un marco de colaboración estable con el resto de la comunidad educativa.

El estudio, realizado durante la primera mitad de 2025, examina las prácticas actuales, las barreras que encuentran los profesionales y las recomendaciones que podrían mejorar su labor en un contexto donde no existe una legislación específica que regule las bibliotecas escolares. Esta ausencia de normativa hace que la relevancia del bibliotecario dependa en gran medida de las decisiones de cada centro educativo, del apoyo del profesorado y del liderazgo institucional.

En cuanto a las prácticas que ya se llevan a cabo, los bibliotecarios intervienen tanto de forma directa, respondiendo a consultas puntuales sobre desinformación, como indirectamente, mediante clases, charlas y actividades de alfabetización informacional. Sin embargo, el informe señala que las peticiones explícitas de ayuda sobre desinformación no son frecuentes, y cuando aparecen provienen sobre todo de los estudiantes. Este hecho refuerza la idea de que, aunque existe un problema real de exposición a información falsa, todavía falta consolidar un marco educativo que reconozca y potencie el papel de los bibliotecarios como agentes clave en la formación crítica de los alumnos.

Las barreras identificadas se relacionan principalmente con la falta de tiempo, presupuesto y recursos, factores que impiden llevar a cabo de forma sistemática programas de educación en desinformación. A ello se suma la insuficiencia de apoyo por parte del liderazgo escolar y de los profesores, lo cual limita la integración de estas prácticas en el currículo oficial. En muchos casos, además, las propias instalaciones físicas de las bibliotecas escolares no son adecuadas para desempeñar las funciones de enseñanza, consulta y reflexión necesarias en este ámbito.

El informe destaca también el deseo de los bibliotecarios de recibir formación especializada que les permita actualizar sus competencias frente a la desinformación y la información errónea. Esta formación debería estar disponible tanto para bibliotecarios como para asistentes de biblioteca, y sería más efectiva si estuviera integrada dentro de los programas de desarrollo profesional docente. Asimismo, se plantea la necesidad de fortalecer la colaboración entre bibliotecarios y profesores, desde la etapa de formación inicial de estos últimos, de manera que la educación en torno a la desinformación no dependa de iniciativas aisladas sino que forme parte de la enseñanza sistemática.

Las recomendaciones apuntan a que se reconozca oficialmente que los estudiantes enfrentan problemas de desinformación y que los bibliotecarios poseen competencias valiosas para afrontarlos. Para ello es necesario otorgarles tiempo, presupuesto y un lugar claro en el marco educativo. Además, se sugiere mejorar las oportunidades de colaboración con los docentes, integrando a los bibliotecarios en las revisiones curriculares, y ampliar la oferta de formación continua en alfabetización mediática e informacional. También se subraya la importancia de mejorar las instalaciones físicas de las bibliotecas, con el fin de que puedan cumplir su función pedagógica y social de manera más efectiva.

¿Nuevas fuentes de inexactitud? Un marco conceptual para estudiar las alucinaciones de la IA.

Shao, Anqi. “New Sources of Inaccuracy? A Conceptual Framework for Studying AI Hallucinations.” Misinformation Review, Harvard Kennedy School, 27 de agosto de 2025. Disponible en Misinformation Review https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/

Se enfatiza la necesidad de ampliar las teorías tradicionales de desinformación para incluir estas formas emergentes de inexactitud generada por IA. Propone adoptar una perspectiva que reconozca tanto los límites como las dinámicas propias de los sistemas probabilísticos y no humanos en la producción y transmisión de conocimiento.

Las “alucinaciones” generadas por sistemas de IA representan una categoría de inexactitud significativamente distinta de la desinformación humana, principalmente porque surgen sin ninguna intención deliberada. A través de ejemplos concretos —como el resumen satírico erróneo de Google que presentó una broma del Día de los Inocentes como hecho real—, la autora muestra cómo estas alucinaciones no son simples errores técnicos aislados, sino fenómenos de comunicación con implicaciones sociales reales.

Esto significa que las inexactitudes generadas por la IA no son producto de una intención humana consciente, sino de procesos probabilísticos automatizados y profundamente integrados en los ecosistemas institucionales de producción de información.

Shao destaca tres dimensiones clave en las que difiere una alucinación de IA respecto a la desinformación tradicional:

  1. Producción (Supply): Las respuestas falsas plausibles derivan de los procesos internos de los modelos, no de una fabricación intencional.
  2. Percepción (Demand): Los usuarios tienden a percibir estas respuestas como confiables justamente por su plausibilidad y confianza de presentación.
  3. Respuesta institucional: Las instituciones aún carecen de marcos adecuados para reconocer y responder a estos errores automáticos como formar parte del ecosistema comunicativo

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

¿Cuál es el coste real de la desinformación para las empresas?

Serrano, Jesús. “What’s the real cost of disinformation for corporations?World Economic Forum, 14 de julio de 2025. https://www.weforum.org/stories/2025/07/financial-impact-of-disinformation-on-corporations/

La desinformación, que incluye noticias falsas, cuentas hackeadas y deepfakes, ha provocado pérdidas millonarias en los mercados y decisiones financieras erróneas. Estudios recientes estiman que los costos anuales de la desinformación en los mercados financieros ascienden a alrededor de 78 mil millones de dólares, incluyendo pérdidas bursátiles y decisiones financieras erróneas.

Tecnologías de inteligencia artificial como bots y deepfakes han acelerado la difusión de información falsa, haciéndola más convincente y difícil de detectar. Ejemplos históricos y recientes, desde el “Great Moon Hoax” de 1835 hasta el hackeo de la cuenta de Twitter de The Associated Press en 2013, muestran cómo la manipulación de la percepción pública puede generar un impacto económico y reputacional significativo.

Además, las reseñas falsas y las valoraciones manipuladas afectan la confianza de los consumidores y generan pérdidas millonarias para empresas de todos los tamaños. La reputación se ha convertido en un activo estratégico, y las narrativas falsas pueden erosionarla rápidamente, afectando la credibilidad corporativa y el valor de mercado a largo plazo.

El uso de inteligencia artificial amplifica estos riesgos, ya que los contenidos falsos generan más interacción en redes sociales y son más difíciles de contrarrestar. Estudios de MIT y Edelman destacan que las empresas no están suficientemente preparadas para anticipar y gestionar estos ataques, a pesar de que la confianza es esencial para la sostenibilidad y el crecimiento empresarial. La educación digital, la detección temprana de desinformación y la comunicación de crisis son herramientas clave para proteger la reputación corporativa.

La colaboración público-privada y la regulación, como el Código de Prácticas sobre Desinformación de la UE, se presentan como mecanismos necesarios para mitigar la propagación de contenidos falsos sin comprometer la libertad de expresión. En un entorno donde la confianza se considera un activo estratégico, las empresas deben invertir en vigilancia, formación y estrategias preventivas, ya que los costos financieros y reputacionales de la inacción frente a la desinformación son demasiado altos.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.