Archivo de la etiqueta: Noticias falsas

Un informe sobre Salud presentado por el Secretario de Salud Robert F. Kennedy Jr incluyó estudios inexistentes y referencias científicas erróneas.

Harmon, Stephie. 2025. “RFK Jr.’s ‘Make America Healthy Again’ Report Cites Fake Studies.” Gizmodo, May 30, 2025. https://gizmodo.com/rfk-jr-s-make-america-healthy-again-report-cites-fake-studies-2000608850

El informe «Make America Healthy Again» (MAHA), presentado por Robert F. Kennedy Jr. como Secretario de Salud y Servicios Humanos de EE. UU., ha generado una fuerte polémica debido a la inclusión de estudios inexistentes y referencias científicas erróneas. Aunque el documento afirma estar respaldado por más de 500 fuentes, investigaciones periodísticas han revelado que al menos siete de estas citas corresponden a estudios que no existen o han sido malinterpretados

Hace unos días, un estudio del Tow Center for Digital Journalism, publicado por la Columbia Journalism Review, reveló que los motores de búsqueda impulsados por inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos. Esta alarmante tendencia adquiere aún más relevancia tras la reciente noticia sobre el informe «Make America Healthy Again» promovido por RFK Jr., el cual se apoya en estudios falsos y mal citados, reflejando los peligros reales de la desinformación amplificada por el uso irresponsable de la IA en la producción y difusión de contenidos.

Por ejemplo, se menciona un estudio atribuido a Robert L. Findling sobre la publicidad de medicamentos psicotrópicos en jóvenes, el cual no se encuentra en ninguna base de datos académica, y el propio Findling ha negado haberlo escrito. Otro caso es una supuesta investigación de 2017 sobre la prescripción excesiva de corticosteroides en niños con asma, que tampoco existe. Además, se han detectado errores en citas de estudios reales, como atribuir a una investigación sobre adultos conclusiones aplicables a niños, o afirmar que un estudio incluía psicoterapia cuando no era así

Estos hallazgos han suscitado preocupaciones sobre la integridad científica del informe y han llevado a especulaciones sobre el posible uso de inteligencia artificial generativa en su elaboración. Aunque la Casa Blanca ha calificado los errores como «problemas de formato» y ha prometido actualizaciones, expertos en salud pública y académicos han expresado su alarma por la falta de rigor y transparencia en un documento que podría influir en políticas de salud pública.

El informe también ha sido criticado por omitir causas principales de mortalidad infantil, como accidentes automovilísticos y violencia con armas de fuego, y por promover teorías desacreditadas sobre vacunas y fluoración del agua. Estas controversias ponen en entredicho la credibilidad del informe y resaltan la necesidad de una evaluación rigurosa y basada en evidencia científica en la formulación de políticas de salud.

Base de datos de alucinaciones de la Inteligencia Artificial generativa

AI Hallucination Cases

https://www.damiencharlotin.com/hallucinations/

Esta base de datos recopila decisiones judiciales relacionadas con casos en los que una inteligencia artificial generativa produjo contenido alucinado —es decir, contenido falso o erróneo generado por el sistema. El ejemplo más común son las citas legales falsas (fake citations), aunque también se incluyen otros tipos de errores, como argumentos jurídicos inventados o distorsionados.

Es importante destacar que esta base no abarca todos los casos en que se han utilizado citas falsas o IA en procedimientos judiciales, sino que se centra únicamente en los casos en los que ha habido una decisión legal vinculada a la utilización de contenido alucinado por IA.

El fenómeno de las alucinaciones en IA se refiere a la generación de información falsa pero con apariencia convincente. En el ámbito jurídico, esto representa un riesgo serio para la integridad del proceso judicial, ya que puede conducir a decisiones basadas en datos erróneos o incluso a la desinformación intencionada. Por ello, esta base de datos funciona también como una advertencia práctica sobre los límites actuales de la tecnología y la necesidad de usarla con criterio, supervisión humana y sentido ético.

Hasta el momento, la base de datos ha identificado 121 casos, y sigue en expansión conforme surgen nuevos ejemplos. Su objetivo es ofrecer un registro sistemático y riguroso que permita entender el impacto real del uso de estas herramientas tecnológicas en entornos legales, donde la precisión y la veracidad son esenciales. Es un recurso de gran valor tanto para juristas como para investigadores, medios de comunicación y responsables de políticas públicas.

El uso de contenido generado por IA en documentos judiciales ha provocado en algunos casos consecuencias graves, como sanciones disciplinarias a abogados que incluyeron citas falsas producidas por sistemas como ChatGPT sin verificarlas. Estos incidentes han sido objeto de cobertura mediática y han despertado un amplio debate sobre la responsabilidad profesional y la fiabilidad de las herramientas de IA en contextos de alta exigencia ética.

Un caso destacado es el de Mata v. Avianca, Inc., donde los abogados del demandante utilizaron ChatGPT para generar una moción legal que contenía múltiples casos jurídicos ficticios. El tribunal descubrió que las citas eran inexistentes y sancionó a los abogados con una multa de 5.000$, subrayando la responsabilidad profesional de verificar la exactitud de las referencias legales, independientemente de las herramientas utilizadas.

Otro ejemplo relevante es el caso en Israel de Mahala Association v. Clalit Health Services, donde se presentaron múltiples citas falsas generadas por una herramienta de IA llamada Takdin.AI. El tribunal no solo desestimó la petición de certificación de acción colectiva, sino que también impuso sanciones monetarias y determinó que el abogado no era apto para actuar en el caso.

En definitiva, este archivo documental se ha convertido en un instrumento de seguimiento y análisis de un fenómeno emergente que afecta a la práctica del derecho y que requiere atención tanto desde el ámbito jurídico como desde la innovación tecnológica y la regulación.

Algunos periódicos importantes de Estados Unidos publican una lista de lecturas recomendadas para el verano con autores y obras ficticias generadas por IA

Blair, Elizabeth. “How an AI-Generated Summer Reading List Got Published in Major Newspapers.NPR, May 20, 2025. https://www.npr.org/2025/05/20/nx-s1-5405022/fake-summer-reading-list-ai

El 20 de mayo de 2025, NPR informó que varios periódicos estadounidenses, incluidos el Chicago Sun-Times y una edición del Philadelphia Inquirer, publicaron una lista de lectura de verano que contenía títulos de libros ficticios atribuidos a autores reales. Esta lista fue generada parcialmente por inteligencia artificial y distribuida por King Features, una unidad de Hearst Newspapers.

En un episodio reciente que pone de relieve los crecientes retos en la era de la inteligencia artificial, varios medios estadounidenses de renombre publicaron una lista de libros recomendados para el verano, entre los que se incluían títulos completamente inventados, pero atribuidos a autores reales y prestigiosos. La lista fue elaborada por King Features, una filial de Hearst Newspapers, y distribuida a sus periódicos asociados como parte de un paquete editorial estacional.

La lista se presentó como una selección de “libros esenciales para el verano”, pero contenía falsedades sorprendentes: títulos ficticios atribuidos a autores reales como Isabel Allende, Percival Everett y Cormac McCarthy, entre otros. Por ejemplo, uno de los libros inventados fue Tidewater Dreams de Allende, que no existe. Solo 5 de los 15 libros recomendados eran auténticos.

El contenido fue redactado por Marco Buscaglia, un colaborador independiente habitual. Buscaglia admitió haber utilizado una herramienta de inteligencia artificial (cuya identidad no se especifica en el artículo) para generar sugerencias literarias, y reconoció que no verificó si los títulos realmente existían. Esta falta de comprobación permitió que los títulos ficticios pasaran desapercibidos hasta que varios lectores y profesionales del mundo editorial empezaron a señalar errores tras la publicación.

Tanto el Chicago Sun-Times como el Philadelphia Inquirer, dos de los periódicos que publicaron la lista, han respondido asegurando que no fueron responsables directos del contenido, ya que este provenía del servicio editorial de King Features. Ambos medios han revisado internamente lo sucedido y se han comprometido a implementar controles más estrictos para evitar la publicación de información generada por IA sin revisión humana.

Este incidente ha generado un intenso debate sobre la ética y la práctica del uso de herramientas de IA en el periodismo. Aunque su uso puede ser eficiente, especialmente en tareas rutinarias o de apoyo, esta situación demuestra los peligros de confiar en la IA para generar contenido sin validación. La precisión, la reputación de los medios y la confianza del público están en juego.

También plantea interrogantes sobre la relación entre las agencias de contenido sindicadas y los periódicos locales. Al depender de servicios externos para llenar espacio en sus páginas —especialmente en secciones como cultura o estilo de vida— los medios corren el riesgo de ceder parte del control editorial y de comprometer su credibilidad si no ejercen la debida supervisión.

Los medios implicados han iniciado una reflexión sobre cómo deben gestionarse las colaboraciones con creadores de contenido y cómo utilizar la inteligencia artificial sin poner en riesgo la exactitud y la responsabilidad informativa. El caso también es un ejemplo de cómo el público, cada vez más atento y crítico, puede detectar errores que escapan a los filtros editoriales.

Este caso evidencia los límites del uso de la IA generativa en periodismo, sobre todo cuando no se combina con una revisión editorial rigurosa. La confianza en los medios, ya erosionada por otros factores en los últimos años, se ve aún más amenazada por errores de este tipo, que pueden parecer triviales, pero que en el fondo comprometen principios fundamentales como la veracidad y la responsabilidad.

Análisis de las alucinaciones en los principales modelos de Inteligencia Artificial

Berenstein, David. “Good Answers Are Not Necessarily Factual Answers: An Analysis of Hallucination in Leading LLMs.” Hugging Face. Accedido el 12 de mayo de 2025. https://huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-leading-llms

Se analiza los errores de alucinación en los principales modelos de lenguaje mediante el uso del benchmark Phare (Potential Harm Assessment & Risk Evaluation). Este estudio pone el foco en un problema central: los modelos pueden ofrecer respuestas que suenan convincentes pero que contienen información falsa o inventada, lo que representa un riesgo real en su uso cotidiano.

Uno de los hallazgos principales del análisis es que más de un tercio de los errores detectados en sistemas de IA desplegados públicamente se deben a alucinaciones. Estas no solo son comunes, sino que además suelen ser difíciles de detectar, porque los modelos presentan esas respuestas con un alto grado de confianza. Esto puede confundir fácilmente a los usuarios, especialmente si no tienen el conocimiento necesario para evaluar la veracidad de lo que están leyendo.

La evaluación se llevó a cabo con el marco Phare, que analiza el rendimiento de los modelos a través de varias etapas: recolección de contenido auténtico y representativo, creación de ejemplos de prueba, revisión humana para asegurar la calidad y, finalmente, evaluación del comportamiento de los modelos. Dentro del módulo de alucinación, se valoraron cuatro tareas clave: la precisión factual, la capacidad para resistirse a la desinformación, la habilidad para desmentir bulos o teorías conspirativas, y la fiabilidad en el uso de herramientas externas como bases de datos o APIs.

Un aspecto especialmente relevante que destaca el estudio es la desconexión entre popularidad y fiabilidad. Es decir, que los modelos más valorados por los usuarios en términos de experiencia de uso no siempre son los más precisos en cuanto a la información que generan. Esto sugiere que una buena interacción no garantiza una buena calidad factual, y que es necesario avanzar en métricas que evalúen la veracidad con más rigor.

En conclusión el estudio muestra que las alucinaciones son un problema estructural de los modelos actuales y que su impacto es especialmente delicado en contextos donde la precisión es crítica, como la medicina, el derecho o la educación. Por ello, el artículo concluye que identificar y reducir estos errores debe ser una prioridad para mejorar la seguridad y fiabilidad de los modelos de lenguaje de gran escala.

Información, comunicación y democracia, el papel de las bibliotecas.

Morán Guzmán, Ana Gricelda, y Sergio López Ruelas, eds. 2024. Información, comunicación y democracia, el papel de las bibliotecas. Guadalajara: Universidad de Guadalajara.

Texto completo

En las últimas dos décadas, la democracia global se ha debilitado significativamente, como refleja el Democracy Index 2022. Conceptos como la posverdad y las noticias falsas proliferan, afectando la percepción y participación ciudadana, especialmente a través de redes sociales, principal fuente informativa para muchos jóvenes. Este entorno favorece la desinformación y la polarización, deteriorando la calidad democrática. Ante este panorama, las bibliotecas juegan un papel crucial al ofrecer acceso a información confiable y formar a los usuarios en competencias informacionales, además de constituirse como espacios seguros, inclusivos y accesibles para toda la población.

La inteligencia artificial es cada vez más potente, pero sus alucinaciones son cada vez peores

Miller, Claire Cain. «A.I. Is Getting More Powerful, but Its HallucinationsThe New York Times, May 5, 2025. https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html

Una nueva oleada de sistemas de «razonamiento» de empresas como OpenAI está produciendo información incorrecta con mayor frecuencia. Ni siquiera las empresas saben por qué.

Se aborda el fenómeno de las «alucinaciones» en la inteligencia artificial, un problema crítico que afecta a modelos de lenguaje como ChatGPT y Bard de Google. Estas alucinaciones se refieren a respuestas generadas por IA que, aunque suenan plausibles, son incorrectas o completamente inventadas. Por ejemplo, en una prueba llamada PersonQA, el sistema más potente de OpenAI, denominado o3, presentó una tasa de alucinaciones del 33%, más del doble que su predecesor o1. El modelo o4-mini mostró una tasa aún mayor, alcanzando el 48%. En otra prueba, SimpleQA, las tasas de alucinaciones fueron del 51% para o3 y del 79% para o4-mini

Las alucinaciones son una consecuencia inherente a la manera en que los modelos de lenguaje están diseñados. Estos sistemas funcionan mediante el análisis de grandes volúmenes de datos y el aprendizaje de patrones estadísticos en el lenguaje. Para generar respuestas, no realizan una búsqueda de información en tiempo real ni verifican la precisión de los datos con fuentes externas, sino que se basan en los datos con los que fueron entrenados. Esta falta de verificación en tiempo real, unida a la complejidad de los procesos de generación de texto, puede llevar a que el modelo produzca información que, aunque coherente en su estructura, sea incorrecta o completamente ficticia.

Además, los modelos de lenguaje son inherentemente probabilísticos, lo que significa que seleccionan la «respuesta más probable» en función del contexto, pero no siempre tienen en cuenta si esa respuesta es veraz. En este sentido, las alucinaciones ocurren cuando el modelo «adivina» una respuesta que, aunque sea lingüísticamente plausible, carece de sustancia factual. Por ejemplo, en lugar de verificar hechos o proporcionar citas precisas, el modelo puede generar información coherente pero errónea debido a que los patrones previos en los datos entrenados sugieren que esa información tiene sentido dentro del contexto dado.

El fenómeno de las alucinaciones plantea una amenaza directa a la confiabilidad y utilidad de los sistemas de IA. A medida que estas tecnologías se adoptan en una variedad de sectores, desde el sector educativo hasta la atención médica y el asesoramiento empresarial, los usuarios se encuentran cada vez más en una posición vulnerable al confiar en respuestas generadas por máquinas que podrían ser incorrectas. En contextos como la medicina o el derecho, donde la precisión es crucial, las alucinaciones pueden tener consecuencias graves, desde diagnósticos incorrectos hasta consejos legales erróneos.

La preocupación por este problema es tal que algunos expertos temen que la confianza pública en las IA podría disminuir si las alucinaciones continúan sin control. La percepción de que los sistemas de IA no son completamente fiables podría desalentar a los usuarios de adoptar estas herramientas en áreas críticas. A su vez, esto podría ralentizar el progreso hacia la integración de la IA en sectores importantes de la sociedad, afectando su potencial para revolucionar industrias enteras.

Empresas como OpenAI y Google son conscientes de las limitaciones de sus modelos y están tomando medidas activas para mitigar el problema de las alucinaciones. Una de las estrategias es mejorar los algoritmos de verificación de hechos. Estos algoritmos buscan integrar fuentes de información más confiables y permitir que los modelos contrasten las respuestas generadas con bases de datos verificadas antes de ofrecer una respuesta final. Sin embargo, este proceso presenta desafíos técnicos significativos, ya que requiere una infraestructura adicional que permita a la IA verificar en tiempo real la información antes de presentarla al usuario.

Otra estrategia que se está explorando es la integración de sistemas de retroalimentación más robustos, donde los usuarios pueden señalar respuestas incorrectas y corregir la información. De esta manera, los modelos de IA no solo aprenden de los datos iniciales con los que fueron entrenados, sino también de las interacciones en el mundo real, lo que podría ayudar a disminuir la frecuencia de las alucinaciones con el tiempo. Aunque estas iniciativas son prometedoras, erradicar completamente las alucinaciones sigue siendo un desafío técnico y ético considerable.

A medida que la IA se utiliza en más ámbitos, se hace cada vez más evidente la necesidad de un enfoque más riguroso y transparente en su desarrollo. Es fundamental que los usuarios comprendan las limitaciones actuales de estas tecnologías y reconozcan que las respuestas generadas por IA no siempre son correctas. Esto implica educar al público sobre cómo funcionan estos modelos y la importancia de verificaciones adicionales por parte de los usuarios.

Además, las empresas deben adoptar una postura más abierta en cuanto a la metodología de entrenamiento de sus sistemas y las limitaciones inherentes a estos modelos. La transparencia en cómo se entrenan y actualizan los modelos, y el acceso a las fuentes utilizadas en su entrenamiento, puede ayudar a construir una relación de confianza con los usuarios y disminuir las preocupaciones sobre la exactitud de la información.

En resumen, las alucinaciones en la inteligencia artificial siguen siendo un obstáculo importante para su adopción generalizada y confianza pública. Aunque las empresas tecnológicas están haciendo esfuerzos significativos para mitigar este problema, es evidente que se requiere un enfoque multidisciplinario y más transparencia para abordar de manera efectiva este desafío. A medida que los modelos de IA continúan evolucionando, se espera que las soluciones a las alucinaciones también progresen, lo que permitirá un uso más confiable y preciso de estas tecnologías en una variedad de sectores.

Cómo las bibliotecas pueden apoyar la alfabetización mediática

El artículo subraya la importancia crítica de la alfabetización mediática en la sociedad actual. Partiendo de la premisa de que las habilidades para evaluar la información —como aplicar contexto, ser curioso y buscar pruebas de validez— son esenciales para una ciudadanía informada. La autora sostiene que, ante el flujo constante de datos que recibimos a diario, la diferencia entre una ciudadanía bien informada o manipulable dependerá de cómo eduquemos en el uso crítico de los medios.

En este contexto, las bibliotecas, tanto escolares como públicas, se presentan como espacios ideales para promover la alfabetización mediática. Swicker propone que los bibliotecarios incluyan este tipo de enseñanza en los programas educativos o bien ofrezcan talleres específicos para distintas edades. Además, sugiere que las webs de las bibliotecas reserven secciones visibles para recursos de verificación de hechos. Pero más allá de proporcionar herramientas, recalca que el ejemplo es clave: usar y mostrar cómo se emplean estas fuentes de verificación debe ser algo natural y habitual, una respuesta instintiva ante cualquier información dudosa. La alfabetización mediática, afirma, no funciona sin la chispa de la curiosidad, sin preguntarse continuamente “¿cómo sabes eso?”.

El artículo también recopila una serie de recursos útiles para fomentar estas habilidades. Para el uso cotidiano, destaca sitios como AllSides, que muestra noticias desde distintas posiciones ideológicas; Google Fact Check Tools; FactCheck.org, centrado en política estadounidense; Snopes, que desmonta rumores y leyendas urbanas; y Lead Stories, que se enfoca en contenidos virales. Además, ofrece un listado de planes de lección dirigidos a docentes o bibliotecarios que deseen impartir formación en alfabetización mediática, como los materiales de Common Sense Education, Checkology del News Literacy Project, y Be Media Wise de PBS, Civic Online Reasoning, que ofrece materiales gratuitos listos para usar en el aula, entre otros. Estos materiales están orientados a todas las edades, desde la primaria hasta la educación superior.

Por último, Swicker recomienda organizaciones y reportes que sirven para la formación continua o la defensa institucional de la alfabetización mediática, como Media Literacy Now, The National Association for Media Literacy Education, o el State of Media Literacy Education Report 2024. Concluye haciendo un llamado a la acción: aunque los recursos existen y son accesibles, es responsabilidad de los bibliotecarios distribuirlos y facilitar su uso. Solo así se podrá lograr que las nuevas generaciones no se conformen con lo que leen o ven, sino que lo cuestionen, contrasten y comprendan de forma crítica.

Valor de los bibliotecarios en un mundo de desinformación generada por IA

«En una sociedad inundada de información, confusión generada por la inteligencia artificial, desinformación y noticias falsas, los bibliotecarios son la primera y mejor línea de defensa: navegantes de confianza que nos ayudan a encontrar el sentido, la relevancia, las pruebas y el conocimiento práctico a partir de fuentes fiables.»

Abram, Stephen. “Save the Librarians.” The Lens, 2024. https://stephenslighthouse.com/2025/04/22/academic-database-comparisons/

Stephen Abram es bibliotecario y director de Lighthouse Consulting Inc. y director ejecutivo de la Federación de Bibliotecas Públicas de Ontario.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

Comprender y abordar la desinformación sobre la ciencia

National Academies of Sciences, Engineering, and Medicine. Understanding and Addressing Misinformation About Science. Washington, DC: The National Academies Press, 2024. https://nap.nationalacademies.org/catalog/27894/understanding-and-addressing-misinformation-about-science.

Understanding and Addressing Misinformation About Science (2024) analiza cómo el ecosistema de información actual facilita la propagación de desinformación científica y dificulta la identificación de información científicamente precisa.

La desinformación sobre la ciencia representa un problema de interés público, ya que puede causar daños a nivel individual, comunitario y social. Para abordar esta cuestión, es fundamental mejorar el acceso a información científica de alta calidad, lo que puede llenar vacíos informativos y reducir la exposición a información errónea.

El documento destaca que la desinformación no proviene exclusivamente de actores malintencionados que buscan engañar al público, sino que también puede surgir de manera involuntaria desde diversas fuentes. En este contexto, se requieren soluciones proactivas que permitan mitigar la propagación de información errónea sobre la ciencia y fortalezcan la alfabetización científica en la sociedad.