Archivo de la etiqueta: Noticias falsas

La administración Trump recurre a imágenes falsas generadas por IA como estrategia política

Huamani, Kaitlyn. “Trump’s Use of AI Images Sparks Alarm and Misinformation Fears.” The Independent, 27 de enero de 2026.

Ver original

Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.

Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.

Un pasaje destacado del artículo se refiere a un caso en el que la cuenta oficial de la Casa Blanca en X (antes Twitter) publicó una fotografía digitalmente alterada de la abogada de derechos civiles Nekima Levy Armstrong en la que aparecía aparentemente llorando tras un arresto. La imagen original había sido compartida por una secretaria de Seguridad Nacional, pero la versión difundida por el canal oficial fue retocada para acentuar las lágrimas, lo que provocó críticas de que se estaba utilizando la IA para manipular la percepción pública de eventos reales. Críticos como académicos en estudios de información sostienen que etiquetar estas publicaciones como “memes” puede ser una táctica para minimizar la crítica, aunque su difusión desde canales oficiales les confiere una legitimidad peligrosa.

El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.

Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.

En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.

Políticas gubernamentales de Estados Unidos han eliminado el acceso a información científica sobre el clima y la han reemplazado con desinformación

Cell, Kate. 2025. «Disinformation Undermines Our Right to ScienceUnion of Concerned Scientists Blog. https://blog.ucs.org/kate-cell/disinformation-undermines-our-right-to-science/.

El texto parte de un informe reciente de la UNESCO sobre tendencias globales en la libertad de expresión y desarrollo de medios, destacando especialmente la problemática de la desinformación climática. La autora señala que, hacia finales de 2025, determinadas políticas gubernamentales en Estados Unidos han eliminado el acceso a información científica sobre el clima, la han reemplazado con desinformación

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó su informe cuatrienal sobre Tendencias Mundiales en la Libertad de Expresión y Desarrollo de los Medios. Lo que sigue es una versión ligeramente adaptada de la contribución sobre desinformación climática.

A medida que la Tierra continúa calentándose [principalmente debido a la actividad humana] y los impactos en nuestro clima se vuelven cada vez más severos, la ciencia que busca advertirnos y orientarnos está siendo silenciada. Líderes globales poderosos y grandes corporaciones ignoran o niegan la ciencia en un intento deliberado de engañar al público y retrasar la acción urgente necesaria para proteger la habitabilidad del planeta.

En el articulo se analiza cómo la desinformación climática socava el derecho colectivo al conocimiento científico y a la toma de decisiones basada en evidencia. Según la autora, políticas gubernamentales recientes en Estados Unidos han limitado el acceso público a información científica sobre el clima, reemplazándola por narrativas sesgadas o desinformación. Esto afecta evaluaciones oficiales, como la National Climate Assessment, y disminuye la confianza en los científicos, poniendo en riesgo la acción frente al cambio climático.

Cell destaca que, aunque los efectos del cambio climático están bien documentados, existen poderosas fuerzas políticas y corporativas que niegan o manipulan la información científica para retrasar medidas urgentes. La autora señala casos recientes en los que se ha distorsionado información sobre olas de calor extremas, afectando la percepción pública y la preparación frente a eventos climáticos que ponen en riesgo la vida de millones de personas. Además, se ha limitado el acceso a recursos oficiales, obligando a investigadores y ciudadanos a buscar información en fuentes independientes o archivos previos.

La desinformación no solo tiene consecuencias sociales, sino también científicas y económicas. Los datos indican un aumento significativo de la mortalidad por calor extremo en las últimas décadas, y estudios económicos muestran pérdidas vinculadas a las emisiones de industrias específicas. A pesar de la solidez de la evidencia científica, estas campañas buscan debilitar la autoridad de los expertos y retrasar la adopción de políticas efectivas (Cell, 2025).

La autora identifica a la industria de los combustibles fósiles y a sus aliados políticos como los principales impulsores de esta desinformación. Documentos históricos muestran que estas industrias tenían conocimiento del cambio climático décadas atrás, pero eligieron estrategias de negación y manipulación para proteger sus intereses económicos. Entre las tácticas empleadas se incluyen la exageración de incertidumbres científicas, el financiamiento de estudios cuestionables, el acoso a científicos y la manipulación de funcionarios gubernamentales. Investigaciones realizadas por la Union of Concerned Scientists y otros organismos demuestran que la industria de los combustibles fósiles ha utilizado todas las tácticas del manual de desinformación:

  • Contratar a un científico que utilizaba métodos desacreditados y no revelaba la financiación de la industria.
  • Generar dudas exagerando las incertidumbres de la ciencia del cambio climático y dirigiéndose a profesores y estudiantes.
  • Acosar a los científicos climáticos.
  • Comprar credibilidad.

Además, las plataformas digitales juegan un papel crucial en la difusión de desinformación, muchas veces de forma indirecta al priorizar contenido que genera mayor interacción y publicidad. Esto amplifica la exposición de la sociedad a narrativas falsas o engañosas sobre el cambio climático, incluyendo teorías conspirativas y ataques a políticas de mitigación. La influencia de estas prácticas también afecta a instituciones científicas, limitando financiamiento, debilitando agencias regulatorias y generando presión sobre investigadores, lo que repercute en la comunicación científica y en la implementación de políticas basadas en evidencia.

Fake News: ¿Cuál es el daño? Repensando los efectos reales de la desinformación

Cunliffe-Jones, Peter. Fake News – What’s the Harm? Open Access Monograph. University of Westminster Press, 2024.

Texto completo

PDF

ePub

En Fake News – What’s the Harm?, Peter Cunliffe-Jones, periodista y fundador de Africa Check, sostiene que desde el estallido global de preocupación por la desinformación en 2016, el debate público y académico se ha apoyado en suposiciones erróneas sobre la naturaleza, el alcance y los efectos reales de las llamadas “fake news”. A partir de un análisis exhaustivo de 250 estudios de caso recopilados durante cuatro años, el autor propone una revisión profunda del concepto de “information disorder”, argumentando que la narrativa dominante suele simplificar un fenómeno complejo y multifacético.

El libro plantea cuatro ideas clave para periodistas, verificadores, responsables políticos y plataformas digitales. Primero, Cunliffe-Jones insiste en que el desorden informativo no puede reducirse únicamente a la desinformación: intervienen también la mala información, el contenido mal contextualizado, la manipulación interesada y, en ocasiones, errores no intencionados que circulan tanto en ámbitos digitales como fuera de ellos. Segundo, destaca que la desinformación no es un problema exclusivamente online; por el contrario, en muchos contextos —sobre todo en países del Sur Global— la transmisión oral, las creencias locales y la comunicación en espacios presenciales pueden causar daños equiparables o incluso mayores que los provocados por los contenidos digitales virales.

En tercer lugar, el autor subraya que la desinformación que afecta a los responsables políticos puede ser tan peligrosa como la que circula entre el público. Políticos, legisladores y autoridades pueden tomar decisiones erróneas si reciben información falsa o distorsionada, lo que genera consecuencias sociales y económicas de gran alcance. Esto rompe con la idea convencional de que el principal riesgo recae únicamente en la ciudadanía desinformada. Por último, Cunliffe-Jones propone un modelo práctico para que verificadores, investigadores y plataformas puedan distinguir entre afirmaciones falsas que tienen un potencial real de causar consecuencias perjudiciales y aquellas que, aunque incorrectas, apenas generan efectos tangibles. Este marco busca ayudar a priorizar recursos, mejorar intervenciones y equilibrar la lucha contra la desinformación con la defensa de la libertad de expresión.

La obra ha sido ampliamente elogiada por especialistas internacionales en periodismo y estudios sobre medios. Lucas Graves destaca que ofrece un nuevo marco explicativo capaz de superar los debates repetitivos sobre el “pánico moral” en torno a las fake news. Masato Kajimoto subraya que el libro avanza hacia una visión más matizada y sistemática del problema, mientras que Herman Wasserman resalta su valor para investigadores, activistas y legisladores, especialmente por su perspectiva histórica y su atención al contexto africano.

Cunliffe-Jones, con décadas de experiencia como reportero y con un papel fundamental en el desarrollo del movimiento de verificación de datos —incluida su participación en el Código de Principios de la IFCN—, ofrece aquí una reflexión sólida, crítica y constructiva. Su enfoque combina análisis riguroso, ejemplos reales y recomendaciones concretas, convirtiendo esta obra en un aporte clave para comprender y enfrentar el impacto social de la desinformación contemporánea.

En las elecciones de Georgia a Nueva York, los deepfakes hechos con IA están dirigiendo el discurso político y la percepción de los votantes.

Hurt, Davina, y Ann Skeet. “AI fuels a new wave of political lies.” Salon, 29 noviembre 2025.

Texto completo

La inteligencia artificial está siendo usada para generar “deepfakes” y contenido político engañoso que distorsiona la realidad en campañas electorales recientes en Estados Unidos. Un ejemplo citado es un anuncio en la carrera al Senado por Georgia en el que la campaña del candidato republicano Mike Collins difundió un vídeo en el que aparecía el senador demócrata Jon Ossoff supuestamente diciendo que no le importaban los granjeros porque “solo había visto una granja en Instagram” — una frase que Ossoff nunca pronunció.

El texto señala que, aunque la sátira política siempre ha existido (por ejemplo en caricaturas), la IA borra la frontera entre ficción y realidad de una forma sin precedentes: las falsedades generadas por IA pueden parecer auténticas, con imagen y voz convincente, lo que las hace aún más peligrosas cuando son usadas por los propios actores políticos.

Además, el artículo advierte que este tipo de contenido —cuando se difunde desde cuentas oficiales o con aspecto institucional— degrada el debate democrático, al transformar opiniones o propaganda en “evidencia visual” aparentemente real. Bajo esa lógica, la IA no solo ayuda a mentir, sino a construir una “realidad alternativa” destinada a manipular percepciones colectivas, socavando la confianza pública en los procesos políticos.

Finalmente, los autores exhortan a la necesidad de marcos regulatorios y éticos claros que exijan transparencia en el uso de IA en campañas políticas, de modo que la manipulación mediática deje de ser una estrategia con potencial de dañar la democracia

La propagación de información falsa generada por chatbots de Inteligencia Artificial se ha duplicado en un año

Sadeghi, McKenzie. AI False Information Rate Nearly Doubles in One Year. NewsGuard, 4 de septiembre de 2025. https://www.newsguardtech.com/wp-content/uploads/2025/09/August-2025-One-Year-Progress-Report-3.pdf

Texto completo

Un informe de NewsGuard, compartido con Axios el 4 de septiembre de 2025, revela que la tasa de propagación de información falsa por parte de chatbots populares se ha duplicado en el último año, pasando del 18% al 35% en respuestas a preguntas sobre temas de actualidad.

Este aumento coincide con actualizaciones realizadas por los desarrolladores de inteligencia artificial que han ampliado las capacidades de los chatbots, permitiéndoles responder a más solicitudes y acceder a información en tiempo real desde la web.

El estudio de NewsGuard se basa en su AI False Claims Monitor, una herramienta que mide cómo los modelos de IA manejan afirmaciones demostrablemente falsas sobre temas controvertidos. Los investigadores probaron diez herramientas de IA líderes utilizando solicitudes de la base de datos de False Claim Fingerprints de NewsGuard, que contiene afirmaciones falsas ampliamente difundidas en línea. Los resultados mostraron que la información falsa aumentó significativamente en las respuestas a preguntas sobre noticias, con modelos como Inflection y Perplexity produciendo las tasas más altas de afirmaciones falsas.

En 2024, la mayoría de los chatbots estaban programados con más cautela, rechazando preguntas sobre noticias y política o negándose a responder cuando no conocían la respuesta. Sin embargo, este año, los chatbots respondieron al 100% de las solicitudes, lo que, según NewsGuard, ha llevado a una mayor amplificación de falsedades durante eventos de noticias de última hora. Además, aunque los chatbots ahora citan fuentes en sus respuestas, estas referencias no garantizan la calidad de la información, ya que a veces se extraen de fuentes poco confiables o se confunden publicaciones establecidas con imitaciones de propaganda rusa.

NewsGuard también señaló que la creciente polarización política en Estados Unidos complica la creación de chatbots que proporcionen respuestas «neutrales» que satisfagan a todos los usuarios. La tendencia de los desarrolladores de IA a maximizar ganancias puede llevar a la evolución de modelos de IA en direcciones partidistas, adaptándose a las inclinaciones políticas de los usuarios.

¿Cuál es el coste real de la desinformación para las empresas?

Serrano, Jesús. “What’s the real cost of disinformation for corporations?World Economic Forum, 14 de julio de 2025. https://www.weforum.org/stories/2025/07/financial-impact-of-disinformation-on-corporations/

La desinformación, que incluye noticias falsas, cuentas hackeadas y deepfakes, ha provocado pérdidas millonarias en los mercados y decisiones financieras erróneas. Estudios recientes estiman que los costos anuales de la desinformación en los mercados financieros ascienden a alrededor de 78 mil millones de dólares, incluyendo pérdidas bursátiles y decisiones financieras erróneas.

Tecnologías de inteligencia artificial como bots y deepfakes han acelerado la difusión de información falsa, haciéndola más convincente y difícil de detectar. Ejemplos históricos y recientes, desde el “Great Moon Hoax” de 1835 hasta el hackeo de la cuenta de Twitter de The Associated Press en 2013, muestran cómo la manipulación de la percepción pública puede generar un impacto económico y reputacional significativo.

Además, las reseñas falsas y las valoraciones manipuladas afectan la confianza de los consumidores y generan pérdidas millonarias para empresas de todos los tamaños. La reputación se ha convertido en un activo estratégico, y las narrativas falsas pueden erosionarla rápidamente, afectando la credibilidad corporativa y el valor de mercado a largo plazo.

El uso de inteligencia artificial amplifica estos riesgos, ya que los contenidos falsos generan más interacción en redes sociales y son más difíciles de contrarrestar. Estudios de MIT y Edelman destacan que las empresas no están suficientemente preparadas para anticipar y gestionar estos ataques, a pesar de que la confianza es esencial para la sostenibilidad y el crecimiento empresarial. La educación digital, la detección temprana de desinformación y la comunicación de crisis son herramientas clave para proteger la reputación corporativa.

La colaboración público-privada y la regulación, como el Código de Prácticas sobre Desinformación de la UE, se presentan como mecanismos necesarios para mitigar la propagación de contenidos falsos sin comprometer la libertad de expresión. En un entorno donde la confianza se considera un activo estratégico, las empresas deben invertir en vigilancia, formación y estrategias preventivas, ya que los costos financieros y reputacionales de la inacción frente a la desinformación son demasiado altos.

El Reino Unido ante el reto de la alfabetización mediática: un riesgo para la cohesión social y la democracia

House of Lords Communications and Digital Committee. Media Literacy. 3rd Report of Session 2025. HL Paper 163. Londres: House of Lords, 25 julio 2025.

Texto completo

Con el 71 % de los adultos británicos obteniendo sus noticias en línea y el 52 % a través de redes sociales, las plataformas algorítmicas priorizan contenido en función de la interacción del público, lo que degrada la calidad de la información. Esto ha debilitado la influencia del periodismo institucional y aumentado la fragmentación del panorama mediático, afectando especialmente a los jóvenes.

Casi la mitad de los adultos que usan redes sociales han visto noticias falsas, pero solo el 45 % confía en su habilidad para evaluar la veracidad de las fuentes y apenas el 30 % se siente seguro identificando contenido generado por IA

El insuficiente desarrollo de habilidades de alfabetización mediática puede generar polarización, desinformación, desconfianza institucional, exclusión digital e impactos perjudiciales para la salud mental, el empleo y la cohesión social. Además, se detectó una correlación entre estos déficits y los disturbios ocurridos en el verano de 2024.

El Comité formuló tres áreas clave de intervención:

  • Incorporar la alfabetización mediática en el currículo nacional desde la educación temprana, con formación sistemática de docentes y desarrollo profesional continuo
  • Exigir más a las plataformas digitales, estableciendo estándares mínimos a través de Ofcom, y aplicar un impuesto a las tecnológicas para financiar iniciativas independientes sostenibles
  • Liderazgo político claro, incluyendo el nombramiento de un ministro responsable a nivel de gobierno para coordinar acciones entre departamentos e impulsar campañas de concienciación pública año tras año

La circulación de la información y la verdad : claves para su abordaje

La circulación de la información y la verdad : claves para su abordaje / Agustina Ahibe … [et al.] ; Editado por Mariano Dagatti ; Margoth Mena-Young. – 1a ed. – Ciudad Autónoma de Buenos Aires : CLACSO ; Guadalajara : CALAS, 2025.

Texto completo

El libro aborda los desafíos que enfrentan las democracias contemporáneas en un entorno informativo cada vez más complejo, marcado por la desinformación, la distorsión informativa, la polarización y la crisis de autoridad del periodismo. Coordinado por Mariano Dagatti y Margoth Mena-Young, la obra reúne contribuciones de destacados investigadores latinoamericanos y europeos con el fin de analizar cómo estos fenómenos transforman la relación entre ciudadanía, medios y conocimiento en la era digital.

La circulación de la información y la verdad indaga en las tensiones entre verdad, desinformación y democracia, desde una mirada crítica. A partir de conceptos clave como credibilidad, verificación, polarización, algoritmos y educación mediática, analiza cómo se construyen, filtran y consumen las noticias en un entorno marcado por el desorden informativo.

¿Por que los modelos de IA nos conducen a reforzar lo que ya creemos?

Eugina Leung, The Scientific Reason Why ChatGPT Leads You Down Rabbit Holes,” CNET, 10 de junio de 2025, https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

El artículo cuenta por qué herramientas como ChatGPT pueden llevar a los usuarios a profundizar en líneas de pensamiento cada vez más específicas, a veces hasta puntos extremos o sesgados, en lo que comúnmente se conoce como “caer en un sesgo o bucle de confirmación” digital.

El sesgo de confirmación (también llamado sesgo confirmatorio) es una tendencia psicológica que lleva a las personas a buscar, interpretar y recordar información de manera que confirme sus propias creencias y expectativas preexistentes, mientras ignoran o desestiman información que las contradiga.

Según Leung, este comportamiento no se debe únicamente al diseño del modelo de lenguaje, sino a un patrón compartido con los motores de búsqueda y otras herramientas digitales: las personas tienden a confirmar sus creencias iniciales. Esto se traduce en que, cuando un usuario realiza una consulta a ChatGPT, lo hace ya desde una postura determinada. Por ejemplo, si alguien sospecha que cierto alimento es dañino, probablemente formulará su pregunta de forma que ya presupone esa posibilidad. El sistema, a su vez, genera respuestas que encajan con esa narrativa, confirmando la suposición en lugar de cuestionarla.

Esta interacción desencadena un bucle de retroalimentación. Cuanto más pregunta el usuario en esa dirección, más contenido relacionado obtiene, lo que le lleva a profundizar aún más en esa perspectiva. Este proceso es lo que se conoce como “cascada de profundidad” y puede dar lugar a una especie de efecto túnel, donde se van perdiendo matices, dudas o puntos de vista alternativos. En el caso de temas sensibles como la política, la salud, las creencias personales o las teorías de la conspiración, este efecto puede ser especialmente problemático, ya que facilita la consolidación de ideas erróneas o distorsionadas.

Uno de los elementos clave de este fenómeno es la forma en que los modelos responden a las preguntas: su diseño se basa en ofrecer respuestas que parezcan relevantes, coherentes y satisfactorias según el contexto de la conversación. Sin embargo, esto no siempre equivale a una respuesta imparcial o equilibrada. En muchos casos, el sistema simplemente sigue la lógica del usuario y refuerza su hipótesis, en lugar de introducir elementos de contraste o una visión crítica.

Aunque el artículo no presenta una solución definitiva, sí deja entrever algunas estrategias útiles para contrarrestar este efecto. En primer lugar, es esencial que los usuarios sean conscientes de sus propios sesgos y del modo en que estos influyen en la formulación de preguntas. También se sugiere que se practique la variación intencional de las consultas, explorando diferentes formas de abordar un mismo tema. Finalmente, se menciona la posibilidad de diseñar modelos que incluyan mecanismos para ofrecer perspectivas alternativas o advertencias sobre posibles sesgos presentes en la conversación.

En conclusión, ChatGPT tiene una base científica y psicológica sólida. La tendencia humana a buscar confirmación de nuestras ideas, unida al diseño de las respuestas generadas por IA, puede llevarnos a reforzar creencias sin darnos cuenta. Este descubrimiento invita tanto a usuarios como a desarrolladores a promover un uso más consciente, crítico y equilibrado de estas herramientas.

Día Internacional de la Verificación de Hechos. ¿Necesitas la verdad? ¿Conocimiento? Visita la biblioteca.

Ayoub, George. “Need the Truth? Knowledge? Visit a Library.Nebraska Examiner, April 7, 2025. https://nebraskaexaminer.com/2025/04/07/need-the-truth-knowledge-visit-a-library/?utm_source=flipboard&utm_content=topic/librarianship

El 2 de abril, se conmemora el Día Internacional de la Verificación de Hechos. Esta fecha, promovida por la International Fact-Checking Network, subraya la importancia crucial de verificar la información para promover un discurso público honesto, invalidar mitos y reforzar la responsabilidad en el periodismo.

En un mundo saturado de desinformación, las bibliotecas continúan siendo un refugio vital donde las personas pueden distinguir entre hechos y ficción. Mientras navegamos en el “laberinto moderno” para encontrar la verdad, las bibliotecas se mantienen como un baluarte contra la propaganda y la información falsa.

Sin embargo, el artículo alerta sobre recientes órdenes ejecutivas del gobierno federal (109 órdenes para el 1 de abril) que afectan negativamente a las bibliotecas y museos en Estados Unidos, en particular al Instituto de Servicios para Museos y Bibliotecas (IMLS), que apoya financieramente a estas instituciones. Todo el personal del IMLS está en licencia administrativa pagada, lo que podría perjudicar especialmente a bibliotecas y museos rurales y pequeños.

Un ejemplo del impacto positivo del IMLS es un proyecto en Nebraska que, en 2019, proporcionó fondos para crear “estudios de innovación” itinerantes en bibliotecas rurales, ofreciendo a las comunidades herramientas, materiales y programas para fomentar la creatividad y el emprendimiento local. Este instituto apoya todos los tipos de bibliotecas y museos, siendo la única agencia federal dedicada a sostener este ecosistema cultural en Estados Unidos.

La American Library Association (ALA) expresó su preocupación porque las medidas administrativas amenazan servicios esenciales como programas de alfabetización temprana, acceso a internet de alta velocidad, asistencia para empleo, recursos para tareas escolares e investigación, y materiales accesibles para la lectura. Según estudios internos, la mayoría de los votantes y padres considera que las bibliotecas públicas locales desempeñan un papel fundamental en sus comunidades.

El gobierno de Trump defendió los recortes como una forma de fortalecer la integridad y reducir la burocracia federal, alegando que se eliminaban iniciativas consideradas “discriminatorias” o “antiamericanas”, especialmente aquellas relacionadas con diversidad, equidad e inclusión (DEI). El autor cuestiona este mandato dado que el presidente ganó con apenas el 49.81% del voto y señala la contradicción de acusar de “antiamericanismo” a instituciones que justamente promueven diversidad cultural, ideas y arte.

El artículo enfatiza que las bibliotecas y museos son lugares de diversidad, imaginación, comunidad y conocimiento, proporcionando acceso a la verdad, estimulando la creatividad y funcionando como espacios de exploración y asombro para todas las edades, a través de libros, tecnología, clases y numerosos programas.

El autor confiesa ser un apasionado lifelong de las bibliotecas, recordando su primera experiencia en la Carnegie Library de Grand Island y su frecuente visita a bibliotecas públicas en Los Ángeles y Lincoln. Considera incomprensible cómo la eliminación de un pequeño instituto que apoya bibliotecas y museos puede beneficiar al público estadounidense.

Finalmente, con ironía menciona que el viernes anterior fue el “Día Nacional de Contar una Mentira”, un contrapunto perfecto para la semana. Para verificar si alguien dice la verdad, hay varias opciones en línea, pero la recomendación final es confiar en un lugar seguro y fiable: la biblioteca.