Artículos científicos fabricados con GPT en Google Scholar: características principales, difusión e implicaciones

Harvard Kennedy School Misinformation Review. “GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation.” Harvard Kennedy School Misinformation Review. Última modificación enero 24, 2025. https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/.

La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.

Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).

De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.

Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.

El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.

Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.

Cómo desarrollar la alfabetización en IA

Hennig, Nicole, y Daniel Pfeiffer. «A Tech Librarian Explains How to Build AI Literacy.» Choice: The Leading Online Resource for Library and Information Professionals, 26 de abril de 2023. https://www.choice360.org/libtech-insight/a-tech-librarian-explains-how-to-build-ai-literacy/.

El concepto de alfabetización en inteligencia artificial (IA) ha cobrado una relevancia creciente debido al impacto de tecnologías como ChatGPT y otras herramientas basadas en IA. Esta alfabetización se ha convertido en una habilidad imprescindible para la sociedad moderna, y los bibliotecarios, como profesionales clave en la educación, jugarán un papel fundamental en su enseñanza. En una entrevista con Nicole Hennig, experta en experiencia del usuario y tecnologías emergentes, se abordan los aspectos clave de la alfabetización en IA y cómo los bibliotecarios pueden integrarla en su labor educativa.

¿Qué es la alfabetización en IA? La alfabetización en IA no es solo el conocimiento básico sobre el funcionamiento de estas tecnologías, sino un conjunto de competencias que capacitan a los individuos para:

  1. Evaluar críticamente las tecnologías de IA.
  2. Comunicarse y colaborar eficazmente con la IA.
  3. Usar la IA de manera ética y efectiva tanto en el hogar como en el trabajo.

Además de estas competencias, Hennig añade la necesidad de entender cómo funciona la IA, incluidos temas como el aprendizaje automático, las redes neuronales y los modelos de lenguaje grande, así como la capacidad para tomar decisiones informadas sobre el uso de estas tecnologías.

La conexión entre alfabetización en IA y otras formas de alfabetización La alfabetización en IA está estrechamente relacionada con otras formas de alfabetización digital y de datos, ya que la IA se basa en datos digitales y algoritmos. Los bibliotecarios, que ya están involucrados en la enseñanza de la alfabetización digital, de datos y mediática, deben incorporar la alfabetización en IA en sus programas debido a la creciente integración de la IA en herramientas cotidianas y su presencia en diversas industrias.

El impacto de la IA en el trabajo de los bibliotecarios La adopción de la IA, y en particular herramientas como ChatGPT, plantea nuevas oportunidades y desafíos en el ámbito bibliotecario. Hennig señala que la alfabetización en IA se está convirtiendo en una habilidad clave que los bibliotecarios deben adquirir, no solo para educarse a sí mismos, sino también para educar a los usuarios. La IA está cada vez más presente en los requisitos laborales en diferentes campos, lo que hace que su comprensión sea crucial para todos los profesionales, incluidos los bibliotecarios.

La IA y sus críticas Aunque la IA está rodeada de críticas, especialmente en torno a temas como la desinformación, el plagio y los sesgos, Hennig destaca que la alfabetización en IA puede ayudar a navegar estos problemas. Al entender mejor cómo funciona la IA, los usuarios pueden aprender a utilizarla de manera ética y efectiva, y también podrán evaluar los riesgos y las limitaciones de estas tecnologías. Además, destaca que la IA está ayudando a democratizar la creación de contenido, lo que puede ser un aspecto positivo cuando se aborda de manera adecuada.

Ejemplo de uso efectivo de ChatGPT Hennig también ofrece ejemplos prácticos de cómo usar ChatGPT de manera efectiva. Un consejo clave es cómo formular preguntas adecuadas o «prompts» para obtener respuestas útiles. Por ejemplo, si un bibliotecario necesita ideas para una clase sobre alfabetización informacional, puede pedir a ChatGPT que genere un esquema detallado y actividades relacionadas.

Primeros pasos para bibliotecarios sin experiencia técnica Para aquellos bibliotecarios que no tienen una formación técnica en IA, Hennig recomienda comenzar con recursos accesibles como cursos cortos. Ejemplos incluyen una serie de lecciones por correo electrónico publicada por The New York Times y el curso Nano Tips for Using ChatGPT de LinkedIn Learning, que ofrece lecciones breves pero efectivas.

Mantenerse al día con los avances en IA Dado el ritmo acelerado de la evolución de la IA, es esencial seguir a expertos en el campo para mantenerse actualizado. Hennig sugiere seguir a investigadores y profesionales de la IA a través de sus boletines y redes sociales para estar al tanto de las últimas tendencias y avances.

En resumen, la alfabetización en IA es una habilidad esencial para los bibliotecarios en la actualidad. No solo deben educarse a sí mismos sobre la IA, sino que también deben ser capaces de enseñar a sus usuarios cómo utilizarla de manera ética y efectiva. Esta competencia se integra cada vez más en las herramientas que usamos diariamente y será crucial en la educación de las generaciones futuras.

Estrategia inicial y hoja de ruta de despliegue de la Inteligencia Artificial – 2024-2025

European Court of Auditors, Artificial Intelligence initial strategy and deployment roadmap – 2024-2025, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2865/317443

En octubre de 2023, el Tribunal de Cuentas Europeo (ECA) inició una reflexión interna sobre la aplicación de la inteligencia artificial (IA) en sus actividades, tras una serie de avances en este campo. Esta reflexión dio lugar al documento “Oportunidades y desafíos en la respuesta y uso de la inteligencia artificial”, que establece un análisis inicial y propone una estrategia de IA y una hoja de ruta para su implementación. La estrategia actual del ECA cubre el período 2021-2025 y se prevé que la próxima incorpore aspectos relacionados con la IA. El objetivo es iniciar las actividades de IA de manera estructurada y proporcionar insumos para la siguiente estrategia del ECA.

Si bien la IA es una tecnología transformadora, se destaca que no reemplazará el juicio profesional ni el pensamiento crítico de los auditores, sino que los asistirá, mejorando la eficiencia y la base de las auditorías. El uso de la IA se centrará en aumentar las capacidades del personal del ECA para realizar auditorías más rápidas, eficaces y fundamentadas. Además, se subraya la importancia de mantener los más altos estándares éticos, priorizando la transparencia y aplicando un escepticismo profesional.

El documento también aclara la distinción entre el uso de la IA para la auditoría y la auditoría de los sistemas de IA, proponiendo un conjunto de objetivos y acciones concretas. Aunque el campo de la IA es aún incipiente, se consideran realistas las acciones propuestas basadas en pruebas de concepto exitosas y en la experiencia de otras instituciones. Además, se incluye un análisis preliminar sobre las herramientas de IA, considerando soluciones basadas en la nube y locales.

Se reconoce que la IA no revolucionará los procesos principales ni aumentará la productividad de manera significativa en el corto y medio plazo, pero se espera un aumento de la productividad de alrededor del 10%, lo que tendrá un impacto positivo en la eficiencia general. A medida que la IA sigue evolucionando, se ha diseñado un plan de comunicación para mantener a los empleados del ECA informados sobre las actualizaciones de este ámbito.

En cuanto a la auditoría, la IA se utilizará para mejorar la eficiencia del proceso auditivo, realizando tareas repetitivas y análisis de documentos, evaluación de riesgos y automatización de procesos rutinarios. Para aprovechar al máximo la IA, será esencial la capacitación del personal, que deberá entender tanto los aspectos operativos de las herramientas de IA como sus limitaciones, los posibles sesgos y las implicaciones éticas de su uso.

Finalmente, la auditoría de los sistemas de IA será un componente adicional en las metodologías tradicionales de auditoría de TI. Se deberá evaluar el uso de la IA por parte de las entidades auditadas, su impacto en los resultados, la toma de decisiones y el cumplimiento de estándares éticos y normativos, incluyendo los riesgos asociados con el uso de IA por terceros con los que las entidades auditadas tengan relaciones contractuales.

Creación de un marco de alfabetización en IA

Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor & Francis 2024

Texto completo

Con las crecientes discusiones en torno a herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a tecnologías de IA accesibles que los estudiantes están utilizando para facilitar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han comenzado a surgir numerosos talleres liderados por bibliotecarios para ayudar a los estudiantes a crear indicaciones para chats, verificar la información proporcionada por ChatGPT y usar herramientas de IA de manera crítica. Aunque se ha iniciado cierta discusión sobre el Framework for Information Literacy de la ACRL y el lugar que ocupa la IA dentro de él, proponemos que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento tiene como objetivo informar sobre entrevistas realizadas a bibliotecarios especializados en instrucción sobre alfabetización en IA. A partir del análisis de estas entrevistas, identificaremos los principales temas y preocupaciones relacionadas con la IA y desarrollaremos un marco sólido para la alfabetización en IA. Los lectores de este documento deberían obtener una mejor comprensión del papel de la alfabetización en IA dentro de la instrucción en alfabetización informacional y podrán utilizar una estructura rigurosa para planificar sus propias intervenciones.

Tras realizar 15 entrevistas a bibliotecarios de Canadá y Estados Unidos, los autores concluyeron que, aunque el 67 % de los bibliotecarios han enseñado contenido relacionado con IA en el último año, la mayoría no utilizó el Framework for Information Literacy in Higher Education de la ACRL para diseñar sus sesiones de instrucción. Además, los autores identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, como:

• La ingeniería de prompts, una entre muchas habilidades necesarias para usar herramientas de IA.
• La evaluación crítica que va más allá de la autoridad y analiza aspectos éticos y sesgos.
• La comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
• Nuevas formas de atribuir la creación y edición de contenido.

El marco propuesto para la alfabetización en IA se centrará en los siguientes aspectos:

  1. Conocer los principios básicos de la IA.
  2. Comprender las diferencias fundamentales entre los tipos de IA.
  3. Experimentar con herramientas de IA.
  4. Revisar los resultados y productos generados por las herramientas de IA.
  5. Evaluar el impacto de la IA a escala social.
  6. Participar activamente en el discurso sobre la IA.

La Generación Z esta cambiando los hábitos de búsqueda online hacia plataformas visuales como TikTok y Pinterest

Wood, Ben. «How Gen Z Is Redefining Discovery on TikTok, Pinterest, and Beyond.» Search Engine Land, December 13, 2024. https://searchengineland.com/gen-z-discovery-tiktok-pinterest-beyond-449244

En una era dominada por los videos cortos, las recomendaciones de influencers y la inspiración visual, los motores de búsqueda tradicionales ya no son los guardianes exclusivos de la información. Visual, auténtico y centrado en la comunidad: los hábitos de búsqueda de la Generación Z están transformando el descubrimiento en línea y la visibilidad de las marcas. Cuando un amante de la comida de la Generación Z busca el mejor restaurante de sushi en la ciudad, es más probable que recurra a TikTok en lugar de Google.

La Generación Z está transformando la forma en que se realiza la búsqueda y el descubrimiento de información en línea, alejándose de los motores de búsqueda tradicionales como Google para preferir plataformas visuales y comunitarias como TikTok, Pinterest e Instagram. Estos jóvenes, que han crecido en un entorno digital, buscan experiencias más inmediatas, auténticas y personalizadas, apoyándose en recomendaciones de influencers y contenido generado por usuarios para tomar decisiones sobre productos, servicios y lugares.

Plataformas como TikTok se destacan como motores de búsqueda visuales, donde los usuarios encuentran respuestas rápidas y originales a través de videos cortos, mientras que Pinterest ofrece inspiración visual en temas como moda, estilo de vida y bricolaje. Además, YouTube y Reddit están ganando popularidad como espacios para descubrimientos más profundos y detallados, gracias a su contenido auténtico y generado por la comunidad.

La búsqueda visual es clave para la Generación Z, que valora la inmediatez y la claridad que ofrecen los videos frente al texto. Esta generación también prioriza la autenticidad y la personalización, confiando en recomendaciones que se sienten como consejos de pares más que en mensajes publicitarios tradicionales. Plataformas como TikTok y Reddit prosperan en este entorno al facilitar contenido centrado en la comunidad, que aporta credibilidad y confianza.

Para adaptarse a estos cambios, las marcas deben diversificar sus estrategias de descubrimiento. Esto implica crear contenido nativo para redes sociales, colaborar con influencers que conecten genuinamente con sus audiencias y expandir sus campañas de publicidad en plataformas como YouTube y Pinterest. De esta forma, pueden captar la atención de un público cada vez más dinámico y fragmentado.

El futuro de la búsqueda está evolucionando hacia un enfoque más visual, auténtico y centrado en la comunidad. Las marcas que logren comprender y adaptarse a estos nuevos hábitos de descubrimiento estarán mejor posicionadas para alcanzar y conectar con la Generación Z en un panorama digital en constante cambio.

Tendencias clave que están moldeando el futuro de las bibliotecas para 2025

Future of Libraries. PressReader, 2025

Texto completo

A medida que avanzamos hacia 2025, el sector bibliotecario sigue experimentando una rápida evolución. El informe Future of Libraries analiza las transformaciones que las bibliotecas están llevando a cabo para adaptarse a las necesidades cambiantes de la sociedad.

El informe, basado en una encuesta global a más de 400 profesionales de bibliotecas, ofrece una visión rica sobre cómo se están preparando las bibliotecas para enfrentar estos desafíos y oportunidades, y tiene como objetivo Inspirar y guiar a los profesionales en la gestión de bibliotecas dentro de un panorama en constante cambio.

Tendencias principales destacadas en el informe:

  1. Accesibilidad e inclusividad
  2. Preservación cultural e intelectual compartida
  3. Estrategias integrales de sostenibilidad
  4. Empoderamiento cívico y alfabetización mediática
  5. Herramientas digitales y formación
  6. Desarrollo de la fuerza laboral

  1. Accesibilidad e inclusividad


Las bibliotecas están evolucionando hacia centros de aprendizaje accesibles e inclusivos, adaptando tanto sus espacios físicos como su programación para comunidades diversas. Esto incluye diseño centrado en las personas, herramientas como lectores de pantalla y traducción en lengua de señas, y la integración de principios de equidad, diversidad e inclusión (EDI) en sus estrategias. Ejemplos como el rediseño de la sucursal Cossitt en Memphis demuestran cómo la colaboración comunitaria puede transformar espacios para empoderar a los usuarios y generar impacto económico. Para lograrlo, las bibliotecas deben ir más allá de declaraciones simbólicas, adoptando acciones concretas que promuevan un cambio sostenible y equitativo.

2. Preservación cultural e intelectual compartida

Las bibliotecas del futuro priorizarán la preservación cultural e intelectual compartida, involucrando a las comunidades en la gestión y conservación de su patrimonio. El uso de tecnologías digitales facilitará esta tarea, pero será clave adoptar enfoques decoloniales, como involucrar a comunidades indígenas en decisiones sobre conservación, acceso y clasificación. Ejemplos como el sistema de clasificación Brian Deer en la Universidad de Columbia Británica demuestran cómo los sistemas inclusivos y culturalmente adecuados pueden respetar las identidades y protocolos comunitarios. Las bibliotecas deben facilitar diálogos respetuosos y actuar como guardianes responsables de materiales sensibles.

3. Estrategias integrales de sostenibilidad

Las bibliotecas se posicionarán como líderes en sostenibilidad holística, integrando esfuerzos ambientales con justicia social, igualdad y bienestar comunitario. Más allá de diversificar ingresos, se alinearán con los Objetivos de Desarrollo Sostenible (ODS) de la ONU, adoptando estrategias que consideren a las personas, la prosperidad y el planeta. A través de enfoques locales, actuarán como laboratorios vivos, promoviendo prácticas sostenibles y fomentando el aprendizaje colectivo. La construcción de bibliotecas verdes y la sostenibilidad arquitectónica serán pilares clave en este esfuerzo.

4. Empoderamiento cívico y alfabetización mediática

Las bibliotecas se consolidarán como espacios neutrales para el empoderamiento cívico y la alfabetización mediática, fomentando la democracia y combatiendo la desinformación. Su credibilidad las posiciona como lugares inclusivos que reúnen a personas de diversas perspectivas y trasfondos. En un contexto de polarización social y algoritmos que refuerzan creencias, las bibliotecas ofrecen contenido confiable que promueve decisiones críticas informadas. Además, enfrentan el desafío y la oportunidad de abordar los riesgos asociados con las redes sociales y la seguridad en internet, posicionándose como guardianas de información relevante y controlada.

5. Herramientas digitales y formación

Las bibliotecas se consolidarán como portales clave para la tecnología y la formación, facilitando el acceso a herramientas avanzadas como la inteligencia artificial y blockchain. Ofrecerán recursos de aprendizaje asistidos por IA y podrán actuar como centros de prueba. Además, las alianzas con organizaciones externas permitirán superar barreras tecnológicas, como en casos donde bibliotecas apoyan a emprendedores locales con mentorías y formación técnica. Estas iniciativas refuerzan su rol como espacios accesibles y de apoyo en la adopción de nuevas tecnologías.

6. Desarrollo de la fuerza laboral

Las bibliotecas deben seguir invirtiendo en el desarrollo de sus equipos, cuyo rol ha evolucionado para incluir tareas como gestión tecnológica y social media. Es clave ofrecer oportunidades de capacitación para adaptarse a cambios tecnológicos, ambientales y sociales, además de fomentar su crecimiento personal y profesional. El 61% de las bibliotecas planea implementar programas de formación este año, mientras que otras priorizan mejorar beneficios y salarios. También se busca rediseñar los espacios de trabajo para fomentar la creatividad y la innovación en sus equipos.

Cómo lograr la sostenibilidad en los programas de Recursos Educativos Abiertos (REA)

Hulbert, Ioana G., Deirdre Harkins, and Mark McBride. «Charting the Course: Case Studies in OER Sustainability.» Ithaka S+R
. Last Modified 22 January 2025.

Texto completo

Un estudio financiado por la Fundación William y Flora Hewlett evaluó el impacto y la implementación de programas de REA en instituciones públicas de educación superior en Estados Unidos. La investigación abordó cuatro preguntas clave:

  1. ¿Qué importancia se da a la sostenibilidad de los REA en las instituciones de educación superior?
  2. ¿Qué características comparten las iniciativas exitosas de REA?
  3. ¿Cómo pueden las instituciones pasar de proyectos piloto a una adopción más amplia de REA?
  4. ¿Qué factores favorecen o dificultan la sostenibilidad de las iniciativas?

El estudio incluyó una revisión de la literatura existente y 12 entrevistas con líderes de REA en cuatro estados, identificando los siguientes hallazgos clave:

  • No hay un modelo único de sostenibilidad: La mayoría de las iniciativas dependen significativamente, a veces exclusivamente, de financiamiento estatal. Algunas agencias estatales actúan como coordinadoras, mientras que otras funcionan como entidades de financiamiento y supervisión.
  • Alineación con prioridades institucionales: Los programas de REA prosperan cuando se integran con objetivos institucionales más amplios, como equidad, acceso e innovación educativa, y no solo como herramientas de ahorro.
  • Rol central de las bibliotecas: Los bibliotecarios lideran frecuentemente las iniciativas locales de REA, participan en comités estatales y proporcionan apoyo especializado, incluso profesionalizando este rol en algunos casos.
  • Áreas de mejora en el uso de REA: Aunque estudiantes y profesores tienen opiniones positivas sobre los REA, persisten desafíos como:
    • Clarificar si los REA deben ser de bajo o nulo costo.
    • Marcar cursos que usan REA.
    • Estandarizar la organización y el acceso a los REA.
    • Mejorar la calidad de REA en ciertas disciplinas.
    • Incentivar a los docentes para compartir sus REA creados.
  • Diversidad y compromiso estudiantil: Adaptar los materiales a las identidades y experiencias de los estudiantes fomenta su sentido de pertenencia y su participación activa en el aprendizaje.

Este enfoque integral busca garantizar la sostenibilidad y maximizar el impacto de los programas de REA en la educación superior.

El viaje de Marcelo de Francisco Javier Martín Prieto. Planeta Biblioteca 2025/01/23.


El viaje de Marcelo de Francisco Javier Martín Prieto

Planeta Biblioteca 2025/01/23.

ESCUCHAR

Descargar

Francisco Javier Martín Prieto presenta El viaje de Marcelo, una obra híbrida que combina elementos de cuento real, relato fantástico, ensayo novelado y tratado breve. El libro es un alegato en favor de la vida que invita a reflexionar sobre cómo vivimos y actuamos, además de ser una advertencia para no dejar sueños sin cumplir antes de llegar al final del camino. La entrevista aborda temas como su trayectoria literaria, las inspiraciones para la obra, y el proceso de escritura. También se destacan las influencias de su formación filosófica, la relevancia de los sueños, y los temas de memoria y tiempo en la vejez.

Primer ataque a las bibliotecas de Donald Trump tras regresar a la Casa Blanca

EveryLibrary. «Trump Has Already Attacked LibrariesEveryLibrary, January 21, 2025. https://action.everylibrary.org/trump_has_already_attacked_libraries


Ayer 21 de enero de 2025, Trump rescindió la Orden Ejecutiva 14084 de Biden, que promovía las artes, las humanidades y los servicios de museos y bibliotecas. Esta medida es el primer paso para desmantelar el Instituto de Servicios de Museos y Bibliotecas (IMLS) y eliminar el financiamiento federal para bibliotecas. La acción pone en riesgo el acceso equitativo a los servicios culturales y educativos.

El 21 de enero de 2025, se se informó que una de las primeras acciones de Donald Trump tras asumir nuevamente la presidencia fue anular la Orden Ejecutiva 14084 de Joe Biden, titulada «Promoviendo las Artes, las Humanidades y los Servicios de Museos y Bibliotecas». Esta orden, implementada por Biden, tenía como objetivo apoyar la economía creativa y cultural de Estados Unidos, promoviendo la «equidad, accesibilidad y oportunidades para todos los estadounidenses», con un enfoque en cómo las artes, las humanidades y los servicios de museos y bibliotecas pueden ayudar a las personas a alcanzar su máximo potencial.

La decisión de Trump de revocar esta orden es vista como un primer paso hacia la desmantelación de la Institute of Museum and Library Services (IMLS), la agencia federal encargada de proporcionar fondos y apoyo a museos y bibliotecas en todo el país. La IMLS ha sido fundamental en el financiamiento de proyectos y programas que ayudan a las bibliotecas a ofrecer servicios gratuitos y accesibles a comunidades de todo tipo, especialmente en áreas rurales o desatendidas.

Al eliminar este tipo de apoyo, los críticos temen que la revocación de esta orden y la reducción de la financiación federal puedan tener un impacto negativo en la accesibilidad de los servicios bibliotecarios y culturales, limitando el acceso de la población a recursos educativos esenciales y afectando negativamente a las comunidades más vulnerables.

Las «alucinaciones» de la inteligencia artificial (IA) no se pueden eliminar por completo, pero existen técnicas para minimizar su impacto

Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their DamageNature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5

Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.

Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».

Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.

El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.

Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.

Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.

Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.

Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.

Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.

Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.

¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.

Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).

No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.

Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.

Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.