Los bibliotecarios están desbordados por acusaciones de ocultar libros de referencias inexistentes que realmente fueron inventadas por alucinaciones de la IA

Novak, Matt. 2025. “Librarians Are Tired of Being Accused of Hiding Secret Books That Were Made Up by AI.Gizmodo, 11 de diciembre de 2025. https://gizmodo.com/librarians-arent-hiding-secret-books-from-you-that-only-ai-knows-about-2000698176

Todo el mundo sabe que los chatbots con IA como ChatGPT, Grok y Gemini suelen inventarse fuentes. Pero para las personas encargadas de ayudar al público a encontrar libros y artículos de revistas, las referencias falsas de la IA están pasando factura. Según una nueva publicación de Scientific American, los bibliotecarios parecen absolutamente agotados por las solicitudes de títulos que no existen.

Una problemática creciente en bibliotecas y centros de información provocada por la expansión del uso de chatbots de inteligencia artificial como ChatGPT, Grok o Gemini: la generación de títulos de libros, artículos y citas que en realidad no existen. Estas herramientas, debido a sus frecuentes “alucinaciones” (es decir, respuestas plausibles pero inventadas), han llevado a que muchos usuarios crean que dichos títulos son reales y se dirijan a los bibliotecarios con solicitudes para encontrarlos. Esta situación está causando frustración entre los profesionales de la información, quienes deben invertir tiempo y esfuerzo en demostrar que tales obras no existen en ningún catálogo o archivo conocido.

Según testimonios recopilados, como el de Sarah Falls del Library of Virginia, alrededor del 15% de las consultas de referencia recibidas por correo electrónico provienen directamente de sugerencias generadas por IA, muchas de las cuales incluyen títulos inventados o citas erróneas. Lo que agrava la situación no es solo la frecuencia de estas consultas, sino también el hecho de que parte del público confía más en la respuesta de la IA que en la experiencia de un bibliotecario profesional, lo cual ha generado situaciones tensas en las que usuarios insisten en la existencia de un libro pese a la demostración de que este nunca fue publicado.

Asimismo, el artículo señala que esta tendencia plantea un desafío más amplio para la comunidad académica y científica, ya que diluir la calidad de las referencias podría erosionar la confianza en el sistema de investigación y en la fiabilidad de las fuentes. Mientras que los modelos de IA pueden ser útiles para sintetizar o resumir información, su falta de capacidad para verificar hechos contra bases de datos reales implica que las instituciones y los investigadores deben adoptar prácticas de verificación más estrictas y educar a los usuarios sobre las limitaciones de estas tecnologías. Esto incluye pedir a quienes hagan consultas que indiquen si la referencia proviene de una IA y animarles a validar independientemente cualquier cita recibida.

La revista TIME designó en 2025 a los “Arquitectos de la Inteligencia Artificial” como persona del año

Reuters. 2025. “Architects of AI’ Named Time’s Person of the Year 2025.” December 11, 2025. https://time.com/7339685/person-of-the-year-2025-ai-architects/

La revista TIME designó en 2025 a los “Arquitectos de la Inteligencia Artificial” como Persona del Año, un reconocimiento no a una figura individual, sino a todo un grupo de líderes que han diseñado y transformado el ecosistema global de la IA.

Esta elección simboliza el momento histórico en que la inteligencia artificial pasó de ser un avance tecnológico a convertirse en una fuerza determinante en la vida cotidiana, en la economía y en el funcionamiento de las instituciones.

El artículo subraya que 2025 marcó un punto de inflexión: la IA dejó de ser una herramienta de nicho y se convirtió en un componente esencial para millones de personas. Modelos como ChatGPT y sistemas de IA aplicados en salud, educación o industria demostraron su capacidad para resolver problemas complejos y acelerar procesos. La labor de estos arquitectos permitió que la tecnología avanzara a una velocidad sin precedentes y ampliara su alcance a prácticamente todos los sectores. Esta selección reconoce a quienes han impulsado el desarrollo, la adopción y la expansión global de la IA, transformando industrias y la vida cotidiana. Entre ellos están Jensen Huang, Sam Altman, Elon Musk, Mark Zuckerberg, Lisa Su, Demis Hassabis, Dario Amodei y Fei-Fei Li.

Jensen Huang es CEO de Nvidia, la empresa que fabrica los chips que alimentan la mayoría de los sistemas de IA modernos. Su liderazgo ha llevado a Nvidia a convertirse en uno de los pilares de la infraestructura de la inteligencia artificial. Sam Altman, como CEO de OpenAI, es una de las figuras más visibles detrás de modelos de lenguaje como ChatGPT, que han popularizado la IA en todo el mundo. Elon Musk, fundador de xAI y de empresas como Tesla y SpaceX, ha invertido fuertemente en tecnologías de IA y ha influido en el debate público sobre su futuro.

Mark Zuckerberg, al frente de Meta, ha integrado capacidades de IA en redes sociales y aplicaciones de gran uso global. Lisa Su, CEO de AMD, dirige una de las principales empresas de semiconductores que compiten en la producción de hardware para IA. Demis Hassabis, líder de Google DeepMind, es conocido por avances en investigación de IA, y Dario Amodei, CEO de Anthropic, destaca por su trabajo en modelos de lenguaje y seguridad. Finalmente, Fei-Fei Li, investigadora académica y cofundadora de World Labs, aporta una perspectiva de investigación fundamental en el campo de la visión por computadora y la IA responsable.

Sin embargo, el reconocimiento también refleja los desafíos que acompañan este auge. El desarrollo acelerado de la IA ha despertado preocupaciones sobre privacidad, desinformación, desplazamiento laboral y sesgos algorítmicos. La figura de los “Arquitectos de la IA” representa tanto el enorme potencial transformador de estas tecnologías como la responsabilidad ética que implica dirigir su futuro.

En conjunto, TIME destaca que estas personas —ingenieros, investigadores y líderes tecnológicos— están moldeando la era actual y sentando las bases del mundo que viene. Su influencia es tan profunda que, para bien o para mal, el rumbo de la sociedad global en los próximos años estará estrechamente vinculado a las decisiones que tomen sobre cómo diseñar, regular y aplicar la inteligencia artificial.

Springer Nature retira y elimina casi 40 publicaciones que entrenaban redes neuronales con un conjunto de datos con problemas éticos y de fiabilidad.

McMurray, Calli. “Exclusive: Springer Nature retracts, removes nearly 40 publications that trained neural networks on ‘bonkers’ dataset.The Transmitter, 8 diciembre 2025. https://www.thetransmitter.org/retraction/exclusive-springer-nature-retracts-removes-nearly-40-publications-that-trained-neural-networks-on-bonkers-dataset/

Springer Nature ha comenzado a retractar decenas de trabajos — unos 38 en total — que se basaban en un conjunto de datos extremadamente polémico, conocido coloquialmente como “dataset bonkers”. Este conjunto incluía más de 2.900 fotografías de rostros de niños, supuestamente divididas en quienes tenían diagnóstico de Autismo y quienes no. Lo que generó alarma es que muchas de esas imágenes fueron extraídas de sitios web dedicados al autismo, sin evidencia de consentimiento explícito de las familias ni confirmación clínica de los diagnósticos.

La preocupación se intensificó cuando especialistas revisaron el origen y la calidad del dataset. Una de ellas, la neuropsicóloga infantil Dorothy Bishop, declaró que, tras examinar los métodos de recolección, consideró el proyecto “absolutamente bonkers”: la variabilidad en ángulos, iluminación, expresiones y condiciones de las fotos hace imposible garantizar que las imágenes representen realmente a niños con y sin autismo, lo que invalida cualquier intento de diagnóstico facial. Además, desde el punto de vista ético, hay dudas serias sobre si los menores y sus familias otorgaron consentimiento informado para que sus rostros fueran utilizados con fines de investigación.

Ante estos problemas éticos y metodológicos, Springer Nature decidió actuar: desde el 16 de noviembre comenzaron las primeras retracciones y han anunciado la retirada de decenas más. Los artículos afectados, que previamente afirmaban entrenar redes neuronales para distinguir entre niños autistas y no autistas, dejan de considerarse válidos. La casa editorial justifica su decisión señalando que “este serio problema metodológico socava los resultados y conclusiones de las publicaciones”.

El caso ha generado además un efecto dominó: se identificaron al menos 90 publicaciones que citaban alguna versión del dataset, muchas de ellas en revistas de prestigio e incluso conferencias organizadas por entidades como IEEE. Springer Nature ha comenzado a contactar a otros editores para alertarles del problema, en un intento por evitar que este dataset contaminado siga siendo usado en nuevos trabajos

Libros de segunda mano

Me encantan esos libros de segunda mano que se abren por aquella página que su anterior propietario leía más a menudo. El día en que me llegó el ejemplar de Hazlitt, se abrió por una página en la que leí: «Detesto leer libros nuevos.» Y saludé como a un camarada a quienquiera que lo hubiera poseído antes que yo.

Helene Hanff «84, Charing Cross Road»

Desafíos para aumentar el número de usuarios en las bibliotecas

Growing Libraries. (2025, 3 de noviembre). Challenges With Growing Library Users. Recuperado de https://growinglibraries.com/resources/challenges-with-growing-library-users

Las bibliotecas enfrentan hoy un panorama mucho más complejo que el de décadas anteriores. Tradicionalmente reconocidas como espacios de consulta y préstamo de libros, estas instituciones han evolucionado para convertirse en centros comunitarios multifuncionales. Ofrecen talleres educativos, acceso a tecnología, programas de alfabetización digital y oportunidades de aprendizaje continuo para personas de todas las edades. Sin embargo, muchos de estos servicios siguen siendo desconocidos para gran parte de la población, lo que provoca una discrepancia entre la riqueza de recursos disponibles y la cantidad de usuarios que efectivamente los aprovechan. A medida que la sociedad se digitaliza y los hábitos de consumo de información cambian, las bibliotecas deben encontrar formas de destacarse y demostrar su relevancia en un entorno donde la información y el entretenimiento están al alcance de un clic.

Uno de los mayores desafíos radica en comprender las necesidades y expectativas de los diferentes grupos de usuarios. Familias con niños pequeños, jóvenes estudiantes, adultos en búsqueda de empleo y personas mayores tienen demandas muy distintas, y cada uno percibe la biblioteca de manera diferente. Para algunos, la biblioteca puede parecer un espacio silencioso y poco atractivo, mientras que otros desconocen por completo los programas y recursos gratuitos que podrían mejorar su vida cotidiana. Por ello, es fundamental que las bibliotecas desarrollen estrategias de divulgación segmentadas, que comuniquen con claridad la variedad de servicios disponibles y que generen experiencias positivas que motiven a los usuarios a regresar.

Además de los desafíos externos, las bibliotecas también enfrentan barreras internas. Los recursos financieros limitados, la falta de personal suficiente y las cargas de trabajo elevadas dificultan la planificación de campañas de promoción y la implementación de programas innovadores. La comunicación interna y externa requiere coherencia y consistencia para que los mensajes lleguen de manera efectiva a la comunidad. Para superar estos obstáculos, las bibliotecas necesitan combinar creatividad con datos precisos sobre su población, entender qué servicios son más relevantes para cada grupo y ajustar sus estrategias de manera flexible y constante.

En última instancia, el crecimiento de usuarios no depende solo de la cantidad de servicios que una biblioteca pueda ofrecer, sino de cómo estos servicios se perciben y se experimentan en la vida real. Las bibliotecas que logran vincular sus recursos con las necesidades concretas de la comunidad, que cuentan historias de impacto y que fomentan la participación activa, pueden consolidarse como centros fundamentales de aprendizaje, inclusión y desarrollo social. La clave está en conectar, adaptarse y comunicar, asegurando que cada miembro de la comunidad perciba la biblioteca no solo como un lugar de libros, sino como un espacio valioso y accesible que aporta a su vida cotidiana.

La carrera por crear la IA definitiva

Booth, Robert. “It’s Going Much Too Fast’: The Inside Story of the Race to Create the Ultimate AI.The Guardian, December 1, 2025. https://www.theguardian.com/technology/ng-interactive/2025/dec/01/its-going-much-too-fast-the-inside-story-of-the-race-to-create-the-ultimate-ai

Se describe la carrera mundial por desarrollar una inteligencia artificial lo más parecida posible a la inteligencia humana, una tecnología que podría transformar de forma radical todos los ámbitos de la vida.

Las grandes empresas tecnológicas compiten a una velocidad sin precedentes por alcanzar hitos cada vez más ambiciosos, con enormes inversiones en centros de datos, chips especializados y contratación de talento altamente cualificado. En este escenario, la presión es extrema: equipos trabajando día y noche, sueldos multimillonarios y una cultura en la que cada avance tecnológico genera expectativas desmesuradas.

El texto muestra que este impulso descontrolado no está exento de riesgos. Muchas voces dentro de la propia industria advierten de que el ritmo es demasiado rápido y que no estás existiendo suficiente reflexión sobre las consecuencias. A medida que los modelos de IA se vuelven más potentes y autónomos, aumentan los temores sobre posibles impactos negativos en el empleo, la economía, la privacidad y la seguridad. Las herramientas desarrolladas podrían llegar a influir en decisiones críticas sin supervisión adecuada o generar efectos inesperados difíciles de prever o controlar.

Otro elemento central del artículo es la tensión entre quienes ven la IA avanzada como una oportunidad sin precedentes para resolver grandes problemas —desde la salud hasta el cambio climático— y quienes temen que concentre el poder en manos de unos pocos actores privados. Este desequilibrio podría profundizar desigualdades existentes, favorecer la manipulación a gran escala o desencadenar tecnologías que escapen al control humano.

A lo largo del reportaje, se retrata un ambiente de euforia mezclado con inquietud: mientras algunos especialistas creen que la inteligencia artificial general podría estar a pocos años de distancia, otros consideran irresponsable fijar plazos tan cortos y piden una regulación más estricta. En conjunto, el artículo ofrece una mirada crítica a la carrera tecnológica actual, marcada por la urgencia, la competencia feroz y la sensación creciente de que se está avanzando más rápido de lo que la sociedad puede asimilar.

Recomendaciones para el uso de la Inteligencia Artificial en la Universidad de Granada

Universidad de Granada. Recomendaciones para el uso de la Inteligencia Artificial en la Universidad de Granada. Granada: Universidad de Granada, 2024.

Texto completo

El documento recoge el resultado de un amplio proceso de reflexión colaborativa desarrollado en la Universidad de Granada durante 2024 para analizar las implicaciones del uso de la inteligencia artificial (IA) en el ámbito universitario. Parte del reconocimiento de que la irrupción de la IA, especialmente la generativa, constituye un cambio tecnológico profundo que está transformando los procesos de aprendizaje, investigación, gestión administrativa y relación con la sociedad. El informe no es normativo, sino una guía de inspiración para promover un uso ético, responsable y crítico de la IA en la institución.

En el área de docencia y aprendizaje, se describen numerosas oportunidades: apoyo a la planificación didáctica, generación de materiales, personalización del aprendizaje y automatización de tareas. No obstante, se advierten riesgos relevantes como la falta de integridad académica, problemas de privacidad, sesgos, brechas digitales, pérdida de competencias y dependencia de grandes empresas tecnológicas. Para mitigarlos, se proponen recomendaciones centradas en la transparencia en el uso, la adaptación de metodologías y evaluaciones, la alfabetización digital, la protección de datos y la formación del profesorado y del estudiantado.

En el ámbito de la investigación, la IA ofrece posibilidades valiosas en todas sus fases: búsqueda y síntesis de información, diseño de estudios, análisis de datos, generación de código y redacción científica. Sin embargo, también puede comprometer la calidad, reproducibilidad y ética de los resultados si no existe supervisión humana adecuada. El documento recomienda mejorar la capacitación de los equipos investigadores, garantizar la trazabilidad de los datos, asegurar la explicabilidad de los modelos utilizados y fomentar un uso que respete la integridad científica.

Respecto a la gestión universitaria, se destacan oportunidades como la mejora de la atención al usuario, la automatización de contenidos, el apoyo a la toma de decisiones y la traducción de recursos institucionales. A la vez, se identifican riesgos: vulneración de datos personales, dependencia tecnológica, falta de formación, costes económicos y opacidad en la generación de contenidos. Se proponen medidas para asegurar el cumplimiento normativo, promover herramientas institucionales y garantizar transparencia y sostenibilidad en su adopción.

Finalmente, en cuanto al impacto social, el documento subraya amenazas como la pérdida de privacidad, los sesgos, el aumento de desigualdades, la desinformación, los efectos sociolaborales negativos y los riesgos éticos en áreas sensibles. Propone que la universidad actúe con responsabilidad a través de la formación en IA, la protección de la privacidad, la inclusión digital, la identificación de sesgos, la promoción de la veracidad, la vigilancia de riesgos humanos y laborales, y la apuesta por una gobernanza justa y transparente de estas tecnologías.

RSL 1.0: el nuevo estándar que permite a los editores controlar el uso de su contenido por la IA

Roth, Emma. “RSL 1.0 Has Arrived, Allowing Publishers to Ask AI Companies to Pay to Scrape Content.” The Verge, 10 de diciembre de 2025 https://rslstandard.org/

Really Simple Licensing 1.0 (RSL 1.0) es un nuevo estándar de licencias abierto que se ha lanzado oficialmente para la era de la inteligencia artificial. Su objetivo principal es permitir que los editores de contenido web establezcan reglas claras sobre cómo y si las empresas de IA pueden utilizar su material, incluyendo posibles mecanismos de compensación económica.

Este estándar fue desarrollado por el RSL Collective con el respaldo de grandes nombres del sector como Yahoo, Ziff Davis y O’Reilly Media, y amplia el tradicional archivo robots.txt añadiendo un conjunto más detallado de permisos que las máquinas pueden leer y aplicar. Gracias a él, los editores pueden, por ejemplo, bloquear el uso de su contenido en funciones de búsqueda potenciadas por IA (como el “AI Mode” de Google) sin dejar de aparecer en los resultados de búsqueda tradicionales.

RSL 1.0 ha sido respaldado por más de 1 500 medios y plataformas, incluidas Reddit, Quora, WikiHow, Stack Overflow y The Guardian, y también cuenta con el apoyo de proveedores de infraestructura web como Cloudflare, Akamai y Fastly, lo que facilita la aplicación práctica de estas reglas frente a rastreadores o bots que no cumplan con las condiciones establecidas.

Además, la especificación incluye un modelo de “contribución” desarrollado junto con Creative Commons, pensado para permitir que organizaciones sin ánimo de lucro y otros creadores exijan aportaciones a los sistemas de IA que se beneficien de su trabajo, sin cerrar el acceso a contenidos útiles o de libre uso.

Este lanzamiento llega en un contexto en el que compañías como Google están siendo investigadas por el uso de contenido de editores en funciones de IA sin ofrecer opciones claras de exclusión o compensación, y RSL 1.0 pretende aportar transparencia y un marco legal para resolver estas tensiones en la relación entre creadores de contenido y proveedores de IA.

Tendencias y transformaciones en bibliotecas urbanas 2025

2025 Library Insights Report. Urban Libraries Council. November 2025.

Texto completo

2025 Library Insights Report de Urban Libraries Council ofrece una visión detallada de cómo evolucionan los usos, servicios y prioridades de las bibliotecas públicas urbanas de Estados Unidos y Canadá. Con datos aportados por 122 sistemas bibliotecarios —que representan más de 91 millones de habitantes y 2.307 sedes— el informe analiza tendencias clave en visitas presenciales, uso de espacios, programas, colecciones, personal y financiación.

El informe muestra que, aunque las visitas presenciales aún no recuperan los niveles de 2019, mantienen una tendencia sostenida de crecimiento durante tres años consecutivos, con un aumento del 9,8% entre 2023 y 2024. Las reservas de salas y el uso de recursos digitales experimentan incrementos aún mayores, del 25% y 14,8% respectivamente, confirmando un fuerte desplazamiento hacia servicios que combinan lo presencial con lo digital. En contraste, la circulación física de materiales se estabiliza e incluso registra un ligero descenso del 1,7%, lo que sugiere un cambio de preferencia hacia formatos electrónicos, especialmente e-books. Al mismo tiempo, por primera vez desde 2019, el uso de ordenadores vuelve a crecer, rompiendo una tendencia de fuertes descensos tras la pandemia.

El objetivo es proporcionar a las bibliotecas herramientas de planificación basadas en datos actuales y comparables, capaces de orientar decisiones estratégicas en un contexto social y tecnológico cambiante.

Los programas bibliotecarios continúan siendo un pilar vertebrador de la actividad: la oferta crece un 8% y la asistencia un 2,5% en 2024. Los programas prioritarios siguen siendo los orientados a primera infancia y edad escolar, que el 69% de las bibliotecas identifica como los más frecuentes y con mayor participación. Estas cifras reflejan la capacidad de las bibliotecas para adaptarse a las necesidades educativas y sociales de sus comunidades, ampliando temáticas, formatos y públicos.

El área de personal y presupuesto muestra, sin embargo, tensiones relevantes. A pesar de que los presupuestos crecieron un 5% en 2024, este aumento no alcanza a compensar la inflación. El número de empleados a tiempo completo se reduce un 3,6% respecto a 2023 y permanece un 8,2% por debajo de los niveles de 2019, incluso mientras la demanda de servicios aumenta. Esta brecha entre recursos humanos y necesidades de los usuarios es especialmente notable en bibliotecas que atienden a poblaciones menores de 250.000 habitantes, que sufren mayores caídas en personal y retrocesos en uso de e-recursos.

El informe también analiza tendencias por tamaño poblacional del área de servicio, mostrando que las bibliotecas que atienden a más de 950.000 habitantes registran los aumentos más significativos en visitas, uso digital, reservas de salas, oferta programática e incluso incidentes reportados. Por otra parte, continúa una fuerte inversión en infraestructura: un 17% de los sistemas inició nuevas construcciones en 2024, para un total de 29 nuevas sedes, pese al incremento de costes por metro cuadrado. Las proyecciones indican además que el crecimiento poblacional de aquí a 2030 implicará un aumento estimado del 5–7% en visitas, uso digital y demanda de espacios, así como la necesidad de presupuestos más elevados para mantener la calidad del servicio.

El informe propone líneas estratégicas para los próximos años: rediseñar espacios para usos flexibles y de alta demanda; reforzar la planificación de personal; reducir desigualdades entre sistemas grandes y pequeños; equilibrar el crecimiento digital con una oferta presencial significativa; y anticipar nuevas necesidades comunitarias como alfabetización en IA, espacios de trabajo flexible o programas de refuerzo educativo. El informe concluye que las bibliotecas urbanas siguen siendo infraestructuras sociales esenciales y altamente valoradas, capaces de innovar mientras mantienen su misión de acceso universal a la información y la cultura

Los modelos de IA utilizan material de artículos científicos retractados

AI models are using material from retracted scientific papers.” MIT Technology Review, 23 septiembre 2025. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

El artículo advierte de una “crisis de confianza” en los sistemas de IA cuando se usan como fuentes de conocimiento científico o de salud: el uso indiscriminado de literatura retractada socava la integridad académica, puede inducir a desinformación peligrosa, y exige urgentes mecanismos de control —tanto técnicos (bases de datos actualizadas, filtros automáticos) como de responsabilidad editorial— para evitar que la IA difunda como válidas investigaciones desacreditadas.

El artículo de MIT Technology Review denuncia un problema alarmante: algunos modelos de inteligencia artificial (IA) están utilizando en sus respuestas contenido extraído de artículos científicos que han sido retractados (es decir, anulados por errores, malas prácticas, fraude o falta de validez), sin advertir a los usuarios sobre su condición de desautorizados.

Según los estudios citados, cuando se pidió a un modelo — ChatGPT (basado en GPT-4o) — que respondiera utilizando información de 21 artículos de imagenología médica ya retractados, el sistema citó esos trabajos en cinco casos, y tan solo en tres advirtió que podían ser problemáticos. En una prueba más amplia, con 217 artículos retractados o de baja calidad en varios campos científicos, el modelo no mencionó ninguna retractación u otra señal de alerta.

Pero el problema no afecta solo a ChatGPT. Otras herramientas de IA diseñadas específicamente para tareas de investigación científica — como Elicit, Ai2 ScholarQA, Perplexity y Consensus — también mostraron fallos similares. En tests realizados con los mismos 21 artículos retractados, Elicit los citó en cinco casos, Ai2 ScholarQA en 17, Perplexity en 11 y Consensus en 18, sin señalar su estatus de retractado.

Este fenómeno plantea dudas graves sobre la fiabilidad de la IA para tareas de investigación, educación, medicina o cualquier ámbito donde la veracidad científica es crítica. Si los modelos no reconocen que una fuente ha sido invalidada, pueden reproducir información errónea como si fuera legitima, lo que puede inducir a error a estudiantes, profesionales o al público general.

El problema tiene raíces estructurales vinculadas al modo en que estos modelos son entrenados. Muchos corpus de entrenamiento contienen copias de trabajos científicos disponibles en la web —incluidas versiones retiradas— y los sistemas no están diseñados para revisar en tiempo real el estado de retractación de cada fuente. Esto significa que, aunque una investigación haya sido invalidada, sigue formando parte del “conocimiento” del modelo.

Ante esta situación, algunas empresas ya han comenzado a reaccionar: por ejemplo, Consensus ha integrado datos de fuentes de retractaciones (como bases mantenidas por editores, agregadores de datos y servicios especializados) para intentar filtrar fuentes invalidadas; en una prueba reciente, así logró reducir el número de artículos retractados citados. Sin embargo, estas iniciativas no están generalizadas ni resultan infalibles, pues muchas publicaciones científicas no marcan de forma uniforme sus retractaciones, lo que dificulta la detección automática.