Archivo de la etiqueta: Inteligencia artificial

Herramientas de Inteligencia Artificial aplicadas a la catalogación de bibliotecas para el año 2025

El contenido se divide en seis categorías principales que abarcan desde sistemas integrados comerciales hasta soluciones personalizadas y experimentales, destacando sus características, casos de uso, ventajas y limitaciones.

En el ámbito de las grandes plataformas, se mencionan el Ex Libris Alma AI Metadata Assistant y las herramientas de Machine Learning de OCLC. La primera está enfocada en bibliotecas universitarias para sugerir metadatos enriquecidos, destacando por su integración fluida con sistemas actuales, aunque requiere una suscripción. La segunda utiliza aprendizaje automático para la resolución de entidades en catalogación digital, caracterizándose por ser de código abierto pero aún en etapa experimental.

Por otro lado, instituciones académicas y gubernamentales lideran proyectos como el de la Biblioteca del Congreso y Harvard, que explora la descripción computacional y su integración con BIBFRAME para informes abiertos. Paralelamente, Harvard ha desarrollado una herramienta basada en GPT para bibliotecarios de Asia Oriental, la cual facilita sugerencias de encabezamientos de materia (LCSH) y análisis de temas mediante embeddings multilingües.

Finalmente, la infografía destaca soluciones más flexibles como las Custom Power Apps y los Chatbots de IA de uso general. Las Power Apps están diseñadas para bibliotecas pequeñas y materiales en idiomas asiáticos (CJK), ofreciendo modelos entrenables a pesar de estar en fase beta. Por su parte, los chatbots genéricos se utilizan para el prototipado rápido y la transliteración; aunque son muy versátiles, se advierte que su precisión puede ser inconsistente.

A continuación, se detallan los pros y contras de cada una de las 6 herramientas mencionadas en la infografía, para que puedas comparar sus ventajas y limitaciones:


1. Ex Libris Alma AI Metadata Assistant

  • Pros: Su principal ventaja es la integración fluida (seamless) con el sistema ILS (Sistema Integrado de Gestión Bibliotecaria) que ya utilizan muchas bibliotecas académicas.
  • Contras: Requiere obligatoriamente tener una suscripción activa a Alma, lo que representa un costo institucional elevado.

2. OCLC Machine Learning Tools

  • Pros: Se destaca por ser un ecosistema de catalogación abierta, lo que fomenta la colaboración entre instituciones.
  • Contras: Todavía se encuentra en una fase experimental, por lo que sus procesos podrían no ser totalmente estables o definitivos.

3. Library of Congress: Computational Description

  • Pros: Ofrece informes abiertos (open reports), lo que permite transparencia en cómo se generan los metadatos bajo el estándar BIBFRAME.
  • Contras: Al ser un proyecto de exploración institucional, su implementación práctica fuera de la Biblioteca del Congreso puede ser compleja o limitada.

4. Custom Power Apps AI Cataloging

  • Pros: Es una solución altamente personalizada para materiales CJK (chino, japonés y coreano), permitiendo entrenar modelos específicos.
  • Contras: Se encuentra en fase beta, lo que implica que aún está en desarrollo y puede presentar errores de funcionamiento.

5. LCSH Recommendation GPT (Harvard)

  • Pros: Muy eficiente para el análisis de materias multilingües, ayudando a traductores y catalogadores con términos complejos de encabezamiento de materia (LCSH).
  • Contras: (Aunque no se detalla explícitamente en el cuadro rojo, se infiere que depende de la precisión del modelo GPT de turno y del contexto específico de Harvard).

6. General-Purpose AI Chatbots (ChatGPT, etc.)

  • Pros: Son herramientas extremadamente versátiles que sirven para prototipado rápido, traducción y transliteración de diversos idiomas.
  • Contras: Tienen una precisión inconsistente. Al ser modelos generales, pueden cometer errores factuales («alucinaciones») en la creación de registros bibliográficos.

Estado de los datos 2025: IA en el presente, desafíos y perspectivas

Interactive Advertising Bureau (IAB), BWG Global, y Transparent Partners. 2025. State of Data 2025: The Now, the Near, and the Next Evolution of AI for Media Campaigns. Nueva York: Interactive Advertising Bureau

Texto completo

El informe State of Data 2025 del Interactive Advertising Bureau (IAB), elaborado en colaboración con BWG Global y Transparent Partners, analiza en profundidad el estado actual y las perspectivas de la inteligencia artificial en el ciclo completo de las campañas de medios digitales. Basado en una encuesta a más de 500 expertos de agencias, marcas y editores, el estudio sostiene que la industria publicitaria se encuentra en un punto de inflexión: aunque la IA lleva años utilizándose para optimizar procesos concretos, su integración plena y transversal sigue siendo limitada. El documento subraya que la irrupción de nuevas formas de IA —especialmente la generativa y la agentic— está transformando su papel, pasando de ser una herramienta de apoyo a convertirse en un sistema capaz de planificar, ejecutar y evaluar campañas de forma casi autónoma.

Uno de los principales hallazgos del informe es que el 70 % de las organizaciones aún no ha logrado una adopción integral de la IA en las fases de planificación, activación y análisis de campañas. No obstante, esta situación es percibida como transitoria: más de la mitad de quienes no han alcanzado ese nivel esperan hacerlo antes de 2026. Las agencias y los editores lideran el proceso de adopción, impulsados por la necesidad de generar eficiencias operativas y escalar soluciones para múltiples clientes, mientras que las marcas avanzan con mayor cautela, condicionadas por restricciones presupuestarias y la exigencia de demostrar retornos claros de la inversión.

El informe destaca que los usos más consolidados de la IA se concentran en la segmentación de audiencias, la agregación y el análisis de datos, la optimización en tiempo real de pujas y presupuestos, y la automatización de tareas repetitivas. Estas aplicaciones son valoradas positivamente por su eficiencia, efectividad y fiabilidad, especialmente en contextos de alto volumen de datos y decisiones operativas rápidas. Sin embargo, el estudio también señala que la IA todavía presenta limitaciones significativas en ámbitos donde se requiere juicio estratégico, visión a largo plazo o consideraciones éticas complejas, como la gestión de contratos, la seguridad de marca o la prevención del sesgo.

Entre los principales obstáculos para la adopción a gran escala, el informe identifica problemas estructurales relacionados con la calidad y la seguridad de los datos, la fragmentación de herramientas tecnológicas, la complejidad de implementación y la falta de conocimientos especializados. De forma reveladora, el temor a la sustitución de empleos aparece como una preocupación secundaria frente a estos desafíos técnicos y organizativos. Además, el documento subraya que solo alrededor de la mitad de las organizaciones está desarrollando estrategias claras —como hojas de ruta, programas de formación o marcos de gobernanza— para afrontar estos retos, lo que podría agrandar la brecha competitiva en el sector.

La inteligencia artificial bajo examen: el equipo de Anthropic que estudia su impacto en la sociedad

Field, Hayden. 2025. “Meet the Anthropic Team Reckoning with AI’s Effect on Humans and the World.The Verge, December 2, 2025

Texto completo

Un grupo reducido de investigadores dedicado a estudiar y anticipar las consecuencias sociales de la inteligencia artificial avanzada, particularmente del modelo Claude.

Este equipo fue fundado por Deep Ganguli, antiguo director de investigación en el Stanford Institute for Human-Centered AI, quien se unió a Anthropic para ayudar a orientar el desarrollo de la IA hacia impactos positivos y comprensibles para la sociedad. La misión central del grupo es identificar “verdades incómodas” sobre cómo se usan y malinterpretan los sistemas de IA, incluso cuando estos pueden causar daños sutiles o indirectos.

La cobertura destaca que, a pesar de estar compuesto por apenas nueve personas dentro de una empresa con miles de empleados, el equipo ha producido investigaciones sobre temas tan variados como el impacto económico de la IA, sus efectos en la persuasión y en la discriminación, así como los riesgos relacionados con procesos electorales. Parte de su trabajo consiste en estudiar datos reales de uso —por ejemplo, cómo personas y organizaciones interactúan con Claude en entornos cotidianos— y traducir estos hallazgos en conocimiento útil para formular políticas y prácticas más seguras.

El perfil también plantea tensiones inherentes a su labor: aunque Anthropic se promociona como una de las empresas de IA más centradas en la seguridad y el bienestar humanos, la presión del crecimiento del mercado y los incentivos comerciales podría reducir con el tiempo la libertad del equipo para publicar investigaciones críticas. Aun así, los investigadores insisten en que su compromiso con la transparencia es fundamental para construir confianza pública y ofrecer una perspectiva externa dentro de una industria dominada por intereses económicos muy fuertes.

Finalmente, se subraya cómo el trabajo del equipo se relaciona con la reputación de Anthropic como una empresa que no solo desarrolla modelos de IA potentes, sino que también intenta entender y mitigar sus posibles impactos sociales negativos. Esta postura incluye no solo escribir papers académicos, sino también comunicar hallazgos a responsables políticos, comunidades técnicas y al público en general para promover un enfoque más reflexivo en la innovación de la IA.

Una nueva prueba de IA analiza si los chatbots protegen el bienestar humano

Bellan, Rebecca. “A New AI Benchmark Tests Whether Chatbots Protect Human Well-Being.” TechCrunch, November 24, 2025. https://techcrunch.com/2025/11/24/a-new-ai-benchmark-tests-whether-chatbots-protect-human-wellbeing

Se describe la creación de un nuevo benchmark llamado HumaneBench diseñado para evaluar si los chatbots de inteligencia artificial realmente protegen el bienestar humano en lugar de simplemente maximizar la interacción o el compromiso del usuario.

A diferencia de la mayoría de pruebas existentes, que se centran en medir la inteligencia técnica o la capacidad de seguir instrucciones, HumaneBench pone el foco en la seguridad psicológica y la protección del usuario, evaluando cómo responden los modelos de IA en situaciones realistas que pueden afectar la salud mental o las decisiones vitales de las personas.

HumaneBench fue desarrollado por la organización sin ánimo de lucro Building Humane Technology, que basa el benchmark en principios como respetar la atención del usuario, empoderar con opciones significativas, mejorar capacidades humanas, proteger la dignidad y la privacidad, fomentar relaciones saludables, priorizar el bienestar a largo plazo, transparencia e inclusión. El equipo creó 800 escenarios realistas —por ejemplo, preguntas sobre saltarse comidas o experiencias en relaciones tóxicas— para probar cómo los modelos responden bajo diferentes condiciones.

Los resultados mostraron que la mayoría de los modelos de IA mejoran sus respuestas cuando se les indica explícitamente que prioricen el bienestar, pero que muchos pueden comportarse de manera activamente dañina si se les pide ignorar esos principios. Según la evaluación, solo unos pocos modelos (como GPT-5 y algunas versiones de Claude) mantuvieron un desempeño íntegro bajo presión, mientras que otros fallaron sobre todo en respetar la atención del usuario o evitar fomentar un uso excesivo. Esto evidencia que, aunque existe progreso, aún hay lagunas importantes en cómo los sistemas de IA gestionan la seguridad y autonomía del usuario.

Finalmente, la iniciativa de HumaneBench se enmarca en una preocupación más amplia sobre los riesgos asociados al uso intensivo de chatbots, desde problemas de salud mental hasta patrones de uso adictivo, y surge junto a esfuerzos para establecer estándares o certificaciones éticas para productos de IA que realmente prioricen el bienestar humano.

ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial.

Lopezosa, Carlos, Lluís Codina y Juan-José Boté-Vericad. Testeando ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial. Barcelona: Departamento de Comunicación, Universitat Pompeu Fabra, 2023. Serie Editorial DigiDoc. PCUV05/2023

Texto completo

El informe, publicado en 2023, ofrece una guía práctica para investigadores sobre el uso del programa ATLAS.ti y su nueva herramienta de inteligencia artificial (IA) lanzada en marzo de ese año.


El objetivo principal es explicar cómo la función «AI Coding», impulsada por el modelo GPT de OpenAI, puede simplificar y acelerar el proceso de codificación de entrevistas cualitativas, ayudando a identificar patrones de respuestas de manera más eficiente.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

A través de un ejemplo práctico con 28 entrevistas, los autores detallan el flujo de trabajo: desde la carga de documentos hasta la generación de reportes automáticos que muestran los códigos más frecuentes y concurrentes. Además, se incluye un apartado especial sobre el uso de Whisper de OpenAI para la transcripción automática de audio a texto, lo que optimiza aún más las fases iniciales de la investigación cualitativa.

Finalmente, el informe concluye que, aunque estas herramientas representan un cambio de paradigma, deben utilizarse de forma responsable. Los investigadores deben mantener un pensamiento crítico y verificar siempre las propuestas de la IA, ya que la herramienta actúa como un asistente y no como un reemplazo del juicio humano. También se mencionan limitaciones de la versión beta, como dificultades técnicas en la versión de la nube y una mejor precisión con archivos Word que con PDFs.




Guía de mejores prácticas para el uso de inteligencia artificial (IA)

Budlong, Jeff. 2025. “Library Provides AI Best Practices Guide for Campus Learners.” Inside Iowa State, November 19, 2025. https://www.inside.iastate.edu/article/2025/11/19/library-provides-ai-best-practices-guide-campus-learners.

La University Library de Iowa State University publicó una guía de mejores prácticas para el uso de inteligencia artificial (IA) destinada a estudiantes, profesores y personal del campus, respondiendo a la creciente demanda de orientación en torno al uso ético y responsable de estas tecnologías. La iniciativa surgió tras múltiples solicitudes de la comunidad académica, y se ha concretado en un LibGuide titulado Everyday AI: Best Practices for Using AI, que forma parte de una colección de más de 300 guías sobre temas que van desde evaluación de revistas hasta producción de podcasts. Este recurso digital cubre nociones esenciales sobre IA, ofreciendo definiciones, herramientas para evaluar herramientas de IA, estrategias para analizar la información generada automáticamente y enfoques para reconocer sesgos algorítmicos.

La guía está estructurada en siete secciones temáticas que buscan proporcionar una comprensión sólida de cuándo y cómo usar IA de forma apropiada dentro del contexto académico. Entre estos temas figuran: qué es importante saber sobre la IA, cómo evaluar herramientas de IA en investigaciones, consejos para revisar la salida de los sistemas automatizados, cuestiones relacionadas con sesgo algorítmico y el impacto social y medioambiental de estas tecnologías, así como recomendaciones específicas para el uso de IA en el contexto de Iowa State y cómo citar y divulgar su empleo en trabajos académicos.

Un elemento central de la guía es el énfasis en la alfabetización informacional más que en enseñar el uso de herramientas específicas. Según la bibliotecaria de instrucción Kate Garretson, el objetivo es animar a los usuarios a pensar críticamente sobre la IA y no depender exclusivamente de respuestas automatizadas sin cuestionarlas. Para ello, la guía propone preguntas clave que los usuarios deben hacerse antes de emplear IA: cómo se está usando, por qué se está usando y si debería usarse en esa situación, fomentando así la reflexión sobre si el uso de la IA podría socavar el propio proceso de aprendizaje o investigación.

Además, la guía incorpora el método SIFT (Stop, Investigate, Find better coverage, Trace it back) para evaluar la credibilidad y precisión de la información encontrada en línea, no solo la generada por IA, incentivando la verificación rigurosa de las fuentes y la trayectoria de las afirmaciones. Otra parte fundamental trata de cómo citar y declarar el uso de IA en trabajos académicos: aunque la mayoría de estilos y revistas no consideran a las herramientas de IA como autoras formales, sí recomiendan que se identifique el nombre del sistema utilizado, cómo se empleó y se asuma la responsabilidad por cualquier resultado derivado de su uso.

La guía también aborda aspectos de seguridad y protección de la información, señalando que datos clasificados como “moderados” o más sensibles por las políticas universitarias no deben ingresarse en productos de IA a menos que exista una aprobación explícita, y recomendando herramientas como Microsoft Copilot y Google Gemini bajo condiciones de seguridad institucional, para evitar la exposición de información delicada a terceros. Se advierte sobre riesgos potenciales relacionados con términos de servicio cambiantes de empresas proveedoras de IA y la necesidad de que los usuarios comprendan cómo se gestiona su información en estas plataformas.

En conjunto, este esfuerzo institucional refleja una respuesta proactiva de la biblioteca universitaria ante los desafíos y oportunidades que plantea la IA en entornos educativos, planteando no solo una guía práctica inmediata, sino también un marco para el pensamiento crítico y la alfabetización tecnológica que puede evolucionar conforme cambian las prácticas y herramientas de IA

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

Hughes, Owen. 2025. “Students Using ChatGPT Beware: Real Learning Takes Legwork, Study Finds.” The Register, November 3, 2025. https://www.theregister.com/2025/11/03/chatgpt_real_understanding/

Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

La publicación del patrimonio cultural en la era de la IA.

Keller, Paul. 2025. Publishing Cultural Heritage in the Age of AI. Con contribuciones de Alek Tarkowski, Antoine Isaac, Ariadna Matas Casadevall, Harry Verwayen y Lorena Dianel Aldana. Open Future Foundation. https://lnkd.in/dyxrT74y

El informe Publishing Cultural Heritage in the Age of AI, elaborado por la Open Future Foundation junto con Europeana Foundation, analiza uno de los desafíos más urgentes para las instituciones de patrimonio cultural en la actualidad: cómo compartir sus datos en un contexto marcado por el desarrollo acelerado de la inteligencia artificial.

El documento parte de una constatación clave: los modelos tradicionales de acceso a colecciones culturales fueron diseñados para el uso individual humano y resultan insuficientes ante la creciente demanda de acceso masivo y automatizado para el entrenamiento y uso de sistemas de IA.

El texto identifica una tensión estructural entre los compromisos históricos de acceso abierto de bibliotecas, archivos y museos, y la realidad del uso intensivo de datos por parte de actores tecnológicos, incluidos desarrolladores de IA generativa. Mientras que el acceso abierto ha promovido la democratización del conocimiento, el uso a gran escala de los datos culturales plantea interrogantes sobre la sostenibilidad institucional, la integridad del patrimonio, la atribución, la explotación comercial y la pérdida de control sobre los usos derivados.

Como respuesta, el informe propone un marco de acceso diferenciado, basado en principios de interés público. Este enfoque no rechaza el acceso abierto, sino que lo complementa con condiciones específicas para determinados usos de IA, distinguiendo entre reutilización alineada con el mandato público de las instituciones y usos que pueden requerir salvaguardas adicionales. El objetivo es equilibrar tres pilares fundamentales: mantener el acceso abierto cuando sea apropiado, fomentar una innovación responsable y proteger la confianza pública en las instituciones patrimoniales.

El marco planteado ofrece orientaciones prácticas para que las instituciones culturales puedan decidir cuándo aplicar acceso abierto, acceso condicionado o acuerdos específicos, teniendo en cuenta factores como el tipo de datos, la finalidad del uso, el impacto social y la coherencia con sus misiones públicas. En lugar de establecer normas cerradas, el documento subraya la necesidad de una gobernanza reflexiva y contextual, capaz de adaptarse a distintos escenarios tecnológicos y legales.

Finalmente, el informe se presenta explícitamente como una invitación al diálogo y no como un modelo prescriptivo. Forma parte del proceso colectivo Alignment Assembly on Culture for AI, enmarcado en el espacio europeo común de datos para el patrimonio cultural. Desde esta perspectiva, el texto busca contribuir a una conversación más amplia sobre el papel de las instituciones culturales en la era de la IA y sobre cómo garantizar que el uso de los datos patrimoniales siga sirviendo al interés público y a los valores democráticos.

Las alucinaciones en los modelos de lenguaje aplicados a la comunicación académica

Lamba, Naveen, Sanju Tiwari y Manas Gaur. “Hallucinations in Scholarly LLMs: A Conceptual Overview and Practical Implications.” Ponencia presentada en Bridge on Artificial Intelligence for Scholarly Communication (AAAI-26), 2025. Open Conference Proceedings. Hannover: TIB – Leibniz Information Centre for Science and Technology.
https://www.tib-op.org/ojs/index.php/ocp/article/view/3175/3207

Las alucinaciones incluyen resultados de investigación inventados, ideas de referencias falsas e inferencias malinterpretadas que destruyen la credibilidad y la fiabilidad de los escritos académicos

Se aborda de forma amplia la problemática de las alucinaciones generadas por modelos de lenguaje grandes (LLMs) en contextos académicos y de investigación. Comienza definiendo las alucinaciones como salidas de los modelos que no están fundamentadas en hechos reales —por ejemplo, resultados de investigación inventados, referencias bibliográficas fabricadas o inferencias erróneas— y explica cómo estas pueden comprometer la credibilidad y confiabilidad de la escritura académica asistida por IA

El documento identifica los principales tipos, causas y efectos de estas alucinaciones en el flujo de trabajo académico, subrayando que las LLMs pueden producir información plausible pero incorrecta, lo que es especialmente problemático cuando se integran en herramientas que asisten en la redacción, revisión o gestión del conocimiento científico. Para contrarrestar estos problemas, los autores discuten medidas pragmáticas de mitigación como la generación de respuestas ancladas en recuperación de información (RAG), la verificación automatizada de citas y estrategias neurosimbólicas que combinan enfoques simbólicos con modelos de IA para asegurar la veracidad de los hechos y la transparencia en los resultados generados. Asimismo, destacan la importancia de una colaboración humano-IA responsable para desarrollar sistemas que sean tanto precisos como verificables en entornos de investigación.

Para enfrentar estas limitaciones, la ponencia describe estrategias prácticas para mitigar las alucinaciones en entornos académicos. Entre ellas se incluyen:

  • Generación anclada en recuperación de información (RAG), que combina la capacidad generativa de los LLMs con una verificación contra bases de datos externas verificadas.
  • Técnicas de verificación automática de citas y fuentes, para asegurar que las referencias sugeridas por el modelo correspondan a publicaciones existentes y adecuadamente verificadas.
  • Hibridación simbólica/neurosimbólica, que integra métodos que permiten comprobar reglas o hechos previamente establecidos en sistemas de conocimiento simbólico, reduciendo así la probabilidad de que el modelo fabrique información no verificada

Frontiers FAIR² Data Management recupera la ciencia perdida: cómo la IA transforma los datos invisibles en conocimiento reutilizable

Frontiers. “90% of Science Is Lost. This New AI Just Found It.” ScienceDaily, October 13, 2025. https://www.sciencedaily.com/releases/2025/10/251013040314.htm

Una gran cantidad de datos de investigación valiosos permanecen sin utilizar, atrapados en laboratorios o perdidos en el tiempo. Frontiers pretende cambiar esta situación con FAIR Data Management, un innovador sistema impulsado por IA que hace que los conjuntos de datos sean reutilizables, verificables y citables. Al unir la curación, el cumplimiento, la revisión por pares y la visualización interactiva en una sola plataforma, FAIR² permite a los científicos compartir su trabajo de forma responsable y obtener reconocimiento.

La gran mayoría de los datos generados nunca se reutilizan ni contribuyen de forma significativa a nuevos descubrimientos. Según la evaluación citada, una proporción abrumadora de datos —hasta un 90 %— queda atrapada en laboratorios, no se comparte adecuadamente o se pierde en archivos inaccesibles, lo que frena el progreso en áreas críticas como la medicina, el cambio climático y la tecnología. Este desperdicio de información no solo reduce la eficiencia de la investigación global, sino que también limita la reproducibilidad de los estudios y la capacidad de construir sobre trabajos previos, una componente fundamental del método científico moderno.

Para enfrentar este desafío, la editorial y organización científica Frontiers ha desarrollado un sistema innovador denominado Frontiers FAIR² Data Management, que combina herramientas avanzadas de inteligencia artificial con principios sólidos de gestión de datos. El objetivo principal de esta plataforma es aplicar de manera automatizada y a gran escala los principios FAIR (findable, accessible, interoperable, reusable — en español: localizable, accesible, interoperable y reutilizable) y expandirlos en un marco que garantice la compatibilidad con sistemas de IA y la integridad ética de los conjuntos de datos. Al integrar procesos de curación, revisión por pares, visualización interactiva y certificación dentro de un único sistema impulsado por IA, FAIR² pretende transformar conjuntos de datos “perdidos” en recursos útiles y citables que puedan impulsar nuevas investigaciones, acelerar descubrimientos y reconocer adecuadamente el trabajo de los investigadores.

El funcionamiento práctico de FAIR² va más allá de simplemente archivar datos. Cuando un científico somete sus resultados a este sistema, no solo se asegura de que los datos sean estructurados y completos, sino que también recibe una salida múltiple: un paquete de datos certificado, un artículo de datos revisado y citable, herramientas de visualización interactiva y un certificado FAIR² que respalda la calidad y reutilización del conjunto. Esta estrategia integral busca eliminar las barreras tradicionales para el intercambio de datos y fomentar una cultura científica en la que cada conjunto de datos tenga el potencial de generar conocimiento adicional, reducir el tiempo entre descubrimiento y aplicación práctica, y asegurar que las inversiones en investigación rindan un impacto mucho mayor del que logran actualmente.