Archivo de la etiqueta: Inteligencia artificial

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Escribir es pensar: reflexión crítica sobre el papel de la IA en la redacción científica

Writing is thinking. Nat Rev Bioeng 3, 431 (2025). https://doi.org/10.1038/s44222-025-00323-4

El texto subraya que escribir no se reduce a comunicar resultados, sino que es una herramienta esencial para descubrir y ordenar ideas de manera estructurada. Al plasmar pensamientos en palabras, se logra transformar años de investigación en una narrativa coherente que permite definir claramente el mensaje central y el impacto del trabajo científico

Escribir artículos científicos es una parte integral del método científico y una práctica habitual para comunicar los resultados de la investigación. Sin embargo, escribir no consiste únicamente en informar de resultados; también es una herramienta para descubrir nuevos pensamientos e ideas. La escritura nos obliga a pensar —no de la forma caótica y no lineal en la que nuestra mente suele divagar, sino de manera estructurada e intencional—. Al ponerlo por escrito, podemos ordenar años de investigación, datos y análisis en una historia coherente, identificando así nuestro mensaje principal y la influencia de nuestro trabajo. Esto no es solo una observación filosófica; está respaldada por evidencias científicas. Por ejemplo, escribir a mano puede generar una amplia conectividad cerebral y tener efectos positivos sobre el aprendizaje y la memoria.

Aunque los modelos de lenguaje grandes (LLMs) pueden generar artículos y hasta revisiones de pares en pocos minutos, el editorial advierte que carecen de responsabilidad ética y académica. Además, su contenido puede contener errores, como referencias inventadas o hallazgos inexactos (fenómeno conocido como hallucination), lo que exige una verificación exhaustiva

Los LLMs actuales también pueden equivocarse, un fenómeno conocido como alucinación. Por ello, el texto generado por estos modelos debe ser revisado y verificado minuciosamente (incluyendo cada referencia, ya que podría ser inventada). Esto pone en duda cuánto tiempo ahorran realmente los LLMs en la actualidad. Puede resultar incluso más difícil y llevar más tiempo editar un texto generado por un LLM que redactar un artículo o un informe de revisión por pares desde cero, en parte porque para poder editarlo es necesario comprender el razonamiento que hay detrás. Algunos de estos problemas podrían abordarse con LLMs entrenados únicamente con bases de datos científicas, como se describe en un artículo de revisión de Fenglin Liu y su equipo incluido en este mismo número. El tiempo lo dirá.

No obstante, los LLMs pueden tener un papel útil: ayudan a mejorar la gramática y la claridad, especialmente para quienes no son hablantes nativos de inglés. También pueden servir para resumir literatura, estimular la creatividad o superar bloqueos de escritura, Sin embargo, el editorial concluye que delegar completamente la escritura a estos modelos puede impedirnos reflexionar profundamente y elaborar una narrativa memorable, una habilidad valiosa más allá del ámbito académico

NISO publica los resultados de una encuesta sobre IA y sistemas de descubrimiento en bibliotecas

NISO Open Discovery Initiative. Generative Artificial Intelligence and Web‑Scale Discovery: Survey Report. Baltimore, MD: National Information Standards Organization, agosto 2025.

Texto completo

El 5 de agosto de 2025, la National Information Standards Organization (NISO) divulgó los resultados de una encuesta que indagó en las expectativas y desafíos vinculados a la integración de la inteligencia artificial generativa (GenAI) en los sistemas de descubrimiento bibliográfico a gran escala

.

El resultado clave destaca la complejidad de adaptar la IA generativa en las herramientas de descubrimiento de bibliotecas, tal como expresó Ken Varnum, copresidente del comité ODI, señalando la multiplicidad de variables técnicas, éticas y operativas que involucra dicha incorporación .

La encuesta —lanzada en otoño de 2024 y cerrada el 31 de octubre de ese año— fue diseñada para recopilar insights de proveedores de discovery, entidades de contenido y bibliotecas, con el fin de orientar el trabajo futuro del comité en términos de estándares y buenas prácticas

Resultados clave:

  • Preocupación generalizada por la precisión de GenAI: Muchos participantes expresaron inquietud sobre la posibilidad de que GenAI proporcione respuestas inexactas o engañosas en contextos académicos y de investigación.
  • Fuerte interés en el potencial de GenAI: A pesar de las preocupaciones, se reconoce que GenAI podría mejorar la experiencia de búsqueda, generar resúmenes automáticos, responder a preguntas complejas y ofrecer interfaces más intuitivas.
  • Dudas sobre la transparencia algorítmica: Bibliotecas y proveedores demandan mayor claridad sobre cómo GenAI genera sus respuestas y qué fuentes utiliza, para garantizar la confiabilidad y evitar sesgos.
  • Desigual nivel de preparación: Algunas bibliotecas ya están explorando activamente la integración de GenAI, mientras que otras aún no lo consideran una prioridad o carecen de recursos y conocimientos técnicos para hacerlo.
  • Preocupación por la autoría y propiedad intelectual: Se identifican vacíos en torno a quién es responsable del contenido generado por IA, especialmente en servicios que entregan resultados textuales o recomendaciones automáticas.
  • Necesidad urgente de normas y buenas prácticas: Los encuestados coinciden en que se requieren marcos normativos, principios éticos y pautas técnicas claras para integrar GenAI en entornos bibliotecarios sin comprometer la calidad ni la integridad académica.
  • Riesgo de opacidad en los sistemas de descubrimiento: Se teme que al incorporar GenAI sin transparencia, los sistemas de descubrimie

Actualmente, el comité ya está preparando un white paper con recomendaciones basadas en los resultados de la encuesta. Este informe se encuentra en las etapas finales de edición y será presentado próximamente al Comité Temático de Intercambio e Interoperación de Información (IDI)

Profesiones en alto riesgo de sustitución con el avance de la Inteligencia Artificial

Melo, M. Floencia. Las profesiones en alerta roja por el avance de la IA: análisis basado en más de 200,000 conversaciones entre usuarios estadounidenses y Microsoft Copilot en 2024. Visualización: Statista.

Texto completo

Aunque no se prevé una eliminación inmediata de las profesiones con mayor porcentaje de tareas automatizables, el informe anticipa una transformación profunda en la naturaleza de estos trabajos. Los perfiles más expuestos a la inteligencia artificial —como traductores, correctores, escritores o matemáticos— no desaparecerán por completo, pero sí experimentarán un desplazamiento hacia funciones nuevas.

En el centro del análisis de Microsoft Research, basado en más de 200 000 interacciones con su herramienta Copilot, se destaca cómo la inteligencia artificial ya demuestra una capacidad muy elevada para llevar a cabo tareas laborales de alta complejidad en ciertas profesiones. Encabezando la lista, los intérpretes y traductores muestran un potencial de automatización del 98% de sus tareas, mientras que historiadores, correctores de textos y matemáticos presentan un porcentaje igualmente alto, en torno al 91%

Si bien esto no implica la eliminación inmediata de estos trabajos, sí anticipa una transformación profunda de roles, donde los profesionales podrían desplazarse hacia funciones más críticas, como la supervisión, revisión o integración de contenidos generados por la IA. Por ejemplo, un corrector tradicional podría convertirse en un editor especializado en IA, y un traductor podría centrarse en curar matices culturales o contextuales que los modelos aún no captan

Datos clave y observaciones

  • Intérpretes y traductores lideran la lista con un sorprendente 98%, lo que indica que gran parte de sus tareas pueden ser sustituidas por IA, gracias al desarrollo de herramientas avanzadas de traducción automática como DeepL o Google Translate, y modelos como GPT-4.
  • Profesiones ligadas al análisis de datos y lenguaje (historiadores, correctores, escritores, matemáticos) también se sitúan en la zona crítica, con un 91% o más de tareas automatizables. Esto pone de manifiesto que la IA no solo reemplaza tareas repetitivas, sino también funciones intelectuales y creativas.
  • Incluso campos técnicos y manuales, como la programación de máquinas CNC, presentan un alto grado de automatización potencial (90%), lo que sugiere una expansión de la IA más allá del trabajo de oficina.
  • Profesiones con fuerte componente comunicacional y analítico como representantes de ventas y asistentes estadísticos también muestran vulnerabilidad, con un 84–85%.

A pesar de esto, la automatización no se limitaría a tareas mecánicas o repetitivas; también afecta funciones intelectuales antes consideradas exclusivas del intelecto humano—como el análisis, la redacción o la interpretación de datos. Este escenario subraya la necesidad de potenciar habilidades blandas, pensamiento estratégico y creatividad, las cuales siguen escapando a la capacidad de los algoritmos

Además, casi todas las profesiones —incluidas aquellas que parecen menos vulnerables— poseen cierto grado de potencial para colaboración con IA. Esto sugiere una reconversión global, donde lo relevante deja de ser si una tarea puede automatizarse, para enfocarse en qué tareas deben continuar siendo asumidas por el ser humano

La apuesta de Zuckerberg: hacia una superinteligencia personal que transforme nuestra vida (y el negocio de Meta)

Zuckerberg, M. (2025). Personal Superintelligence. Meta. https://www.meta.com/superintelligence/

Mark Zuckerberg ha presentado recientemente una visión ambiciosa y polémica: construir una «superinteligencia personal», una inteligencia artificial que no solo sea más inteligente que los humanos, sino que esté profundamente personalizada para cada usuario.

Mark Zuckerberg está apostando el futuro de Meta —y buena parte de su capital— a la creación de una inteligencia artificial que transforme la relación entre las personas y la tecnología. Esta “superinteligencia personal” promete eficiencia, libertad y una nueva era de experiencias asistidas por IA. Pero también plantea interrogantes críticos sobre la economía de la atención, la privacidad, el modelo de negocio y los riesgos éticos que supone poner un asistente todopoderoso en manos de una compañía con intereses comerciales tan potentes como Meta.

Esta idea fue expuesta tanto en su carta pública titulada Personal Superintelligence (Meta, julio de 2025) como durante la presentación de resultados del segundo trimestre de Meta, donde también se destacó un crecimiento récord de ingresos, impulsado por mejoras en productos gracias a la IA.

En su manifiesto, Zuckerberg describe esta superinteligencia como un asistente que gestionará prácticamente todos los aspectos de la vida diaria del usuario: desde la organización de tareas hasta la creatividad personal, pasando por relaciones sociales, entretenimiento y desarrollo personal. El objetivo declarado es liberar a las personas del tiempo que pasan frente a las pantallas y permitir que vivan experiencias más ricas con la ayuda de interfaces más naturales, como gafas inteligentes. Meta ya ha dado pasos significativos en esa dirección con la popularización de sus gafas Ray-Ban con IA, cuyas ventas se triplicaron en el último año.

Zuckerberg subraya que la ventaja competitiva de Meta reside en su escala: la posibilidad de entrenar sistemas con datos procedentes de miles de millones de usuarios. Esto permitiría crear AIs altamente personalizadas y eficientes, que vayan mucho más allá de los chatbots actuales. En paralelo, Meta ha abierto sus modelos LLaMA 3, lo que fortalece su imagen como impulsora del desarrollo de IA abierta, aunque persisten dudas sobre cuán abierta es realmente esta apertura.

Sin embargo, esta visión no está exenta de tensiones ni contradicciones. Mientras Zuckerberg promete un futuro en el que pasamos menos tiempo frente a pantallas, los propios informes financieros muestran que las mejoras en IA han llevado a un aumento del 5–6% en el tiempo que los usuarios pasan en Facebook e Instagram. Es decir, la IA actual de Meta está siendo usada principalmente para captar atención, no para liberarla. A esto se suma la paradoja de que, si los usuarios pasan menos tiempo en las plataformas, el modelo de negocio basado en publicidad se vuelve menos rentable. Una posible solución sería migrar hacia un sistema de comisiones por transacciones realizadas mediante IA, similar al modelo que Sam Altman propone para ChatGPT.

Además, el término “superinteligencia” ha sido históricamente asociado a advertencias sobre riesgos existenciales. Aunque Zuckerberg matiza que el problema no está en la inteligencia en sí, sino en su mal uso, su visión entra en territorio delicado: el de delegar a una IA decisiones íntimas, emocionales y éticas. La confianza del usuario en Meta será clave para que esta propuesta tenga éxito, y esa confianza, históricamente, ha sido frágil debido a los escándalos de privacidad y manipulación algorítmica.

Más información

Wired. Mark Zuckerberg Details Meta’s Plan for Self-Improving, Superintelligent AI. https://www.wired.com/story/meta-earnings-superintelligence-q2-2025/

Mashable. Zuck outlines Meta’s vision for AI ‘personal superintelligence’. https://mashable.com/article/mark-zuckerberg-outlines-metas-vision-ai-personal-superintelligence

Business Insider. Mark Zuckerberg just shared his vision for ‘personal superintelligence’. https://www.businessinsider.com/mark-zuckerberg-meta-personal-superintelligence-ai-letter-meta-2025-7

The Neuron. Mark releases his vision for “personal superintelligence”. Via The AI Report. 31 de julio de 2025.

Uso de inteligencia artificial generativa (GenAI) en la educación superior

Peters Hinton, V.; Choi, Y. H., PhD; Kataria, R. (31 de julio de 2025). Surveying the AI Landscape: Emerging Patterns in Higher Education Research. Digital Promise.

Texto completo

Digital Promise ha analizado más de 300 investigaciones publicadas entre 2022 y 2025 sobre el uso de inteligencia artificial generativa (GenAI) en la educación superior. El enfoque incluye investigaciones experimentales, descrip­tivas y artículos de opinión que exploran cómo se interpretan, adoptan y evalúan estas tecnologías en distintas instituciones educativas

El corpus de estudios tiene una representación global marcada, con concentraciones en EE. UU., Australia, Reino Unido y China. Aunque ChatGPT domina la mayoría de estudios, muchos trabajos carecen de detalles sobre la versión del modelo y su configuración, lo que dificulta la reproducibilidad y comparación entre estudios.

Las áreas más estudiadas están relacionadas con apoyo a la escritura, evaluación automatizada y retroalimentación personalizada. Sin embargo, emergen nuevas aplicaciones innovadoras como:

  • Paneles de control para evaluar vulnerabilidades curriculares frente al uso indebido de GenAI.
  • Agentes conversacionales simulados que generan retroalimentación emocionalmente rica.
  • Herramientas que facilitan el aprendizaje autorregulado mediante monitoreo, planificación y reflexión guiada.
  • Uso de GenAI en el desarrollo profesional de docentes, incluyendo planificación de lecciones y prácticas pedagógicas reflexivas

Se evidencia una falta considerable de transparencia sobre las versiones de los modelos utilizados y cómo se implementaron. También hay escasez de estudios longitudinales o experimentales rigurosos. Además, temas críticos como sesgo algorítmico, privacidad de datos y equidad en el uso de tecnología están relativamente poco explorados hasta ahora.

El estudio ofrece una visión panorámica sobre cómo la inteligencia artificial generativa está comenzando a transformar la educación superior. Aunque su integración todavía está en fase experimental y desigual según disciplinas e instituciones, ya se observan aplicaciones prometedoras y una necesidad urgente de mejorar la transparencia, rigurosidad y equidad en la investigación.

¡La IA revoluciona las bibliotecas! catalogar libros puede ser ahora 183 veces más rápido (y 64 veces más barato)

Chisaba‑Pereira, Cristian‑Alejandro; Herrera‑Calero, Ricardo; Niño‑Neira, Saúl‑Alejandro; Hurtado‑Ortiz, Britney‑Alejandra. Datalogación: evaluación de herramientas de inteligencia artificial basadas en el Modelo Extenso de Lenguaje (Large Language Model) para la automatización de la descripción de libros.” Infonomy 3, no. 4 (18 julio 2025). Accedido 31 julio 2025.

Texto completo

La catalogación bibliotecaria ha sido históricamente uno de los procesos más importantes y laboriosos en las bibliotecas, permitiendo describir y organizar el conjunto de obras y recursos que se evidencian en catálogos, índices, directorios y tesauros. Con el surgimiento de la inteligencia artificial y específicamente de los Modelos Extensos de Lenguaje (Large Language Models), surge la oportunidad de transformar radicalmente estos procesos tradicionales, generando tanto oportunidades como desafíos significativos para la profesión bibliotecológica.

La catalogación tradicional de libros representa un proceso complejo y laborioso que requiere que los bibliotecarios analicen minuciosamente cada documento para crear registros bibliográficos detallados y precisos. En este contexto, la catalogación automatizada ha emergido como una solución tecnológica prometedora. En la catalogación automatizada se utiliza el ISBN del libro o ISSN de la revista para hacer la búsqueda y se incorpora la información obtenida en la ficha del libro.

Los Modelos de Lenguaje Extenso (Large Language Models) han abierto nuevas posibilidades en el ámbito bibliotecario, particularmente en la generación automatizada de descripciones y metadatos de libros. Estos sistemas de inteligencia artificial tienen la capacidad de procesar y analizar grandes volúmenes de texto de manera simultánea, extrayendo información relevante como resúmenes del contenido, palabras clave temáticas, clasificación por materias e información bibliográfica estructurada. La aplicación de estos modelos permite no solo acelerar el proceso de catalogación, sino también mantener un nivel de consistencia y precisión que puede ser difícil de lograr mediante procesos completamente manuales.

La implementación de sistemas automatizados en bibliotecas ofrece beneficios significativos en términos de eficiencia y calidad. La automatización de bibliotecas permite reducir los errores tanto en la catalogación como en la clasificación de los materiales, mediante el uso de sistemas informáticos que faciliten y optimicen estos procesos. Esta reducción de errores es particularmente importante considerando el volumen creciente de material bibliográfico que las bibliotecas modernas deben procesar y mantener actualizado.

Utilizando cinco libros seleccionados por el sistema bibliotecario de la Universidad Distrital Francisco José de Caldas, los autores analizaron el rendimiento de estas herramientas en términos de tiempo, costos, calidad y volumen de catálogo. La investigación implementó una metodología comparativa rigurosa para evaluar el desempeño de cuatro herramientas de inteligencia artificial basadas en Large Language Models versus el trabajo de un catalogador humano experto. Las herramientas evaluadas fueron ChatGPT 3.5, ChatGPT 4.0, Gemini de Google y Copilot de Microsoft. La selección de libros para el análisis incluyó tres bestsellers: «1984» de George Orwell, «Cien años de soledad» de Gabriel García Márquez, y «Macroeconomics» de Andrew B. Abel; además de dos obras frontlist publicadas en 2024: «En agosto nos vemos» de Gabriel García Márquez y «Piedra, ficción, memoria: Etnografías del lugar memorativo» de Adrián Serna Dimas.

El análisis se realizó desde tres perspectivas fundamentales: tiempo de catalogación, costos asociados y calidad de la descripción bibliográfica. Para la evaluación de calidad se utilizó el estándar Resource Description and Access (RDA) con nivel de descripción 1, que incluye áreas como título y subtítulo, edición, pie de imprenta, descripción física y número normalizado ISBN. Las pruebas se realizaron utilizando el software ALEPH500 con protocolo MARC21, asegurando la comparabilidad y estandarización de los resultados.

Los resultados obtenidos revelan diferencias dramáticas entre el desempeño humano y el de las herramientas de inteligencia artificial: los modelos automatizados catalogaron 183 veces más rápido que una persona, pudieron catalogar 187 veces más libros y el costo salarial estimado para un catalogador humano resultó ser 64 veces mayor que el uso de IA. En términos de tiempo, el catalogador humano requirió un promedio de 24 minutos y 51 segundos para completar la descripción de cada libro, incluyendo tiempo de descripción (15:23 minutos) y tiempo de transcripción (09:28 minutos). En contraste, los aplicativos de IA completaron la misma tarea en un promedio de apenas 8 segundos, lo que representa que la catalogación asistida por IA es 183 veces más rápida que la realizada por una persona.

En cuanto a la cantidad de campos descritos, el catalogador humano generó un promedio de 55 campos MARC21 por obra, mientras que las herramientas de IA produjeron un promedio de 21 campos. Esta diferencia significativa refleja la capacidad del experto humano para aplicar criterios profesionales, normas de catalogación y estándares de calidad que las IA aún no logran replicar completamente. Sin embargo, los campos generados por las IA mostraron coherencia y utilidad práctica para procesos de catalogación básica.

El análisis económico presenta resultados igualmente impactantes. El costo de catalogación por libro realizada por el catalogador humano se calculó en 14.275 pesos colombianos (aproximadamente 3.36 USD), mientras que el uso de IA representa un costo prácticamente nulo cuando se utilizan versiones gratuitas, o significativamente menor cuando se considera el costo de suscripción. A nivel anual, el salario del catalogador representa 65.761.896 pesos colombianos versus 1.020.516 pesos colombianos para el uso de IA, lo que significa que el costo de catalogación humana es 64 veces más elevado.

Entre las herramientas evaluadas, ChatGPT en sus versiones 3.5 y 4.0 mostró el mejor desempeño, proporcionando resultados más precisos y aplicables al ejercicio de catalogación. ChatGPT 4.0 se identificó como la herramienta más idónea al momento de la investigación. Copilot también demostró capacidades satisfactorias para generar texto plano utilizable en editores de registros MARC21. En contraste, Gemini presentó limitaciones significativas, entregando resultados menos favorables al explicar cada etiqueta MARC21 en lugar de proporcionar código MARC21 completo en texto plano.

La investigación proyecta que un catalogador humano trabajando 2.080 horas anuales (40 horas semanales) podría catalogar aproximadamente 4.992 libros por año. En contraste, las herramientas de IA podrían procesar hasta 936.000 libros en el mismo período, representando una capacidad 187 veces superior. Estos números ilustran el potencial transformador de la tecnología para abordar los desafíos de procesamiento masivo de colecciones bibliográficas que enfrentan las bibliotecas modernas.

Esto demuestra una extraordinaria eficiencia operativa a favor de los sistemas automatizados, abriendo posibilidades para escalar los procesos bibliográficos en contextos con recursos limitados.

En cuanto a la calidad de la descripción, si bien las herramientas LLM presentaron resultados rápidos y voluminosos, los autores reconocieron la necesidad de supervisión para garantizar la precisión y la coherencia de los datos generados. Si bien se observa que los modelos pueden replicar adecuadamente los formatos bibliográficos, aún existe un margen de error en aspectos como las atribuciones, los metadatos específicos y la coherencia editorial, especialmente en la cobertura de las primeras publicaciones o en títulos recientes. Los datos bibliográficos de libros recientes, novedades editoriales o frontlist frecuentemente son inventados por las IA o presentan errores significativos. Esto sugiere que las IA tienen limitaciones en el acceso a información bibliográfica actualizada y pueden generar datos ficticios cuando no tienen acceso a información precisa.

Las herramientas también muestran variabilidad en la capacidad de integrar estándares y normas de catalogación profesional. Mientras pueden acelerar procesos y facilitar la cantidad de registros, generan dudas sobre la calidad y coherencia de los datos bibliográficos producidos, especialmente en comparación con el trabajo realizado por profesionales que comprenden completamente las reglas de catalogación, normas y estándares especializados.

El estudio concluye que estas tecnologías representan una oportunidad significativa para transformar los procesos de catalogación en bibliotecas y sistemas de información. Sin embargo, es importante tener en cuenta que su adopción requiere una implementación responsable, con estrategias que incluyan supervisión humana, validación de metadatos y procedimientos claros para la corrección de errores. Solo así se podrá aprovechar su potencial sin comprometer la integridad de la información bibliográfica.

La inteligencia artificial en las bibliotecas universitarias: una encuesta sobre la percepción y la adopción por parte de los usuarios

Haris, Mohammad, Anam Jamal Ansari, Basharat Ahmad Malik, y Brady D. Lund. 2024. “Artificial Intelligence in Academic Libraries: A Survey of Users’ Perception and Adoption.” Global Knowledge, Memory and Communication, publicado en línea el 17 de junio de 2024. https://doi.org/10.1108/GKMC-09-2024-0585.

Este estudio analiza la percepción y la adopción de la inteligencia artificial (IA) en bibliotecas académicas desde el punto de vista de los usuarios, en un momento de creciente digitalización e innovación tecnológica en el entorno universitario.

Los autores reconocen que la IA tiene el potencial de transformar los servicios bibliotecarios al optimizar procesos como la recuperación de información, la atención al usuario y la gestión de recursos. El artículo parte del reconocimiento de que, aunque muchas bibliotecas están empezando a implementar herramientas basadas en IA, falta aún una comprensión clara de cómo los usuarios —los principales beneficiarios— perciben y utilizan estas tecnologías.

La investigación se basa en una encuesta aplicada a usuarios de bibliotecas universitarias en la India, centrada en cuatro dimensiones: conocimiento general sobre IA, experiencias previas de uso, percepción del impacto potencial de la IA en los servicios bibliotecarios y disposición a adoptar estas tecnologías. Se utilizaron métodos cuantitativos y análisis estadístico descriptivo para interpretar los datos. El estudio recoge 302 respuestas válidas, de las cuales la mayoría corresponden a estudiantes universitarios, seguidos por docentes e investigadores. Esta muestra proporciona una visión amplia de las expectativas y reservas que existen en el entorno académico indio con respecto a la adopción de la IA en bibliotecas.

Los resultados muestran que, si bien muchos usuarios están familiarizados con el concepto general de IA, el conocimiento específico de sus aplicaciones en bibliotecas es limitado. Sin embargo, los encuestados expresan una actitud positiva hacia su implementación. Los usuarios consideran que la IA puede mejorar significativamente servicios como la catalogación automática, los sistemas de referencia virtual, la recomendación personalizada de lecturas y la gestión de datos. Al mismo tiempo, se detectan preocupaciones éticas y prácticas, como la posibilidad de sesgos algorítmicos, la pérdida de empleos bibliotecarios tradicionales y la necesidad urgente de formación profesional para un uso eficaz de estas herramientas.

Resultados clave

1. Conocimiento general de la IA:

  • La mayoría de los encuestados (usuarios de bibliotecas académicas en la India) están familiarizados con el concepto general de inteligencia artificial.
  • Sin embargo, el conocimiento específico sobre la aplicación de la IA en bibliotecas es limitado.

2. Actitud positiva hacia la IA:

  • Los usuarios tienen una percepción mayoritariamente favorable hacia la integración de la IA en los servicios bibliotecarios.
  • Consideran que la IA puede mejorar la eficiencia, la personalización y la accesibilidad de los servicios.

3. Aplicaciones percibidas como más útiles:

  • Recomendación personalizada de libros y recursos.
  • Sistemas de referencia virtual y chatbots.
  • Clasificación automática y organización de materiales.
  • Mejora de la búsqueda de información mediante procesamiento de lenguaje natural.
  • Análisis de datos de usuarios para mejorar decisiones bibliotecarias.

4. Barreras identificadas para la adopción:

  • Falta de conocimiento técnico y formación adecuada entre bibliotecarios y usuarios.
  • Preocupaciones sobre la privacidad de los datos.
  • Temor a la pérdida de empleos o deshumanización del servicio bibliotecario.
  • Ausencia de infraestructura tecnológica avanzada en muchas bibliotecas.

5. Necesidad de formación:

  • Los usuarios consideran esencial la capacitación en IA para poder utilizar eficazmente estas tecnologías.
  • Se propone que las bibliotecas lideren programas de formación técnica y ética sobre IA.

6. Diferencias por perfil del usuario:

  • Los docentes e investigadores tienen una actitud ligeramente más favorable hacia la IA que los estudiantes.
  • Los usuarios con mayor exposición previa a herramientas de IA (fuera del ámbito bibliotecario) tienen mayor disposición a adoptarlas dentro de las bibliotecas.

7. Alta predisposición a la adopción futura:

  • A pesar de las limitaciones actuales, una mayoría significativa de encuestados afirma que estarían dispuestos a utilizar servicios bibliotecarios basados en IA si se implementan de forma ética, clara y accesible.

8. Importancia de las políticas institucionales:

  • El estudio subraya la necesidad de establecer marcos éticos y normativos para guiar la integración de la IA en bibliotecas académicas.

Una de las principales aportaciones del estudio es su énfasis en la importancia de la alfabetización digital y la capacitación en inteligencia artificial tanto para usuarios como para bibliotecarios. Los autores destacan que el éxito de la implantación de tecnologías de IA no depende únicamente de las herramientas disponibles, sino de la preparación y actitud de quienes las utilizan. Además, el artículo recomienda que las bibliotecas elaboren políticas institucionales claras sobre el uso ético y transparente de la IA, que refuercen la confianza de los usuarios y garanticen el respeto a los principios de privacidad y equidad.

Finalmente, los autores concluyen que existe un alto potencial para la adopción de la IA en bibliotecas universitarias, pero que esta transformación debe ser guiada por estrategias reflexivas y colaborativas. Se recomienda una combinación de inversión en infraestructura tecnológica, desarrollo profesional del personal bibliotecario y campañas de sensibilización dirigidas a los usuarios. El estudio aporta una valiosa base empírica para futuras investigaciones sobre IA en bibliotecas en contextos similares y sugiere líneas de acción para una implementación responsable, centrada en las necesidades reales de la comunidad académica.

Estrategia de Estados Unidos frente al avance global de la inteligencia artificial (IA)

The Median. “Action or Overthinking? The U.S. Plans Ahead for AI.dc: The Median (Substack), julio 2025. Consultado el 30 de julio de 2025. https://dcthemedian.substack.com/p/action-or-overthinking-the-us-plans.

El artículo examina la estrategia de Estados Unidos frente al avance global de la inteligencia artificial (IA), especialmente ante la presión de mantenerse competitivo frente a potencias como China. Desde la perspectiva del autor, el gobierno estadounidense se enfrenta a una disyuntiva entre actuar con rapidez o caer en la trampa del exceso de análisis y planificación. La pregunta de fondo es si EE. UU. está liderando el futuro de la IA o simplemente intentando alcanzarlo con marcos de política pública que podrían volverse obsoletos antes de ser implementados.

Uno de los principales enfoques del texto es la necesidad de que las políticas públicas no solo reaccionen, sino que se anticipen a las transformaciones radicales que está generando la IA. El artículo destaca los intentos de la administración estadounidense por establecer regulaciones, guías éticas y marcos normativos. No obstante, el autor plantea que estas medidas, aunque bien intencionadas, pueden llegar tarde o ser demasiado genéricas si no se basan en un conocimiento técnico profundo y en una colaboración efectiva entre gobierno, academia e industria.

El texto también subraya el contraste entre diferentes modelos de gobernanza de la IA: mientras Estados Unidos apuesta por una regulación flexible, Europa prioriza el control normativo y la protección de derechos, y China sigue una vía centrada en el uso estratégico estatal. Esta comparación revela que la velocidad y la dirección de la política tecnológica pueden marcar diferencias significativas en la posición global de cada país.

Finalmente, el autor concluye que Estados Unidos debe asumir un enfoque más dinámico, con marcos normativos adaptables que no obstaculicen la innovación, pero que tampoco ignoren los riesgos sociales, éticos y económicos asociados al avance de la inteligencia artificial. Es necesario actuar con visión de futuro, pero sin caer en la parálisis por análisis.