La IA en las publicaciones académicas: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación

Gao, Wenli, Guoying Liu, Michael Bailou Huang, y Hong Yao. “AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and Policies.” International Journal of Librarianship 10, no. 2 (2025): 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se examina cómo las revistas de biblioteconomía e información científica (LIS) han adoptado y regulado el uso de la inteligencia artificial generativa, especialmente herramientas como ChatGPT, dentro del contexto de la publicación académica

En primer lugar, los autores describen numerosos beneficios potenciales de ChatGPT para el ámbito editorial: facilita a los autores la redacción, puede asistir en la generación de resúmenes, sintetizar información compleja y, en general, optimizar varios aspectos del proceso de publicación. No obstante, advierten que esta tecnología representa una innovación disruptiva que podría transformar profundamente la academia y la comunicación científica.

A pesar de sus ventajas, el artículo destaca importantes desafíos éticos. Una de las principales preocupaciones es la autoría: el uso de ChatGPT genera dudas sobre quién es realmente el autor del contenido —el humano que lo solicitó o la IA que lo generó— y sobre cómo atribuir correctamente el crédito. demás, señalan problemas relacionados con el derecho de autor: el modelo puede usar contenido protegido sin citar adecuadamente, ya sea en forma de citas, datos, ideas, métodos o gráficos, lo que podría derivar en plagio, incluso cuando el texto se paraprasea.

Frente a estos retos, los autores argumentan que es fundamental evaluar el nivel de transparencia con que se está integrando la IA generativa en las prácticas editoriales. Recomiendan que las revistas establezcan políticas claras que regulen su uso, especialmente en lo referido a atribución, transparencia y salvaguarda de la originalidad del trabajo científico.

Los detectores de escritura realizada por IA actuales no son fiables en escenarios prácticos

Sadasivan, Vinu Sankar, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, y Soheil Feizi. “Can AI-Generated Text be Reliably Detected?arXiv, marzo 17, 2023. https://doi.org/10.48550/arXiv.2303.11156

Investigadores de la Universidad de Maryland, liderados por Soheil Feizi, profesor asistente de informática, han evaluado la fiabilidad de los detectores de contenido generado por inteligencia artificial (IA). Su conclusión es clara: los detectores actuales no son fiables en escenarios prácticos. Feizi señala que herramientas comunes como paráfrasis pueden reducir la precisión de detección a niveles similares a una simple moneda al aire.

Feizi distingue dos tipos de errores de detección: tipo I, cuando un texto humano es marcado como generado por IA, y tipo II, cuando un texto de IA pasa como humano. Ambos presentan graves implicaciones, especialmente en contextos académicos y editoriales, donde errores pueden arruinar reputaciones y ser extremadamente difíciles de refutar.

Adicionalmente, incluso los métodos basados en marcas digitales (watermarking), teóricamente diseñados para identificar contenido de IA, pueden ser vulnerables a ataques de suplantación. El investigador advierte que dichas fallas podrían socavar la credibilidad de los mecanismos de autenticación digital.

Soheil Feizi explica que, en la práctica, dada la semejanza en la distribución de estilos entre textos humanos y generados por IA —y la sofisticación creciente de las técnicas de engaño—, es “teóricamente imposible” distinguir con certeza absoluta el origen de un texto.

Por otro lado, Furong Huang, también profesora asistente en la Universidad de Maryland, adopta una posición más optimista. Ella sostiene que los modelos de detección podrían mejorar si se dispone de una gran cantidad de ejemplos genuinos de escritura humana para su entrenamiento. Es decir, la clave para refinar estas herramientas sería el acceso a más y mejores datos.

El 71% de los estadounidenses teme que la IA provoque una pérdida permanente de empleos

Reuters. “Americans Fear AI Permanently Displacing Workers, Reuters/Ipsos Poll Finds.” Reuters, August 20, 2025. https://www.reuters.com/world/us/americans-fear-ai-permanently-displacing-workers-reutersipsos-poll-finds-2025-08-19/

En EE. UU., una nueva encuesta realizada por Reuters/Ipsos entre adultos estadounidenses revela una profunda inquietud respecto al impacto de la inteligencia artificial (IA) en el empleo: el 71 % de los encuestados teme que la IA cause una pérdida permanente de trabajos.

Más allá del empleo, los ciudadanos expresan otras temores relacionados con la IA. El 77 % se muestra preocupado por su posible uso para provocar caos político, como la creación de videos falsos ultrarrealistas —por ejemplo, un video falso creado por IA que mostró a Barack Obama siendo arrestado— Además, el 48 % se opone a que la IA sea usada para determinar blancos en ataques militares, mientras que solo el 24 % lo aprueba; el resto no está seguro.

El encendido debate sobre la IA coincide con un nivel de desempleo todavía relativamente bajo —4,2 % en julio de 2025—, lo que sugiere que aún no se ha materializado una pérdida masiva de empleos, aunque el cambio en la naturaleza del trabajo ya preocupa.

Otros aspectos destacados del sondeo incluyen: el 61 % de los estadounidenses teme el elevado consumo eléctrico vinculado a los centros de datos de IA; existe preocupación por aplicaciones nocivas como bots que sostienen conversaciones romantizadas con menores, generación de información médica falsa o discursos racistas; dos tercios temen que la gente llegue a preferir compañías de IA en lugar de relaciones humanas, y sobre la educación, el 36 % piensa que la IA puede ayudar, el 40 % no lo cree así, y el resto está indeciso.

La encuesta se realizó en línea durante seis días, concluyendo el lunes anterior a su publicación, abarcó 4 446 adultos estadounidenses y tiene un margen de error aproximado del 2 puntos porcentuales.

Perplexity AI compartirá los ingresos por búsquedas con los editores

Perplexity AI to Share Search Revenue with Publishers.Tech Xplore, 27 de agosto de 2025. https://techxplore.com/news/2025-08-perplexity-ai-revenue-publishers.html

Perplexity AI implementará un novedoso modelo de reparto de ingresos, mediante el cual comenzará a pagar a los medios de comunicación cuyas publicaciones sean utilizadas por su navegador o asistente de IA para responder consultas de usuario.

Como parte de este enfoque, la empresa ha reservado un fondo inicial de 42,5 millones de dólares que se destinará a compensar a los editores cuyas páginas web sean visitadas o citadas, o cuyos contenidos sean utilizados por agentes inteligentes de IA.

Este modelo se sostiene gracias a una nueva suscripción llamada Comet Plus, con un costo mensual de 5 dólares, que también estará incluida en los planes Pro y Max de Perplexity

La estructura de reparto de ingresos es clara: el 80 % de los ingresos de Comet Plus irá directamente a los editores, mientras que el 20 % restante cubrirá los costes de computación necesarios para mantener la infraestructura IA

Además, el sistema de distribución de los fondos se basa en tres tipos de interacciones generadas por la IA: visitas humanas, citas en búsquedas de IA y acciones realizadas por agentes.

Este anuncio llega en un contexto de crecientes tensiones entre las empresas de inteligencia artificial y los medios, muchos de los cuales acusan a los sistemas de IA de consumir contenido sin remunerar a sus creadores ni generar tráfico real a sus sitios web

La introducción de Comet Plus parece ser una respuesta concreta a estas preocupaciones, además de una estrategia para fomentar la colaboración en lugar de enfrentamientos legales

Declaración de la IFLA sobre los contratos digitales restrictivos a los derechos y funciones esenciales de las bibliotecas.

International Federation of Library Associations and Institutions (IFLA). Time to Stop the Undermining of Library Rights: IFLA Statement on Contract Override. 28 de agosto de 2025. https://www.ifla.org/news/time-to-stop-the-undermining-of-library-rights-ifla-statement-on-contract-override/

La Federación Internacional de Asociaciones e Instituciones Bibliotecarias (IFLA) emite un comunicado urgente sobre cómo ciertos contratos y licencias digitales están socavando los derechos y funciones esenciales de las bibliotecas.

Según la IFLA, estos acuerdos, muchas veces impuestos por editores o proveedores de contenidos digitales, limitan la capacidad de las bibliotecas para prestar, preservar, compartir y enseñar con los materiales digitales, lo que pone en riesgo su misión social y educativa.

El comunicado señala que las licencias restrictivas y las medidas de gestión de derechos digitales (DRM) pueden impedir incluso usos legítimos de los materiales protegidos por derechos de autor, como la copia para preservación, préstamo interbibliotecario o acceso a personas con discapacidad. Estas limitaciones contravienen el espíritu de las excepciones y limitaciones legales al derecho de autor, diseñadas para garantizar el acceso equitativo a la información y la educación.

La IFLA hace una llamada a la acción a gobiernos, editores y bibliotecas para que protejan los derechos de las bibliotecas y defiendan las excepciones y limitaciones al copyright. Esto incluye negociar contratos que respeten los derechos de las bibliotecas, promover transparencia en los términos de licencias digitales y asegurar que las bibliotecas puedan cumplir sus funciones de preservación cultural y acceso público a la información. Además, la organización subraya que la protección tecnológica no debe impedir el uso legítimo de los materiales, y que las políticas de acceso deben equilibrar los intereses comerciales con los derechos educativos y sociales de la comunidad.

En síntesis, la declaración de la IFLA enfatiza que las bibliotecas no solo son centros de préstamo de materiales, sino guardianes del acceso al conocimiento, la educación y la cultura, y que los contratos digitales restrictivos representan una amenaza significativa a esta función. La organización insta a todos los actores involucrados a garantizar que los acuerdos tecnológicos no anulen los derechos fundamentales de las bibliotecas.

Despidos de catalogadores y calidad de los metadatos generados por IA en bibliotecas

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism

A través de ejemplos como los 80 despidos en OCLC y la eliminación de 425 puestos en la Universidad Northwestern, se destaca cómo la reducción de personal especializado en catalogación afecta negativamente la calidad de los metadatos y la accesibilidad de las colecciones.

Los recientes despidos en OCLC, la organización sin fines de lucro con sede en Dublín, Ohio, que administra el Sistema Decimal Dewey y WorldCat, ofrecen una visión clara del futuro precario del trabajo en bibliotecas y gestión de información. En julio de 2025, OCLC confirmó la reducción de aproximadamente 80 puestos en su fuerza laboral de Ohio central, citando “cambios en los requisitos de habilidades técnicas, creciente influencia de la inteligencia artificial y cambios continuos en la educación superior y las bibliotecas”.

Mientras OCLC cita la IA como justificación para los recortes de personal, también ha anunciado que está desarrollando herramientas de IA para el procesamiento de metadatos. Aquí radica la paradoja de nuestra época: los mismos avances tecnológicos que se celebran por su eficiencia están eliminando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

El trabajo en bibliotecas ejemplifica lo que Maurizio Lazzarato identifica como “trabajo inmaterial”: un trabajo que produce contenido informativo y estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados.

La desvalorización de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante recortes presupuestarios. El anuncio de despidos en la Universidad Northwestern, que afectó a 425 puestos, incluyó a Violet Fox, una de las voces principales en catalogación crítica y creadora del Cataloging Lab. El despido de Fox es particularmente significativo: su trabajo en prácticas de descripción reparativa ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad y no términos genéricos de proveedores, haciendo que las colecciones sean accesibles y manteniendo la calidad de los metadatos que permite la investigación académica.

La promesa de la IA en catalogación es seductora: procesamiento más rápido, reducción del trabajo manual, liberando a los trabajadores para tareas “más importantes”. Sin embargo, experimentos recientes de la Biblioteca del Congreso muestran que los modelos de lenguaje grande obtuvieron solo un 26% de F1 al predecir encabezamientos de la Biblioteca del Congreso, y los modelos de clasificación de materias solo un 35% de precisión. Esto revela un cambio fundamental en el trabajo de catalogación: los catalogadores ahora se concentran en entrenar, evaluar y curar resultados algorítmicos, proporcionando retroalimentación para sistemas incapaces de replicar la experiencia humana, el conocimiento cultural y la comprensión contextual necesarios para metadatos de calidad.

Olson argumenta que la automatización, en lugar de mejorar la eficiencia, está desplazando la experiencia humana necesaria para crear metadatos precisos y culturalmente sensibles. Esta tendencia refleja una transformación más amplia en la educación superior, donde las instituciones se enfocan en la eficiencia y la rentabilidad, a menudo a expensas de la diversidad cultural y la equidad.

El autor concluye que la pérdida de control institucional sobre la organización bibliográfica y la dependencia de sistemas de descubrimiento controlados por proveedores externos están erosionando la autonomía y la misión pública de las bibliotecas. Advierte que, sin una reflexión crítica y una acción concertada, el trabajo bibliotecario esencial podría desaparecer, con consecuencias negativas para la accesibilidad y la justicia en la información.

Sirenas, toros, esfinges: animales reales e imaginarios en el mundo antiguo

Cabrera Bonet, Paloma, Margarita Moreno Conde y Ricardo Olmos Romera. Sirenas, toros, esfinges: animales reales e imaginarios en el mundo antiguo. Comunidad de Madrid, Dirección General de Archivos, Museos y Bibliotecas, 2007

Texto completo

A través de una serie de ensayos, los autores exploran cómo las sociedades antiguas concebían y representaban tanto a animales reales como a criaturas mitológicas, y cómo estas representaciones reflejaban sus creencias, valores y conocimientos del mundo natural. El estudio abarca diversas culturas, incluyendo la egipcia, griega, romana y mesopotámica, y se apoya en una amplia variedad de fuentes, como textos literarios, iconografía y restos arqueológicos. El libro destaca la importancia de los animales en la simbología y mitología antiguas, y cómo su estudio puede proporcionar una comprensión más profunda de las civilizaciones que los produjeron.

El impacto de los AI Overviews de Google en el SEO: análisis del estudio Semrush 2025

Semrush AI Overviews Study: What 2025 SEO Data Tells Us About Google’s Search Shift. Semrush, Julio 2025

Texto completo

Google ha introducido los llamados AI Overviews, resúmenes generados por IA que aparecen directamente en los resultados de búsqueda. Estos tienen un impacto disruptivo, equiparándose a los featured snippets en importancia

Los AI Overviews, resúmenes generados por inteligencia artificial que Google ha incorporado en sus resultados de búsqueda. Estos elementos ya ocupan un rol importante y están modificando de manera profunda las estrategias de posicionamiento.

Los datos muestran que en marzo de 2025 el 13,14 % de las consultas en escritorio en EE. UU. activaron un AI Overview, casi el doble que en enero del mismo año. La mayoría de estas consultas fueron de carácter informacional (88,1 %), aunque también se detectó un ligero incremento en consultas comerciales y de navegación. Las áreas más afectadas incluyen ciencia, salud, sociedad y gobierno, mientras que sectores como noticias y deportes casi no presentan AI Overviews, reflejando la cautela de Google en temas sensibles o de actualidad.

En cuanto al comportamiento de los usuarios, los AI Overviews están vinculados a un aumento de las búsquedas sin clics (zero-click). Sin embargo, al comparar las mismas palabras clave antes y después de aparecer con AI Overview, la tasa de zero-click disminuyó levemente de 38,1 % a 36,2 %. Esto sugiere que, aunque más usuarios encuentran la respuesta sin salir de Google, algunos siguen interactuando con los enlaces destacados dentro del propio resumen generado por IA.

El estudio también señala que los AI Overviews se muestran sobre todo en consultas largas, de baja competencia y bajo coste por clic (CPC). Además, tienden a superponerse a funciones ya existentes del SERP sin reemplazarlas, y suelen dar relevancia a contenidos de plataformas como Reddit, Quora y YouTube, lo que indica una preferencia de Google por fuentes diversificadas y con información estructurada.

Las recomendaciones para las marcas son claras: crear contenido informacional autoritativo y con perspectiva única, reforzar los formatos visuales e interactivos (como vídeos o herramientas), e identificar palabras clave comerciales que aún no activan AI Overviews para aprovechar oportunidades de posicionamiento tradicional. Asimismo, se recomienda el uso de herramientas de monitorización como el Semrush AI Toolkit para medir la visibilidad en estos nuevos entornos y ajustar las estrategias de SEO.

En definitiva, el SEO en 2025 ya no se limita a aparecer en las primeras posiciones de búsqueda, sino a ganar presencia en los resultados generados por IA. El contenido de calidad, adaptado a este nuevo ecosistema híbrido entre buscador tradicional y motor de respuestas, será determinante para mantener la visibilidad digital.

Marcos de políticas de datos de investigación de revistas

“Journal Research Data Policy Frameworks – The Value of RDA for Policy”

Research Data Alliance. 2025. Journal Research Data Policy Frameworks: The Value of RDA for Policy. White Paper Series. Agosto. Research Data Alliance. https://www.rd-alliance.org/wp-content/uploads/2025/08/Journal_Research_Data_Policy_Frameworks_The-Value-of-RDA-for-Policy.pdf

“Journal Research Data Policy Frameworks – The Value of RDA for Policy” forma parte de la serie de white papers de la Research Data Alliance (RDA) y fue publicado en agosto de 2025. Surge de los talleres organizados en mayo del mismo año, cuyo objetivo era mostrar el impacto de las recomendaciones de la RDA en la formulación de políticas de investigación, particularmente en lo relativo a la gestión de datos en revistas académicas.

El Journal Research Data Policy Framework se presenta como una herramienta estandarizada para ayudar a revistas y editores a crear o mejorar sus políticas de datos. Este marco ofrece claridad sobre las expectativas de publicación, refuerza prácticas ya asentadas en diversas disciplinas y favorece la reproducibilidad, visibilidad y citación de los resultados científicos. Además, simplifica la implementación para los editores, al proporcionar una estructura común pero adaptable a las necesidades de cada área del conocimiento.

Su valor radica en que las políticas de datos en revistas integran normas consistentes dentro de las instrucciones para autores, alineándose con los requisitos de financiadores e instituciones en momentos clave del ciclo de investigación. Entre los beneficios que aporta destacan: la definición clara de cuándo y cómo compartir datos, la extensión de buenas prácticas disciplinares, el aumento del impacto científico gracias a la reutilización y revisión de datos, y la reducción de la carga administrativa al contar con un marco estándar y flexible.

El marco fue elaborado en 2020 por el Interest Group on Data Policy Standards for Journals de la RDA. Define 14 características de una política de datos y establece seis niveles de aplicación (tiers), desde los más básicos hasta los más exigentes, que incluyen requerimientos como la declaración de disponibilidad de datos, el uso de estándares reconocidos o la revisión por pares de los conjuntos de datos. Gracias a este enfoque escalonado, revistas de distintas disciplinas pueden adoptar políticas acordes a su madurez y contexto.

El white paper también recoge ejemplos de implementación en distintos entornos. En Eslovenia, el archivo de datos de ciencias sociales (ADP) adaptó el marco y desarrolló guías para revistas locales, lo que permitió impulsar la ciencia abierta a nivel nacional, aunque con dificultades iniciales de recursos y apoyo institucional. En el ámbito internacional, la asociación STM, que agrupa a editores científicos, técnicos y médicos, lo utilizó para diseñar políticas coherentes en áreas sensibles como salud y medicina, logrando mayor credibilidad y alineación con estándares globales. Finalmente, el proyecto BRIDGE en Francia, liderado por instituciones como IRD, INRAE y CIRAD, empleó el marco para armonizar la gestión de datos en unidades mixtas de investigación, desarrollando repositorios FAIR y guías prácticas que refuerzan la gobernanza de datos.

Las conclusiones del informe subrayan que el marco de la RDA es práctico, flexible y aplicable a distintos sectores, desde revistas académicas hasta instituciones farmacéuticas o colaboraciones internacionales. Su éxito depende de la adopción temprana, la consulta a todas las partes interesadas, el apoyo técnico e institucional y la evaluación continua de los resultados. Asimismo, se recomienda avanzar hacia políticas más exigentes (niveles 03 en adelante) para consolidar una cultura de datos abierta, reproducible y sostenible en la investigación científica.

Detectores de IA acusan falsamente a la Constitución de EE. UU. de ser escrita por inteligencia artificial

Edwards, Benj. «Why AI Detectors Think the US Constitution Was Written by AIArs Technica, 12 de julio de 2023. https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/

Si introduces el documento legal más importante de Estados Unidos, la Constitución de los Estados Unidos, en una herramienta diseñada para detectar texto escrito por modelos de IA como ChatGPT, te dirá que el documento fue escrito casi con toda seguridad por una IA.

Por muy tentador que resulte confiar en las herramientas de IA para detectar textos generados por IA, las pruebas hasta ahora han demostrado que no son fiables. Debido a los falsos positivos, no se puede confiar en los detectores de escritura de IA como GPTZero, ZeroGPT y Text Classifier de OpenAI para detectar textos compuestos por grandes modelos de lenguaje (LLM) como ChatGPT.

En el estudio se analiza cómo los detectores de escritura con inteligencia artificial (IA) clasifican erróneamente documentos históricos, como la Constitución de los Estados Unidos, como si fueran generados por IA. Este fenómeno se debe a que los modelos de IA entrenados en grandes volúmenes de texto, incluidos documentos históricos, pueden identificar patrones en el lenguaje que coinciden con los estilos de escritura de la IA. Como resultado, estos detectores generan falsos positivos al identificar textos auténticos como generados por IA.

En cuanto a los detectores específicos que han mostrado estas limitaciones, el artículo de Ars Technica menciona que herramientas como GPTZero han sido criticadas por su falta de precisión, calificándolas de «mayoría de las veces engañosas».

El artículo destaca que este problema subraya las limitaciones de los detectores de IA actuales, que a menudo carecen de la capacidad para contextualizar el origen y la autenticidad de un texto. La incapacidad de estos sistemas para distinguir entre textos históricos genuinos y aquellos generados por IA plantea preocupaciones sobre su fiabilidad en aplicaciones prácticas. Además, se señala que la dependencia excesiva de estos detectores podría llevar a conclusiones erróneas y decisiones injustas en entornos educativos y profesionales.

Edwards concluye que, aunque los detectores de IA pueden ser herramientas útiles, su implementación debe ser cuidadosa y acompañada de una evaluación crítica para evitar malentendidos y garantizar su eficacia en la identificación precisa de contenido generado por IA.