La muerte de las revistas científicas

Beale, R. (2025). In Memoriam: The Academic Journal (preprint). arXiv:2512.23915v1. Recuperado de https://arxiv.org/html/2512.23915v1

Se trata de un ensayo reflexivo que traza la historia, evolución y final simbólico de la revista académica tradicional considerando su impacto profundo en la ciencia, la sociedad y la cultura académica moderna.

El texto empieza con una evocación de los orígenes de las publicaciones científicas en el siglo XVII, destacando el papel pionero del Journal des Sçavans y de Philosophical Transactions, que establecieron el formato y la intención de los primeros medios de difusión científica impulsados por académicos para académicos. En estas primeras etapas, las revistas eran herramientas para compartir descubrimientos y avanzar el conocimiento colectivo, libre de intereses comerciales predominantes.

Beale describe cómo las revistas académicas ingresaron a su “edad adulta”, abrazando el sistema de revisión por pares y consolidándose como guardián de la calidad científica. Sin embargo, con la entrada de grandes editoriales comerciales tras la Segunda Guerra Mundial, este modelo se transformó bajo una lógica capitalista: académicos que generaban contenido y revisión sin remuneración, mientras las editoriales recibian beneficios sustanciales al vender acceso a ese conocimiento. Esta etapa marcó una transición crucial desde el propósito original de difusión científica hacia un sistema en el que las publicaciones se convirtieron en métricas de prestigio y progreso profesional, impulsadas por la filosofía de “Publicar o Perecer”.

En el desarrollo de la “madurez” de las revistas científicas, el autor ilustra cómo la proliferación de indicadores cuantitativos (factor de impacto, índice h, etc.) y el énfasis en méritos numéricos distorsionaron el valor de la investigación, priorizando la cantidad sobre la calidad y debilitando prácticas fundamentales como la replicación de resultados. Este enfoque paradigmático condujo a la expansión de unidades mínimas publicables (MPU) y a prácticas que, aunque eficientes para avanzar en carreras académicas, erosionaron la esencia del método científico.

Beale también sitúa a las revistas académicas dentro del contexto de las transformaciones tecnológicas de finales del siglo XX y principios del XXI, señalando cómo servicios como arXiv y las iniciativas de acceso abierto retaron el dominio tradicional de las publicaciones impresas. Aunque estos “descendientes” surgieron con filosofías más abiertas, la presión institucional por métricas de prestigio a menudo relegó su valor dentro de la evaluación profesional.

Finalmente, el ensayo culmina con la “muerte” simbólica de las revistas científicas el 1 de enero de 2026 —una metáfora que representa el agotamiento del modelo tradicional frente a la proliferación de contenidos generados y compartidos a gran escala, en parte facilitados por herramientas de inteligencia artificial como ChatGPT que erosionan las barreras de entrada del proceso editorial clásico. Esta conclusión lleva al lector a meditar sobre el legado de las revistas: celebradas por su rol en la sistematización del conocimiento, pero también criticadas por cómo se distanciaron de sus ideales fundacionales para convertirse en engranajes de una maquinaria profesional y comercial que, según el autor, ya no puede sostener de manera íntegra la misión original de la comunicación científica

El libro está en mi mesa de noche

<<El libro está en mi mesa de noche y en mi cuarto de trabajo. Lo llevo conmigo cuando voy de un lado a otro de la casa, como el fumador que no se separa de los cigarros y el mechero, se angustia si no los encuentra a mano. Salgo a la calle y el libro va conmigo: en un bolsillo ancho del chaquetón en invierno, en la mochila en verano. Lo llevo para leer en el metro o en la sala de espera del dentista o en un banco de un parque un rato antes de llegar a una cita.>>

Antonio Muñoz Molina «El verano de Cervantes» (2025)

Laboratorios bibliotecarios y bibliotecaspúblicas: estudio de caso de su implantación enel contexto español.

Escuredo Sanz, Violeta. Laboratorios bibliotecarios y bibliotecas públicas: estudio de caso de su implantación en el contexto español. Trabajo de fin de grado, Universidad de Zaragoza, 2025.

Texto completo

El trabajo analiza cómo las bibliotecas públicas en España están evolucionando de ser meros depósitos de libros a convertirse en infraestructuras críticas para la comunidad, funcionando como espacios públicos de encuentro, convivencia e innovación social.

Ante un entorno de cambios tecnológicos constantes y presiones privatizadoras que amenazan su rol democrático, surge la necesidad de adoptar nuevos modelos de gestión. En este contexto, los laboratorios bibliotecarios aparecen como iniciativas impulsadas por profesionales con vocación social que buscan adaptar la institución a los tiempos actuales mediante la participación ciudadana y la co-creación.

El objetivo principal del trabajo es describir la evolución e implantación de estos laboratorios en el ámbito de las bibliotecas públicas españolas, caracterizando los proyectos generados y definiendo sus perspectivas de futuro. Para ello, la autora emplea una metodología cualitativa que incluye la búsqueda exhaustiva de fuentes científicas y «literatura gris», el diseño de una ficha técnica para parametrizar los datos de cada proyecto (indicando origen, agentes implicados y metodología) y la realización de entrevistas semiestructuradas a responsables de centros clave.

Marco teórico y antecedentes La investigación sitúa el origen de estos espacios en el movimiento de los living labs y la cultura maker surgida en la década de 2000. El concepto de «laboratorio bibliotecario» se define como un entorno de experimentación donde se prueban enfoques innovadores para mejorar servicios o fomentar la participación. Un factor determinante en España fue la crisis económica de 2008 y el movimiento de la «marea amarilla», que impulsó la necesidad de justificar la utilidad social de las bibliotecas con recursos limitados, evolucionando de un modelo transaccional (basado en el préstamo) a uno relacional (basado en la comunidad).

Estudio de casos en España El estudio se centra en cuatro proyectos fundamentales que han marcado la pauta en el territorio español:

  • The Library Living Lab (Barcelona): Pionero en integrar la participación ciudadana en la definición de retos tecnológicos y sociales.
  • BiblioLab (Barcelona): Un programa de la Red de Bibliotecas Municipales que fomenta la creatividad y el conocimiento compartido.
  • Medialab Tabakalera (San Sebastián): Incluye la biblioteca de creación «Ubik», centrada en el aprendizaje colaborativo y la experimentación con medios.
  • Proyecto LABBBS: Iniciativa impulsada por el Ministerio de Cultura para extender la metodología de laboratorios ciudadanos a nivel nacional.

El trabajo concluye que los laboratorios bibliotecarios actúan como aceleradores de la transformación de las bibliotecas, permitiendo que las personas pasen de ser consumidores pasivos a creadores activos. Estos espacios priorizan el proceso y el aprendizaje sobre el resultado final, sosteniendo el error como parte del crecimiento colectivo. A pesar de los desafíos presupuestarios y de personal, la investigación resalta que la colaboración entre instituciones y la documentación de procesos son claves para que estos proyectos sean replicables y sostenibles en el tiempo, fortaleciendo el valor de la biblioteca como «tercer lugar» esencial para la cohesión social.

Adopción de IA por parte de las pequeñas y medianas empresas

AI Adoption by Small and Medium‑Sized Enterprises: OECD Discussion Paper for the G7 — OECD Publishing, París, 9 diciembre 2025.

Texto completo

La adopción de la inteligencia artificial (IA) por parte de las pequeñas y medianas empresas (PYMES) tiene un enorme potencial para mejorar la productividad, la innovación y la competitividad empresarial, pero en la práctica su incorporación sigue siendo relativamente baja en comparación con otras tecnologías digitales y con las grandes empresas.

El informe examina la evidencia más reciente sobre la difusión de IA en las economías del G7, mostrando brechas persistentes entre PYMES y grandes empresas en términos de uso y sofisticación tecnológica. Aunque ha habido avances, muchas PYMES aún adoptan la IA de forma limitada o en aplicaciones poco complejas, lo que explica que los beneficios no se distribuyan de manera equitativa ni generalizada

Una de las aportaciones clave es una taxonomía de adopción de IA para PYMES que clasifica a las empresas según su madurez digital, la complejidad de los usos de IA y el alcance de esas aplicaciones. Esta clasificación ayuda a entender que no existe una sola trayectoria de adopción: algunas PYMES empiezan con herramientas simples (como automatización básica o análisis de datos) mientras que otras avanzan hacia aplicaciones más complejas como aprendizaje automático integrado en procesos de negocio.

El documento identifica cuatro factores habilitadores esenciales para que las PYMES puedan integrar con éxito tecnologías de IA:

  • Conectividad digital adecuada y acceso a datos.
  • Disponibilidad de datos, algoritmos y capacidad de cómputo.
  • Habilidades y competencias digitales en la fuerza laboral.
  • Financiación y recursos suficientes para invertir en tecnologías y capacitación.


Estos factores no solo facilitan la adopción técnica, sino que también influyen en la capacidad de las empresas para generar valor real a partir de la IA.

A través de casos de estudio en diferentes países del G7, el informe ilustra diversas rutas de adopción, desde estrategias impulsadas por sectores específicos hasta iniciativas públicas de apoyo. Estas experiencias demuestran que no existe un único modelo exitoso; las políticas que funcionan combinan apoyo financiero, formación, colaboración público‑privada y enfoques adaptados al contexto local de cada empresa

El informe concluye subrayando la necesidad de que los gobiernos aceleren la adopción de IA entre las PYMES mediante estrategias diferenciadas y políticas de apoyo que consideren las capacidades y necesidades específicas de estas empresas. La adopción de IA no solo puede impulsar la digitalización y la competitividad, sino también contribuir a un crecimiento económico más inclusivo si se superan las barreras estructurales que enfrentan las PYMES.

Las bibliotecas de Emory cancelan suscripciones a revistas de Elsevier debido al aumento de los costos

Goyal, Samara. “Emory Libraries Cancel Elsevier Journals Due to Rising Journal Costs.” The Emory Wheel, 21 de enero de 2026. https://www.emorywheel.com/article/2026/01/emory-libraries-cancel-elsevier-journals-due-to-rising-journal-costs

La decisión reciente de las bibliotecas de la Universidad de Emory en Atlanta, Estados Unidos, de reducir su acceso a las revistas académicas publicadas por Elsevier, uno de los mayores editores científicos del mundo.

La razón principal de esta medida fue el aumento continuo de los costos de suscripción, en un contexto de presupuesto universitario ajustado, en el que la institución no recibió financiación adicional para cubrir las alzas anuales. Según explicó la bibliotecaria y administradora universitaria Lisa Macklin, la falta de recursos obligó a cancelar parte de la colección para equilibrar las cuentas de la biblioteca, lo que permitió un ahorro de alrededor de 655 000 dólares para el sistema bibliotecario.

La reducción del acceso a los títulos de Elsevier fue el resultado de un proceso interno de evaluación en el cual bibliotecarios especializados y responsables de áreas temáticas revisaron datos de uso y costos, con la participación de profesores y estudiantes para priorizar las necesidades de la comunidad académica. Esto llevó a una colección más condensada, con 590 títulos seleccionados de Elsevier, que se considera que se ajustan mejor a los programas de investigación y enseñanza de Emory. La decisión forma parte de un patrón más amplio de tensiones entre bibliotecas académicas y grandes editoriales científicas, en un momento en que los costes de las revistas seriadas han crecido de manera sostenida, superando con frecuencia los presupuestos disponibles.

El artículo también contextualiza esta decisión dentro de las estrategias alternativas que la biblioteca está empleando para mitigar el impacto en los usuarios. Por ejemplo, recuerda que en 2024 se canceló un paquete de títulos de Wiley, y desde entonces la biblioteca ha ofrecido un servicio de entrega acelerada de artículos que permite a estudiantes y profesores solicitar artículos individuales pagando una tarifa fija menor al coste de una suscripción completa. Este enfoque, aunque no sustituye el acceso inmediato a todas las publicaciones, busca asegurar que los investigadores puedan obtener los materiales que necesitan de forma más eficiente que mediante préstamos interbibliotecarios tradicionales.

Además, el artículo recoge reflexiones de la comunidad universitaria sobre la evolución del acceso al conocimiento científico en la era digital. Autoridades académicas señalan que las bibliotecas se ven forzadas a equilibrar la disponibilidad de recursos para áreas con gran demanda y aquellas especializadas, mientras que la tecnología y nuevas herramientas, incluida la inteligencia artificial, están cambiando la manera en que se accede y utiliza la información académica. Estas variables plantean desafíos continuos para las políticas de colección y acceso en las bibliotecas universitarias, en medio de debates más amplios sobre modelos de publicación científica, acceso abierto y sostenibilidad económica de la comunicación académica.

El uso de la inteligencia Artificial en el trabajo

O’Brien, Matt y Linley Sanders. “How Americans Are Using AI at Work, According to a New Gallup Poll.” Associated Press, 25 de enero de 2026. https://www.apnews.com/article/ai-workplace-gemini-chatgpt-poll-4934bc61d039508db32bc49f85d63d99

Una encuesta nacional de Gallup realizada en otoño de 2025 entre más de 22 000 trabajadores de Estados Unidos muestra que el uso de inteligencia artificial (IA) en el lugar de trabajo ha crecido rápidamente en los últimos años.

Aproximadamente 12 % de los empleados usa IA diariamente, y casi una cuarta parte la utiliza varias veces a la semana, mientras que casi la mitad dice usar IA al menos unas pocas veces al año. Esta adopción supera significativamente los niveles informados en 2023, cuando solo 21 % de los trabajadores afirmaba usar IA al menos ocasionalmente. El aumento se atribuye al boom de herramientas de IA generativa como ChatGPT y Gemini, capaces de redactar correos, generar código, resumir documentos, crear imágenes o responder preguntas complejas.

El uso de IA varía según el sector laboral. Los trabajadores en tecnología son los más propensos a utilizar IA de forma frecuente o diaria, con alrededor de seis de cada diez informando uso regular y tres de cada diez uso diario. En sectores como finanzas, educación y servicios profesionales, una mayoría de empleados también emplea herramientas de IA al menos ocasionalmente, integrándolas en tareas que van desde la síntesis de grandes volúmenes de datos hasta la mejora de la comunicación con padres o clientes. Por ejemplo, maestros y banqueros utilizan asistentes de IA para redactar correos más claros, condensar información o acelerar tareas administrativas, lo que mejora la eficiencia laboral para muchos.

Sin embargo, la adopción no es uniforme. Sectores como el comercio minorista, la atención sanitaria o la manufactura muestran menor penetración de IA en sus rutinas laborales, reflejando tanto la naturaleza de sus tareas como la menor disponibilidad de soluciones adaptadas a esos ámbitos. Además, aunque el uso de IA está creciendo, solo una minoría de trabajadores cree que la IA reemplazará su empleo en los próximos cinco años; alrededor de la mitad piensa que es poco probable que ocurra, un poco menos que en encuestas anteriores. Las opiniones personales también varían, con algunos empleados valorando la interacción humana en sus roles y otros confiando en la tecnología para mejorar su productividad.

Finalmente, el informe identifica riesgos y desigualdades potenciales. Un segmento de más de seis millones de trabajadores, principalmente mujeres mayores en tareas administrativas y de oficina, enfrenta mayores desafíos para adaptarse a la integración de IA debido a habilidades menos transferibles y menor resiliencia financiera si sus trabajos cambian o desaparecen. Esto pone de manifiesto que la adopción de IA, aunque generalizada, tiene implicaciones diversas para distintos grupos laborales y plantea retos de equidad y capacitación en el futuro del trabajo.

La inteligencia artificial está generando nuevas ocupaciones laborales en lugar de provocar un apocalipsis de empleo.

Job Apocalypse? Not Yet. AI Is Creating Brand New Occupations.” The Economist, December 14, 2025. https://www.economist.com/business/2025/12/14/job-apocalypse-not-yet-ai-is-creating-brand-new-occupations

A pesar de las profecías apocalípticas que auguran la desaparición masiva de empleos debido a la expansión de la inteligencia artificial, la realidad del mercado laboral muestra una tendencia distinta: la IA está creando nuevas ocupaciones que antes no existían y que requieren habilidades humanas únicas, como juicio, empatía y experiencia contextual.

A pesar de que la narrativa dominante sobre la inteligencia artificial ha girado en torno a la idea de una “apocalipsis laboral” —una ola de desempleo masivo y destrucción de trabajos— la evidencia actual y el análisis de tendencias sugieren que esa visión es exagerada y prematura. En lugar de provocar una eliminación neta de empleos, la IA está generando una amplia variedad de ocupaciones nuevas, muchas de las cuales no existían hasta hace apenas unos años y requieren capacidades que las máquinas aún no pueden replicar plenamente: juicio humano, empatía, creatividad y habilidades sociales complejas.

Primero, la tecnología está creando demanda de profesionales para entrenar y supervisar a los agentes de IA. Roles como «data annotators» —expertos encargados de etiquetar y estructurar datos para entrenar modelos— han evolucionado de trabajos básicos de etiquetado a posiciones bien remuneradas que pueden requerir conocimientos en áreas especializadas como derecho, finanzas o medicina. Además, aparecen ocupaciones tales como ingenieros de “despliegue”, cuyo papel es integrar, adaptar y supervisar sistemas de IA dentro de organizaciones reales, garantizando que las soluciones se adapten a contextos concretos y se comporten de manera predecible.

Además, la proliferación de IA ha estimulado la creación de ocupaciones que gestionan aspectos éticos, normativos y sociales de la tecnología. Por ejemplo, especialistas en ética y políticas de IA, diseñadores de interacción humano-IA y profesionales dedicados a la seguridad y gobernanza de modelos están emergiendo como categorías laborales clave. Estos roles pivotan sobre habilidades humanas especializadas —como la comunicación efectiva, el pensamiento crítico y la toma de decisiones complejas— que no pueden ser sustituidas fácilmente por algoritmos.

Esta dinámica laboral no es nueva en la historia de la tecnología: revoluciones previas —como la industrial o la digital— también destruyeron ciertos tipos de trabajo mientras creaban otros que nadie había imaginado previamente. En ese sentido, la introducción de la IA no elimina trabajos de manera uniforme, sino que reconfigura la economía del empleo, fomentando la demanda de perfiles híbridos que combinan conocimientos técnicos con pensamiento estratégico, creatividad y habilidades interpersonales.

Por último, los datos y estudios citados por The Economist indican que, aunque algunos roles pueden verse transformados o reducidos por la automatización, el balance general tiende hacia la creación de puestos nuevos y de alto valor añadido, en lugar de un colapso masivo del empleo. Incluso trabajos tradicionalmente vistos como vulnerables a la automatización pueden evolucionar y encontrar nuevas formulaciones en un mercado que se adapta y redefine continuamente las habilidades y tareas que valora.

Diez maneras en que la inteligencia artificial podría causar daños sin precedentes en 2026

10 Ways AI Will Do Unprecedented Damage in 2026, Experts Warn.” ZDNet, 2026. https://www.zdnet.com/article/10-ways-ai-will-do-unprecedented-damage-in-2026-experts-warn/

La inteligencia artificial puede causar daños graves al facilitar la desinformación masiva, la manipulación política, el fraude y los ciberataques, erosionando la confianza social y la seguridad digital. Al mismo tiempo, acelera la pérdida de empleos, concentra el poder en grandes corporaciones y refuerza sistemas de vigilancia y control que amenazan derechos fundamentales. Todo ello se ve agravado por la amplificación de sesgos, la dependencia excesiva de estas tecnologías y la ausencia de marcos regulatorios eficaces que limiten sus impactos negativos.

En primer lugar, uno de los principales temas que advierten los expertos es la erosión de la confianza pública en la información y la percepción de la realidad. Con tecnologías de generación de contenido cada vez más sofisticadas, como los deepfakes, resulta cada vez más difícil distinguir lo auténtico de lo manipulado, lo que podría minar la credibilidad periodística, distorsionar procesos democráticos o amplificar campañas de desinformación en medios y redes sociales. Esta tendencia —que muchos investigadores observan con creciente alarma— tiene profundas implicaciones para la cohesión social, el debate público y la gobernanza global, ya que la sociedad se enfrenta a un entorno informativo fragmentado y saturado donde “ver ya no es creer”.

En segundo lugar, los expertos han enfatizado que la IA continuará intensificando profundas disrupciones económicas y laborales. El desarrollo acelerado de sistemas automatizados y agentes autónomos está transformando industrias enteras, lo que, si bien puede aumentar eficiencia y productividad, también amenaza con eliminar grandes cantidades de puestos de trabajo tradicionales y reconfigurar mercados laborales enteros. Este fenómeno —descrito en términos similares por autoridades económicas como la directora del Fondo Monetario Internacional— presenta un futuro donde la brecha entre trabajadores altamente especializados y aquellos cuyas tareas pueden ser automatizadas se amplía, agravando desigualdades y presionando los sistemas educativos, de protección social y de empleo para que se adapten con rapidez a una nueva realidad económica.

Además, otro conjunto de riesgos señalados por académicos y analistas se centra en las amenazas sistémicas para la estabilidad social y política, como la proliferación de operaciones de influencia automatizadas o “enjambres” de agentes de IA capaces de coordinar campañas de desinformación dirigidas y manipulaciones de opinión pública a gran escala. Estos sistemas, aún en desarrollo pero ya objeto de investigación avanzada, podrían infiltrarse en plataformas digitales, replicar comportamiento humano de manera convincente y explotar vulnerabilidades sociales para exacerbar polarización, socavar procesos electorales o incluso sembrar desconfianza en instituciones. Las implicaciones de tales capacidades son particularmente significativas en un contexto global donde los sistemas democráticos están bajo presión y la competencia por hegemonía tecnológica entre grandes potencias geopolíticas continúa intensificándose.

Finalmente, junto a estos peligros sociales y políticos, los expertos también advierten de riesgos más amplios vinculados al avance tecnológico desregulado, como la posibilidad de que sistemas de IA altamente capaces operen de manera no alineada con los valores humanos o con consecuencias no previstas por sus desarrolladores. Esto incluye la preocupación por que sistemas autónomos podrían perseguir objetivos incompatibles con el bienestar humano si no se incorporan mecanismos robustos de control y alineación. Aunque todavía existe debate entre los investigadores sobre la probabilidad de escenarios extremadamente adversos —incluyendo estimaciones sobre daños catastróficos— el consenso sugiere que sin una gobernanza proactiva, mecanismos de supervisión y marcos regulatorios internacionales sólidos, las oportunidades de progreso pueden verse superadas por los desafíos éticos, estratégicos y de seguridad asociados con las tecnologías de IA en 2026.

¿Por qué los autores no revelan el uso de IA en sus trabajos de investigación?

Staiman, Avi. 2026. “Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It.The Scholarly Kitchen, January 27, 2026. https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/

El artículo aborda el fenómeno creciente de que muchos autores académicos no están declarando el uso de herramientas de inteligencia artificial (IA) en sus procesos de investigación y redacción, a pesar de que un número significativo de ellos reconoce emplearlas en distintas fases del trabajo científico

Staiman explica que, aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.

Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.

Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.

Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.

Finalmente, el autor advierte que, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Argumenta que las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.