La incorporación de Knowledge Unlatched a Wiley y sus implicaciones para el acceso abierto y la sostenibilidad editorial

Annual Reviews. «Knowledge Unlatched Finds a New Home with Annual Reviews.» Annual Reviews, 26 de junio de 2025. https://www.annualreviews.org/pb-assets/assets/documents/press-release/ar_knowledge_unlatched_6_26_25.pdf.

Annual Reviews anunció la adquisición de Knowledge Unlatched (KU) en un acuerdo con Wiley, el propietario actual de KU desde 2021.

Knowledge Unlatched (KU) es una iniciativa global dedicada a hacer que los libros académicos, especialmente en humanidades y ciencias sociales, estén disponibles en acceso abierto (Open Access). Fue fundada en 2012 por Frances Pinter, con el objetivo de transformar el modelo tradicional de publicación académica.

Esta transacción marca un hito en la evolución de KU, que comenzó en 2012 como una iniciativa independiente para financiar libros académicos de acceso abierto mediante un modelo de crowdfunding bibliotecario. Con el respaldo de Wiley, Knowledge Unlatched (KU) ha ampliado su alcance y ahora se integra plenamente en el ecosistema editorial de Annual Reviews, una organización sin fines de lucro dedicada a la publicación de revisiones académicas en diversas disciplinas.

La incorporación de KU a Annual Reviews representa un paso significativo hacia la consolidación de modelos sostenibles de publicación de acceso abierto en las ciencias sociales y humanas. KU ha facilitado la financiación colectiva de libros académicos mediante su plataforma KU Open Funding, colaborando con editoriales como Berghahn Books, Duke University Press y Taylor & Francis. Con el apoyo de Annual Reviews, se espera que KU continúe desempeñando un papel crucial en la transición hacia un modelo de acceso abierto más equitativo y accesible para la comunidad académica global.

La administración Trump cancela contratos de suscripción con Springer Nature por valor de millones de dólares

Inside Higher Ed. «Trump Admin Cuts NIH’s Springer Nature Subscriptions.» Inside Higher Ed, 27 de junio de 2025. https://www.insidehighered.com/news/quick-takes/2025/06/27/trump-admin-cuts-nihs-springer-nature-subscriptions.

La administración Trump ha cancelado contratos por millones de dólares con Springer Nature, una gigante editorial científica de propiedad alemana que durante mucho tiempo recibió pagos por suscripciones de los Institutos Nacionales de Salud y otras agencias.

La administración Trump ha decidido cancelar millones de dólares en contratos de suscripción con Springer Nature, una importante editorial científica alemana que provee contenido para agencias como los Institutos Nacionales de Salud (NIH) de Estados Unidos. Esta medida se produjo tras cuestionamientos del Departamento de Justicia sobre las prácticas editoriales de Springer, acusándola de adoptar posiciones partidistas en debates científicos y de promover ciertos puntos de vista de manera indebida.

A principios de este año, el Departamento de Justicia envió una carta a una publicación de Springer cuestionando sus prácticas editoriales. La carta también planteaba preguntas sobre los supuestos vínculos de Springer con China, financiación del Partido Comunista Chino (PCCh) y reclamaciones relacionadas con la censura.

Al menos otra revista científica, Chest, también recibió una carta sobre la toma de partido en debates científicos, como informó The Washington Post en abril.

Springer Nature tiene más de 3.000 revistas y publicaciones, y su portafolio incluye Nature y Scientific American. El contenido editorial abarca desde noticias científicas y médicas hasta artículos de investigación revisados por pares escritos por científicos.

La empresa salió a bolsa en octubre de 2024, y esta controversia refleja las tensiones actuales entre la administración estadounidense y ciertas entidades científicas internacionales.

¿Son mejores las ideas de investigación generadas por Inteligencia Artificial o las creadas por humanos?

Si, Chenglei, Tatsunori Hashimoto y Diyi Yang. The Ideation-Execution Gap: Execution Outcomes of LLM-Generated versus Human Research Ideas. arXiv, 25 de junio de 2025. https://arxiv.org/abs/2506.20803

Los resultados mostraron que las ideas generadas por LLM recibieron puntuaciones significativamente más bajas que las ideas humanas en todos los criterios evaluados: novedad, entusiasmo, efectividad y puntuación general. Este fenómeno, denominado «brecha ideación-ejecución», sugiere que, aunque los LLM pueden generar ideas originales, su capacidad para traducir esas ideas en resultados de investigación efectivos es limitada.

El estudio investiga la diferencia entre la generación de ideas de investigación por modelos de lenguaje grande (LLM, Large Language Models) y la capacidad real de esas ideas para traducirse en resultados concretos y efectivos cuando se llevan a la práctica. Aunque investigaciones anteriores han señalado que los LLM pueden producir ideas originales e innovadoras, el presente estudio se enfoca en la llamada “brecha ideación-ejecución” para determinar si estas ideas realmente tienen éxito cuando se implementan en proyectos de investigación reales.

Para evaluar esta cuestión, los autores diseñaron un experimento riguroso en el que 43 investigadores expertos en procesamiento de lenguaje natural recibieron ideas de investigación generadas tanto por humanos como por LLM. Cada investigador trabajó durante más de 100 horas en la ejecución de una de estas ideas, desarrollando proyectos completos documentados en informes detallados de cuatro páginas. Estos informes fueron luego evaluados de manera anónima por otros expertos para medir la calidad y el impacto de los resultados obtenidos.

Los resultados revelaron que, en múltiples dimensiones evaluadas —incluyendo la novedad de la idea, el entusiasmo generado, la efectividad del proyecto y la valoración general—, los proyectos derivados de ideas humanas superaron claramente a los derivados de ideas generadas por LLM. En otras palabras, aunque los LLM son capaces de ofrecer propuestas creativas y novedosas, su capacidad para traducir esas ideas en investigaciones exitosas y aplicables es significativamente menor.

Este hallazgo tiene implicaciones importantes para el uso de la inteligencia artificial en la investigación científica. Sugiere que, aunque la IA puede ser una herramienta valiosa para inspirar ideas o asistir en la fase inicial de generación conceptual, la supervisión humana y la experiencia siguen siendo cruciales para asegurar que las ideas puedan concretarse en resultados tangibles y de calidad. El estudio enfatiza la necesidad de evaluar no solo la creatividad o novedad de las ideas producidas por IA, sino también su factibilidad y capacidad de ejecución.

Finalmente, los autores invitan a reflexionar sobre cómo integrar de manera efectiva las capacidades de los modelos de lenguaje en el proceso de investigación, proponiendo un enfoque colaborativo entre humanos e IA que maximice las fortalezas de cada uno, minimizando las limitaciones observadas.

ChatGPT en la escritura académica: un análisis cienciométrico de la literatura publicada entre 2022 y 2023

Lendvai GF. ChatGPT in Academic Writing: A Scientometric Analysis of Literature Published Between 2022 and 2023Journal of Empirical Research on Human Research Ethics. 2025;0(0). doi:10.1177/15562646251350203

El artículo analiza cómo la literatura académica ha percibido la herramienta de inteligencia artificial ChatGPT en el contexto de la escritura académica. Utilizando un enfoque cientométrico, los autores examinan la evolución de las publicaciones académicas que abordan el uso de ChatGPT en la redacción de textos científicos, identificando tendencias, patrones y áreas de interés en la investigación.

El estudio se centra en el análisis de 171 artículos académicos revisados por pares, extraídos de la base de datos Scopus, que abordan el uso de ChatGPT en la escritura académica. Utilizando el software CiteSpace, los autores realizaron un análisis de co-citación de documentos para mapear la estructura temática e intelectual del discurso sobre ChatGPT en la producción de conocimiento académico.

Se identificaron diez clusters temáticos principales, entre los que destacan:

  1. Riesgos éticos: Incluye preocupaciones sobre la autoría, el plagio y la integridad académica.
  2. Aplicaciones prácticas: Uso de ChatGPT para la redacción de textos, generación de resúmenes y asistencia en la escritura.
  3. Innovaciones pedagógicas: Integración de ChatGPT en entornos educativos para mejorar la enseñanza y el aprendizaje.

El análisis también destacó una creciente aceptación de ChatGPT como herramienta para mejorar la escritura y apoyar marcos educativos innovadores, especialmente entre hablantes no nativos de inglés. Sin embargo, persisten preocupaciones sobre referencias inventadas, plagio, ética de la autoría y la fiabilidad de las herramientas de detección de IA.

El estudio destaca el creciente interés en la aplicación de ChatGPT en diversos aspectos de la escritura académica, incluyendo la generación de contenido, la asistencia en la redacción y la mejora de la calidad del texto. Además, se analizan las implicaciones éticas y metodológicas de utilizar herramientas de IA en la producción académica, considerando aspectos como la autoría, la originalidad y la integridad de la investigación.

A través de este análisis, los autores proporcionan una visión detallada de cómo la comunidad académica está incorporando ChatGPT en sus prácticas de escritura y los desafíos que esto implica. El estudio también sugiere áreas para futuras investigaciones y el desarrollo de directrices para el uso ético y efectivo de la inteligencia artificial en la redacción académica.

El estudio enfatiza la necesidad de una supervisión proactiva y el desarrollo de políticas para garantizar una integración responsable de la IA generativa en la investigación y la educación. Se sugiere que las instituciones académicas implementen directrices claras sobre el uso de herramientas como ChatGPT, promoviendo prácticas éticas y transparentes en la producción académica.

Guía práctica para una investigación ética y responsable con inteligencia artificial

UK Research Integrity Office. (2025, 27 de junio). Embracing AI with integrity: A practical guide for researchers. UKRIO. https://ukrio.org/wp-content/uploads/Embracing-AI-with-integrity.pdf

El documento proporciona una guía clara, práctica y accesible para que los investigadores integren herramientas de inteligencia artificial (IA) en su trabajo de forma ética y responsable.

Reconociendo que la IA ya forma parte del ecosistema académico —desde la escritura de textos hasta el análisis de datos—, el objetivo principal de esta guía es proteger la integridad de la investigación, asegurando que el uso de la IA no comprometa la transparencia, la responsabilidad ni la originalidad del trabajo científico.

La guía se estructura en torno a cinco áreas clave de riesgo relacionadas con el uso de la IA en la investigación. La primera de ellas es el cumplimiento legal y regulatorio, que incluye aspectos como el respeto a los derechos de autor, la protección de datos personales y el cumplimiento de los requisitos de las agencias financiadoras. En segundo lugar, se abordan las consideraciones éticas, como la equidad, la eliminación de sesgos, el consentimiento informado y el respeto por los participantes en la investigación, especialmente en estudios con seres humanos.

El tercer aspecto señalado es la necesidad de proteger el registro de la investigación, lo que implica documentar de forma clara cuándo, cómo y con qué herramientas de IA se ha trabajado. Esto favorece la trazabilidad y permite que otros comprendan y repliquen el proceso investigativo. La cuarta área de atención es la divulgación y presentación de resultados, en la que se destaca la importancia de indicar si se han utilizado herramientas de IA en la redacción, el análisis o la elaboración de gráficos, asegurando que la autoría humana esté bien diferenciada y que la contribución de la IA esté correctamente citada o reconocida.

Finalmente, la guía subraya el riesgo de que el uso extensivo de la IA pueda debilitar habilidades humanas esenciales como el pensamiento crítico, la creatividad y el juicio profesional. Aunque la IA puede ser una gran aliada, el documento recomienda evitar la dependencia excesiva de estas tecnologías, especialmente en etapas formativas o en tareas que requieren discernimiento ético o análisis complejo.

Embracing AI with Integrity también incluye recomendaciones prácticas para investigadores, instituciones y responsables de políticas científicas. A los investigadores se les insta a reflexionar críticamente sobre el uso que hacen de estas herramientas, a reconocer sus limitaciones, y a documentar su uso en sus publicaciones y proyectos. A las instituciones, se les recomienda desarrollar políticas claras, ofrecer formación continua y fomentar una cultura de uso ético de la IA.

La guía responde a una necesidad detectada en una encuesta previa realizada por UKRIO en 2024, que reveló una gran preocupación en la comunidad científica por la falta de directrices claras respecto al uso de estas tecnologías. Como resultado, muchas universidades y centros de investigación no contaban aún con políticas definidas, lo que generaba incertidumbre entre académicos y estudiantes. Con esta publicación, UKRIO busca llenar ese vacío y fomentar un diálogo abierto sobre el uso responsable de la IA en la ciencia.

¿Cómo son las carreras de investigación en los distintos países? Una nueva base de datos mundial ofrece algunas respuestas

Science.org. (2025, junio 30). How do research careers compare across countries? New global database has some answers. Science. https://www.science.org/content/article/how-do-research-careers-compare-across-countries-new-global-database-has-some-answers

El observatorio ReICO representa un paso importante hacia una comprensión global y comparativa de las carreras de investigación. Al ofrecer datos detallados y contextualizados, permite a los responsables políticos y a las instituciones científicas tomar decisiones más informadas para mejorar la sostenibilidad, equidad y atractivo de la profesión investigadora en todo el mundo.

Un nuevo observatorio internacional creado por la OCDE, llamado Research and Innovation Careers Observatory (ReICO), busca proporcionar datos comparativos y fiables sobre las trayectorias profesionales de los investigadores en distintos países. Esta herramienta es un avance clave para quienes diseñan políticas científicas, ya que permite visualizar y analizar cómo varían las condiciones laborales, los patrones de movilidad, la distribución sectorial del empleo y los obstáculos estructurales que enfrentan los científicos a lo largo de sus carreras.

Uno de los hallazgos destacados del informe es el crecimiento en el número de personas con doctorado en los países de la OCDE. Entre 2014 y 2022, la proporción de la población activa con doctorado pasó de 0,9 % a 1,3 %. Aunque países como Eslovenia y Suiza presentan porcentajes superiores al 3 %, en otros como México, Costa Rica e Indonesia la cifra no supera el 0,2 %. Esta disparidad refleja desequilibrios importantes en la inversión en educación superior avanzada y en las oportunidades de desarrollo científico.

Sin embargo, a pesar del aumento en la formación de doctores, las condiciones laborales siguen siendo frágiles, sobre todo en las primeras etapas de la carrera investigadora. Según los datos recogidos, aproximadamente el 75 % de los investigadores menores de 34 años tienen contratos temporales. Esta precariedad, combinada con la presión por publicar y conseguir financiación, hace que muchos científicos abandonen la carrera académica o busquen oportunidades fuera del ámbito público.

El informe también muestra un cambio estructural significativo: cada vez más investigadores trabajan fuera de la academia, especialmente en el sector empresarial. Entre los años 2000 y 2021, la proporción de científicos empleados en empresas pasó del 60 % al 66 %. Este crecimiento refleja no solo la expansión de la I+D en el ámbito privado, sino también una adaptación de los perfiles científicos a necesidades del mercado, lo cual plantea nuevos desafíos y oportunidades para la formación doctoral.

Otro aspecto que destaca el observatorio es la dificultad para rastrear las trayectorias profesionales, especialmente cuando los investigadores cambian de sector, país o dejan de publicar artículos científicos. Esta falta de información dificulta a los jóvenes investigadores imaginar trayectorias profesionales sostenibles y contribuye a la incertidumbre sobre las salidas laborales tras el doctorado.

Finalmente, el ReICO también aborda las brechas de género persistentes en la ciencia. Las mujeres tienen más probabilidades de tener contratos temporales en todas las etapas de su carrera y están subrepresentadas en los puestos de mayor jerarquía. El informe recomienda a los países diversificar sus criterios de evaluación del rendimiento científico, apoyarse más en trayectorias variadas y aplicar políticas activas de inclusión y equidad.

Los ataques de gobierno de EE.UU. a la ciencia y la investigación son «un gran regalo para China» en materia de inteligencia artificial

Hern, Alex. «US Attacks on Science and Research ‘a Great Gift to China’ on Artificial Intelligence, Former OpenAI Board Member Says.» The Guardian, June 9, 2025. https://www.theguardian.com/technology/2025/jun/09/us-attacks-on-science-and-research-a-great-gift-to-china-on-artificial-intelligence-former-openai-board-member-says.

Helen Toner, exmiembro del consejo de administración de OpenAI y actual directora de estrategia del Centro de Seguridad y Tecnología Emergente (CSET) de la Universidad de Georgetown, ha advertido que las actuales políticas de Estados Unidos en relación con la ciencia, la investigación y el talento extranjero están debilitando seriamente su liderazgo global en inteligencia artificial.

En una entrevista con The Guardian, Toner afirmó que los ataques políticos a la comunidad científica, junto con las restricciones a la entrada de estudiantes e investigadores internacionales, representan un “gran regalo para China”, que sigue avanzando en su propia carrera tecnológica.

Toner sostiene que gran parte del talento en investigación en Estados Unidos proviene del extranjero, especialmente de países como China. Las medidas restrictivas del gobierno estadounidense —como el endurecimiento de visados, los controles de exportación de chips avanzados y los recortes a la financiación pública— podrían provocar una fuga de cerebros y una desventaja competitiva en áreas estratégicas. Mientras tanto, China continúa desarrollando tecnologías punteras, como los modelos de lenguaje de gran escala, a pesar de los esfuerzos estadounidenses por frenarla mediante sanciones.

La exconsejera de OpenAI también se refirió a los efectos sociales de la inteligencia artificial, advirtiendo sobre un riesgo gradual de «desempoderamiento» colectivo. Según Toner, podríamos estar delegando funciones cada vez más críticas —en el gobierno, en las empresas y en la vida diaria— a sistemas algorítmicos, sin mecanismos adecuados de supervisión o responsabilidad. Aunque todavía hay incertidumbre sobre los plazos, los expertos coinciden en que muchas tareas profesionales, especialmente las realizadas por empleados jóvenes o en formación, ya están siendo desplazadas por herramientas de IA.

Sin embargo, Toner no niega el enorme potencial positivo de estas tecnologías. Mencionó, por ejemplo, los avances en medicina, donde la IA podría acelerar el descubrimiento de medicamentos, o en el transporte, con vehículos autónomos como los desarrollados por Waymo, que podrían reducir significativamente las muertes por accidentes de tráfico. El desafío, según ella, es garantizar un desarrollo ético y responsable, que combine innovación con regulaciones efectivas.

La figura de Helen Toner ha cobrado notoriedad en el ámbito tecnológico y mediático tras su papel clave en la crisis institucional de OpenAI en 2023, cuando el entonces CEO Sam Altman fue destituido y luego reincorporado. Su participación en este episodio ha despertado tanto el interés periodístico como cinematográfico: el director Luca Guadagnino está preparando una película sobre estos acontecimientos, en la que una actriz reconocida interpretará a Toner. En 2024, la revista Time la incluyó entre las 100 personas más influyentes del mundo en el campo de la inteligencia artificial.

¿Para qué usamos las redes sociales?

Melo, María Florencia. 2025. “¿Para Qué Usamos Las Redes Sociales?Statista, 30 de junio de 2025. https://es.statista.com/grafico/34713/razones-principales-para-utilizar-redes-sociales-en-2024/?lid=wiy65kyy1s7p.

En 2024, la principal razón para usar redes sociales fue mantenerse en contacto con familiares y amigos (50,8%), seguida de pasar el tiempo libre (39%) y leer noticias (34,5%). Las plataformas también se usan para buscar productos, inspiración y seguir deportes, reflejando su papel social, informativo y comercial.

Desde 2010, cada 30 de junio se celebra el Día Internacional de las Redes Sociales, una fecha que pone de relieve el papel transformador que estas plataformas han tenido en nuestras vidas personales, sociales y profesionales. En este contexto, el sitio Statista, especializado en datos estadísticos, ha publicado una infografía basada en el informe anual Digital 2025, elaborado por DataReportal a partir de datos del Global Web Index. La encuesta abarca a más de 90.000 usuarios de Internet mayores de 16 años en 54 países, lo que le otorga un amplio alcance global y representatividad.

El estudio revela que, pese a la evolución y diversificación de funciones en las redes sociales —como las compras, el contenido de entretenimiento o los algoritmos personalizados—, la motivación principal sigue siendo la misma: mantenerse en contacto con familiares y amigos (50,8%). Este dato subraya que, en su núcleo, las redes sociales siguen cumpliendo su función original: facilitar la comunicación y el vínculo humano, incluso en contextos geográficos lejanos o en sociedades cada vez más digitalizadas.

El segundo motivo más citado (39%) es pasar el tiempo libre, lo que apunta a un uso más recreativo y quizás pasivo de las plataformas. Muchas personas acuden a las redes para desconectar, entretenerse o simplemente llenar los momentos de espera o aburrimiento, desplazándose por los contenidos sin un objetivo definido.

Un 34,5% de los encuestados indicó que usa las redes para leer noticias, lo que confirma la consolidación de estas plataformas como fuentes primarias de información. De hecho, datos del Informe de Noticias Digitales 2024 del Instituto Reuters complementan esta observación, indicando que redes como TikTok se han convertido en espacios clave para la difusión y el consumo de noticias, especialmente entre públicos más jóvenes.

Asimismo, un 30,5% usa las redes para buscar contenido específico, lo que sugiere un papel activo en la exploración de intereses, ya sean culturales, educativos, gastronómicos o de ocio. Este dato refuerza la noción de que las redes funcionan como motores de búsqueda personalizados, muchas veces más intuitivos y visuales que los buscadores tradicionales.

En el ámbito del consumo y la inspiración, el 27,3% de los usuarios afirma que utiliza las redes para buscar productos, y el 27,2% para inspirarse sobre qué hacer o comprar. Este uso refuerza el carácter comercial que han adoptado muchas plataformas, con funciones de catálogo, recomendaciones de influencers, publicidad dirigida y compra directa, lo que las convierte en un escaparate dinámico para las marcas.

Finalmente, un 23,6% sigue deportes a través de redes sociales, lo que indica que estas plataformas también se han consolidado como canales para seguir eventos en vivo, resúmenes, análisis o momentos destacados, especialmente entre quienes no consumen medios deportivos tradicionales.

En conjunto, los datos muestran que las redes sociales son mucho más que herramientas de comunicación: son espacios de interacción social, consumo cultural, acceso a la información y actividades comerciales. La multiplicidad de usos refleja la centralidad que estas plataformas han adquirido en la vida cotidiana y cómo se han adaptado a distintos perfiles de usuarios y necesidades.

CC Signals: licencia Creative Commons con la que los autores puedan determinar los uso de lA para sus contenidos

Creative Commons. 2025. “Introducing CC Signals: A New Social Contract for the Age of AI.Creative Commons, 25 de junio de 2025. https://creativecommons.org/ai-and-the-commons/cc-signals/

En un momento en el que la IA está transformando radicalmente la creación, el acceso y la difusión del conocimiento, CC Signals representa una apuesta ética y colaborativa por una inteligencia artificial al servicio de todos, basada en principios de apertura, respeto y responsabilidad compartida.

Creative Commons ha presentado CC Signals, una iniciativa pionera que propone un nuevo «contrato social» para la era de la inteligencia artificial. Este marco surge como respuesta a la creciente preocupación por el uso masivo e indiscriminado de datos por parte de los modelos de IA. En lugar de aceptar una dicotomía entre un entorno de extracción sin restricciones o uno cerrado por muros de pago, CC Signals apuesta por una tercera vía: un ecosistema abierto y basado en la reciprocidad, en el que los creadores y titulares de contenido puedan expresar claramente sus preferencias sobre cómo debe usarse su información por parte de sistemas automatizados.

El objetivo principal de CC Signals es permitir que los datos sean utilizados en procesos de entrenamiento de IA de manera ética y transparente, reconociendo los intereses de quienes aportan contenido. Para ello, introduce un sistema de «señales» legibles tanto por humanos como por máquinas, que indican el nivel de apertura o condiciones de reutilización que cada creador desea establecer. Estas señales no son legalmente vinculantes, pero sí actúan como una guía de buenas prácticas, similar a como las licencias Creative Commons revolucionaron el panorama del derecho de autor hace dos décadas.

Uno de los principios clave del proyecto es fomentar un ciclo de «dar, tomar y volver a dar»: quienes utilizan datos para entrenar modelos deben contribuir también al bien común, ya sea compartiendo sus resultados, reconociendo el origen de los datos o respetando las preferencias expresadas. Si bien una señal individual puede pasar desapercibida, el uso generalizado de CC Signals por parte de comunidades de práctica, instituciones culturales o desarrolladores de IA puede establecer una norma ética reconocida globalmente.

La iniciativa se encuentra actualmente en fase de desarrollo beta y se ha abierto a la participación pública a través de GitHub. Se prevé que una versión alpha esté disponible en noviembre de 2025. Durante los meses de julio y agosto, Creative Commons organizará una serie de encuentros virtuales para debatir el marco propuesto y recoger aportaciones. Estos espacios permitirán a creadores, tecnólogos, académicos y activistas colaborar en la construcción colectiva de esta nueva herramienta de gobernanza digital.

El uso de herramientas de inteligencia artificial generativa (IA Gen) en la redacción de textos académicos

Hosseini, Mohammad, Bert Gordijn, Gregory Kaebnick y Kristi Holmes. 2025. “Disclosing Generative AI Use for Writing Assistance Should Be Voluntary.Research Ethics, junio de 2025. https://doi.org/10.1177/17470161251345499

El artículo defiende una postura equilibrada que respeta el derecho de los autores a apoyarse en herramientas tecnológicas sin ser estigmatizados, al tiempo que reconoce la importancia de la transparencia en determinados casos. La IA generativa se ha convertido en una herramienta más dentro del ecosistema de la escritura científica, y su uso no debería ser tratado de forma excepcional si no aporta una contribución sustancial al contenido o al razonamiento del manuscrito. Este enfoque voluntario evita riesgos de discriminación y promueve un entorno editorial más justo y realista en la era de la inteligencia artificial.

Durante los últimos años, especialmente desde la irrupción de modelos como ChatGPT, ha aumentado considerablemente el número de investigadores que emplean estas herramientas para mejorar o redactar sus manuscritos. Frente a esta realidad, surgieron propuestas para exigir que los autores declarasen explícitamente el uso de IA en sus textos. Esta obligación pretendía evitar que los lectores atribuyeran erróneamente a los autores humanos contenidos generados por máquinas, facilitar el trabajo de los revisores y asegurar el cumplimiento de las políticas editoriales.

Sin embargo, los autores del artículo, tras una evaluación crítica de la evolución y el uso actual de estas tecnologías, han modificado su postura y ahora proponen que la declaración del uso de IA sea voluntaria. Este cambio de posición se basa en tres argumentos principales.

  • Primero, consideran que el aporte de las herramientas generativas a los textos académicos es, en la mayoría de los casos, superficial y poco distinguible, por lo que no alcanza el umbral que justifique su reconocimiento formal.
  • Segundo, destacan que actualmente es casi imposible determinar con precisión qué fragmentos fueron generados por IA, ya que muchas herramientas actúan como asistentes que sugieren frases o corrigen estilo, funciones similares a las de los correctores ortográficos avanzados.
  • Tercero, y no menos importante, señalan que exigir la declaración obligatoria podría perjudicar especialmente a autores cuya lengua materna no es el inglés, ya que estos investigadores suelen apoyarse en herramientas de IA para mejorar la calidad lingüística de sus manuscritos. Obligarles a declarar este uso podría introducir sesgos y discriminación en el proceso de revisión por pares.

A partir de estos argumentos, los autores sugieren una alternativa: permitir que la declaración del uso de IA sea voluntaria, mediante un sistema opcional —como un checkbox— dentro de la plataforma de envío del manuscrito. Este aviso no debería aparecer en el artículo publicado, sino solo ser visible para los editores, con el fin de garantizar transparencia sin afectar la percepción del texto por parte de los evaluadores o lectores. La declaración voluntaria sería especialmente útil en disciplinas donde el estilo literario y la autoría personal del texto son fundamentales, o cuando los propios autores consideren que su uso de IA merece ser conocido por razones éticas o contextuales.