Archivo de la etiqueta: Plagio

El cuento de Roald Dahl que anticipó la inteligencia artificial y la muerte del escritor

Dahl, Roald. “The Great Automatic Grammatizator.” 1954. PDF. Accedido en 2026. https://gwern.net/doc/fiction/science-fiction/1953-dahl-thegreatautomaticgrammatizator.pdf

Leer en español

Relato de Roald Dahl en el que un ingeniero frustrado diseña una máquina capaz de generar literatura mediante reglas gramaticales y combinatorias. El invento se industrializa y permite producir textos en masa, sustituyendo progresivamente a los escritores humanos en el mercado editorial. La historia satiriza la deshumanización de la creatividad y anticipa debates actuales sobre la automatización de la escritura y la inteligencia artificial.

Adolph Knipe, un joven ingeniero que trabaja en una empresa tecnológica, pero que en realidad esconde una ambición frustrada: quiere ser escritor. Sin embargo, su experiencia con el rechazo editorial y su formación técnica le llevan a una idea radicalmente distinta de la literatura: en lugar de ver la escritura como un acto creativo humano, la concibe como un proceso mecánico basado en reglas combinatorias del lenguaje.

A partir de esta intuición, Knipe desarrolla la idea de construir una máquina capaz de generar textos automáticamente. Su jefe, Bohlen, inicialmente desconfiado, termina aceptando financiar el proyecto al percibir su enorme potencial económico. La lógica es clara: si la máquina puede producir relatos aceptables de forma continua y barata, podría revolucionar el mercado literario.

La máquina, denominada el “Gran Gramaticador Automático”, se basa en un sistema de reglas gramaticales y combinaciones de palabras que permite generar historias de manera sistemática. Aunque los textos resultantes no son de gran calidad literaria, sí son coherentes, comprensibles y, sobre todo, infinitamente reproducibles. Esto convierte al sistema en una herramienta extremadamente rentable.

El éxito del invento lleva a Knipe y Bohlen a dar un paso más ambicioso: intervenir directamente en el mundo editorial. Su estrategia consiste en convencer a escritores reales —incluidos autores reconocidos— para que firmen contratos en los que ceden el uso de su nombre a cambio de una compensación económica. A partir de ese momento, la máquina escribe los textos que se publican bajo esos nombres. El prestigio del autor humano se mantiene como marca, pero el contenido es producido por el sistema automatizado.

Este modelo de negocio se expande rápidamente. Muchos escritores aceptan, seducidos por la estabilidad económica y la ausencia de esfuerzo creativo. Poco a poco, la figura del autor individual empieza a diluirse, sustituida por una producción industrial de literatura firmada con nombres humanos pero generada por la máquina.

A medida que el sistema se consolida, la industria editorial se transforma por completo. La abundancia de textos producidos por el gramaticador hace que los libros se vuelvan un producto barato y masivo. La calidad literaria deja de ser un criterio central; lo importante es la cantidad, la rentabilidad y la eficiencia del sistema automatizado.

Sin embargo, esta expansión tiene un efecto colateral inquietante: los escritores que se niegan a participar en el sistema quedan progresivamente marginados. Sus obras ya no pueden competir en un mercado inundado por producción automática. El relato muestra así un proceso de desplazamiento silencioso de la creatividad humana por la lógica industrial de la máquina.

El desenlace adquiere un tono oscuro e irónico. El mundo literario queda dominado por el gramaticador, mientras la escritura humana sobrevive solo de forma residual o marginal. La autoría deja de ser un acto de creación individual para convertirse en una etiqueta comercial aplicada a productos generados automáticamente.

¿Quién es el autor cuando las máquinas pueden escribir?

McCray, W. Patrick. “What Is Authorship When Machines Can Write?MIT Press Reader, 27 de abril de 2026. https://thereader.mitpress.mit.edu/what-is-authorship-when-machines-can-write/

El artículo aborda una cuestión central en la era de la inteligencia artificial generativa: qué significa ser autor cuando las máquinas pueden producir textos coherentes, creativos y aparentemente humanos. A partir del auge de sistemas como los modelos de lenguaje tipo ChatGPT, el autor explora cómo la noción de autoría —tradicionalmente vinculada a la creatividad, la intención y la originalidad humanas— se está volviendo cada vez más difusa.

McCray sitúa el debate en un contexto histórico amplio. Señala que la preocupación por máquinas capaces de escribir no es nueva, sino que tiene antecedentes en la literatura y la cultura del siglo XX. Ejemplos como el cuento de Roald Dahl The Great Automatic Grammatizator (1954) ya imaginaban un mundo en el que las máquinas producían literatura en masa, desplazando a los escritores humanos. Asimismo, menciona experimentos tempranos de generación automática de texto, como los de Christopher Strachey también en los años cincuenta, que producían cartas de amor mediante algoritmos simples, o el programa RACTER en los años ochenta, que llegó a publicar textos atribuidos a una “máquina escritora”. En 1981 apareció un relato firmado por una entidad llamada RACTER, un programa informático desarrollado por William Chamberlain y Thomas Etter. Publicado en la revista Omni, el texto “Soft Ions” se presentó como el primer experimento de ficción generada por ordenador. Strachey logró que un ordenador Ferranti Mark 1 generara cartas de amor mediante un algoritmo. Aunque los resultados eran pobres literariamente, eran comprensibles y mostraban enormes posibilidades combinatorias. RACTER seleccionaba palabras al azar y las organizaba según reglas gramaticales codificadas. Más tarde produciría incluso un libro de poemas, The Policeman’s Beard Is Half-Constructed, con frases absurdas pero ocasionalmente sugerentes.

A partir de estos antecedentes, el autor muestra que la idea de la escritura como proceso mecánico o combinatorio ha sido discutida también por pensadores como Italo Calvino, quien sugirió que la literatura podía entenderse como un sistema de reglas y combinaciones, lo que abría la posibilidad teórica de que una máquina pudiera generar textos literarios. La historia describe a un ingeniero brillante pero frustrado que construye una máquina capaz de producir ficción aceptable. El dispositivo genera relatos mediocres en masa, que su creador vende a gran escala, desplazando a los escritores humanos. Finalmente, el inventor ofrece contratos a autores para que dejen de escribir a cambio de dinero, y el relato culmina con la imagen de un escritor pobre que se niega a firmar y reza: “Danos fuerza, Señor, para dejar que nuestros hijos pasen hambre”.

El núcleo del artículo se centra en la irrupción de los modelos de lenguaje actuales, basados en aprendizaje profundo y entrenamiento con grandes volúmenes de datos. Estas tecnologías no “comprenden” el lenguaje en sentido humano, sino que generan texto mediante predicción estadística de palabras. Sin embargo, sus resultados pueden ser sorprendentemente coherentes, lo que plantea una tensión: si el resultado es indistinguible del texto humano, ¿importa cómo se produce?

McCray analiza también las implicaciones éticas, legales y laborales de esta transformación. Destaca conflictos recientes en el ámbito editorial y audiovisual, como huelgas de guionistas preocupados por el uso de IA en la escritura de guiones, así como demandas de autores que denuncian el uso no autorizado de sus obras para entrenar modelos de IA. También introduce el concepto de “textpocalypse”, la idea de una sobreproducción de textos generados por máquinas que podría saturar el ecosistema informativo.

El artículo plantea que la autoría no es solo una cuestión técnica, sino también social y cultural. La figura del autor implica intención, responsabilidad, creatividad y reconocimiento, elementos que la IA no posee en el mismo sentido que un ser humano. Sin embargo, la creciente calidad de los textos generados por máquinas obliga a reconsiderar estas categorías.

McCray no ofrece una respuesta cerrada, sino que subraya la incertidumbre del momento actual. La historia de la tecnología muestra que las fronteras entre lo humano y lo mecánico en la escritura han sido siempre móviles. Por ello, la pregunta sobre qué significa ser autor en la era de la IA sigue abierta y en evolución constante, dependiente tanto del desarrollo tecnológico como de las decisiones culturales y legales que se tomen en el futuro.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Planeta biblioteca 2026/04/09.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Planeta biblioteca 2026/04/09.

ESUCHAR

Descargar

En esta ocasión, Julio Alonso Arévalo analiza el impacto de la inteligencia artificial generativa en la integridad académica, destacando su rápida adopción y su utilidad en la investigación y la escritura. Señala que estas herramientas plantean riesgos como el plagio, la falta de originalidad, la generación de información falsa (alucinaciones) y el uso no declarado en publicaciones científicas. Asimismo, expone evidencias del aumento de textos académicos asistidos por IA y de problemas reales derivados de su uso indebido. Aborda también las limitaciones de los detectores de contenido generado por IA, subrayando su falta de fiabilidad y sus sesgos. Propone, además, medidas como el desarrollo de políticas claras, el uso de herramientas tecnológicas de detección y la alfabetización en IA para fomentar un uso ético y crítico. Concluye que la IA es una herramienta valiosa, pero no sustituye el pensamiento humano, siendo fundamentales la transparencia, la formación y la responsabilidad en su uso.

Inteligencia artificial vs. inteligencia artificial: herramientas de detección aplicadas a la evaluación educativa

Durán Benavides, Arturo, Claudia Rita Estrada Esquivel y Karen Quintero Álvarez. “Inteligencia artificial vs. inteligencia artificial: herramientas de detección aplicadas a la evaluación educativa.” En Inteligencia artificial: experiencias y reflexiones sobre la investigación educativa, editado por Alexandro Escudero-Nahón y Emma Patricia López, 2026. https://doi.org/10.56162/transdigitalbc13.29

Capítulo PDF

La detección de contenidos generados por IA no puede abordarse exclusivamente desde la tecnología. Aunque las herramientas actuales son útiles, su fiabilidad es limitada y no sustituyen el juicio crítico del docente. El verdadero reto reside en redefinir la evaluación educativa, pasando de un enfoque punitivo basado en la detección a un modelo formativo que promueva la ética, el pensamiento crítico y el uso responsable de la inteligencia artificial.

La incorporación de la inteligencia artificial generativa (IAG) en la educación ha supuesto una transformación profunda tanto en la producción académica como en los sistemas de evaluación. Más allá de una simple innovación tecnológica, se trata de un cambio pedagógico que obliga a replantear el papel del docente y los mecanismos tradicionales de verificación de la autoría. El uso generalizado de herramientas como ChatGPT ha intensificado las preocupaciones sobre el plagio y la deshonestidad intelectual, introduciendo nuevas formas de generación automatizada de textos que amplían el concepto clásico de copia.

En paralelo, diversos autores advierten que el uso excesivo de estas herramientas puede afectar negativamente al desarrollo del pensamiento crítico y la metacognición. Al ofrecer respuestas inmediatas y elaboradas, la IAG reduce la necesidad de análisis autónomo, lo que puede derivar en una dependencia tecnológica y en una pérdida de habilidades fundamentales para el aprendizaje profundo. Esto obliga a las instituciones a redefinir el concepto de plagio y a formar al alumnado en un uso ético y consciente de estas tecnologías.

Ante este escenario, han surgido herramientas de detección de contenido generado por IA, como Turnitin y Copyleaks, que emplean modelos estadísticos, lingüísticos y de aprendizaje automático para identificar patrones de escritura. Sin embargo, su eficacia es limitada: presentan márgenes de error significativos, especialmente frente a modelos generativos más avanzados, y existe un riesgo relevante de falsos positivos que puede derivar en acusaciones injustas. Además, las estrategias de evasión —como el parafraseo, la traducción o la manipulación textual— dificultan aún más la detección fiable.

Los resultados del estudio muestran que, aunque la IA ofrece oportunidades de personalización y mejora del aprendizaje, también incrementa prácticas deshonestas si no se regula adecuadamente. En este sentido, el problema no puede resolverse únicamente mediante herramientas tecnológicas, sino que exige una transformación de los modelos de evaluación hacia enfoques más auténticos, centrados en procesos, reflexión y participación activa del estudiante.

Desde una perspectiva pedagógica, se propone combinar el uso de la IA con estrategias evaluativas más complejas, como exámenes orales, proyectos colaborativos o actividades que valoren el proceso de aprendizaje. Asimismo, se subraya la importancia de la formación docente en inteligencia artificial y ética digital, ya que el profesorado debe estar preparado para integrar estas herramientas sin perder el control sobre la evaluación y el acompañamiento educativo.

En cuanto a las perspectivas futuras, destaca el desarrollo de la inteligencia artificial explicativa (XAI), orientada a hacer comprensibles los procesos de decisión de los sistemas automatizados. Esta línea permite avanzar hacia una evaluación más transparente y formativa, donde no solo importe el resultado, sino también la comprensión del proceso. Paralelamente, se señala la necesidad urgente de marcos normativos claros que regulen el uso de la IA en educación, como ya ocurre en la Unión Europea, frente a contextos donde aún existe un vacío legal.

El desafío del copyright en la música generada por IA: el caso Suno y las “covers” no autorizadas

Merritt, Chris. “Suno Is a Music Copyright Nightmare.The Verge, 5 de abril de 2026. https://www.theverge.com/ai-artificial-intelligence/906896/sunos-copyright-ai-music-covers

La tecnología de generación musical con IA ha superado las capacidades actuales de protección de derechos autorales, y herramientas como Suno, aun con políticas de bloqueo, pueden convertirse en un verdadero “nightmare” (pesadilla) de copyright si no se adoptan controles técnicos y legales mucho más estrictos.

La plataforma de generación musical con inteligencia artificial Suno enfrenta un serio problema con el respeto al copyright y la protección de obras musicales preexistentes. Aunque la compañía afirma en sus políticas que no permite el uso de material con derechos de autor y que bloquea estas entradas, investigaciones prácticas han demostrado que los controles automáticos son sumamente fáciles de burlar. Mediante técnicas sencillas —como alterar la velocidad de reproducción de una pista o añadir ruido blanco— cualquier usuario puede engañar a los filtros de copyright y generar covers con la IA que conservan elementos reconocibles de la obra original, lo que plantea alarmantes implicaciones tanto legales como éticas.

El texto detalla cómo estos controles no son exhaustivos y solo se aplican al momento de la subida de archivos, pero no se revisan de nuevo durante la generación ni antes de la exportación del resultado final. Esto permite que versiones generadas, a veces apenas ligeramente transformadas, se descarguen y se suban a servicios de streaming como Spotify, donde pueden confundirse con versiones legítimas y monetizarse sin compensar a los creadores originales. Esta situación es especialmente preocupante para artistas independientes o de menor notoriedad, cuyos trabajos a menudo no son detectados por los sistemas automáticos y terminan expuestos a usos no autorizados o incluso monetizaciones indebidas.

El artículo también señala que los resultados de estas “covers” generadas por IA suelen situarse en lo que se denomina situación legal compleja (uncanny valley): suenan extrañamente cercanos a las originales —reconocibles para el oyente— pero carecen de la energía, matices y creatividad propios de una interpretación humana. Pese a ello, estos productos artificiales son suficientes para confundir o distraer al público y representar un riesgo tangible para los ingresos de los artistas, ya que incluso un pequeño desvío de reproducciones en plataformas de streaming puede afectar significativamente las comisiones, especialmente cuando los pagos por reproducción suelen ser bajos.

En el centro de la controversia está la incapacidad de Suno y de sistemas técnicos similares para ofrecer protecciones eficaces frente a la reproducción no autorizada de obras protegidas por derechos de autor. A pesar de que plataformas como Spotify, Deezer o Qobuz han implementado algunas medidas para detectar contenido duplicado o sospechoso, estos mecanismos no son infalibles y requieren de supervisión humana para mejorar la precisión. Algunos casos reales, como el de la cantante folk Murphy Campbell, ilustran cómo incluso grabaciones aparentemente inocuas pueden acabar siendo usadas sin permiso y vinculadas a perfiles oficiales de artistas en servicios de streaming, provocando procesos de reclamación y complicaciones legales para quienes son afectados.

La situación del uso de IA para producir música plantea preguntas profundas sobre la viabilidad de los sistemas de autoregulación tecnológica y la necesidad de marcos legales más robustos. Si los filtros que supuestamente protegen los derechos de autor pueden ser engañados con herramientas gratuitas y conocimientos básicos, ello indica que la industria —tanto los desarrolladores de IA como las entidades de protección de derechos— se enfrenta a un desafío estructural. Según el artículo, esto no solo amenaza a los creadores, sino que también podría acelerar la intervención regulatoria en el sector, puesto que la incapacidad de los sistemas técnicos para asegurar el respeto al copyright demuestra que las soluciones puramente automatizadas no bastan para abordar la complejidad de los derechos de propiedad intelectual en la era de la inteligencia artificial.

El uso ilícito de la inteligencia artificial en la revisión por pares desata una crisis de integridad científica

Gibney, Elizabeth. “Major conference catches illicit AI use — and rejects hundreds of papers.” Nature, 2026. https://doi.org/10.1038/d41586-026-00893-2

Se aborda un caso reciente que pone de manifiesto los desafíos éticos y metodológicos derivados del uso de la inteligencia artificial en la comunicación científica, en particular en el proceso de revisión por pares. Una importante conferencia internacional en el ámbito de la inteligencia artificial detectó el uso indebido de herramientas de IA por parte de revisores que evaluaban artículos científicos. Como consecuencia, los organizadores decidieron rechazar cerca de 500 trabajos —aproximadamente un 2% del total de envíos— al considerar que se habían vulnerado las normas establecidas sobre el uso de estas tecnologías en el proceso de evaluación.

El núcleo del problema reside en que algunos revisores emplearon modelos de lenguaje para generar o asistir en la redacción de sus informes de evaluación sin declararlo, lo que contraviene las políticas de muchas conferencias y revistas científicas. Estas normas suelen prohibir o restringir el uso de IA en la revisión por pares debido a riesgos relacionados con la confidencialidad de los manuscritos, la posible filtración de datos inéditos y la falta de transparencia en los criterios de evaluación. En este caso concreto, los organizadores pudieron identificar el uso de IA gracias a la presencia de marcas de agua (watermarks) en los textos generados por estas herramientas, lo que evidencia tanto el avance tecnológico en la detección como la creciente sofisticación de estos sistemas.

El artículo subraya que este episodio no es aislado, sino representativo de una tendencia más amplia en la que la inteligencia artificial está transformando profundamente los procesos académicos tradicionales. La revisión por pares, considerada durante décadas como un pilar de la calidad científica, se enfrenta ahora a nuevas tensiones derivadas de la automatización parcial de tareas intelectuales. La utilización de IA puede, en principio, agilizar procesos y mejorar la eficiencia, pero también introduce interrogantes sobre la autoría, la responsabilidad y la fiabilidad de las evaluaciones. En este contexto, se hace evidente la necesidad de redefinir las normas éticas y los protocolos de actuación en la comunidad científica.

Asimismo, el caso pone de relieve la dificultad de equilibrar innovación tecnológica e integridad académica. Por un lado, la IA ofrece herramientas poderosas para la redacción, el análisis y la síntesis de información; por otro, su uso no regulado puede comprometer principios fundamentales como la originalidad, la confidencialidad y la imparcialidad. El artículo sugiere que las instituciones científicas deberán adaptarse rápidamente, estableciendo políticas claras y mecanismos de supervisión eficaces para evitar abusos sin frenar el potencial transformador de estas tecnologías.

El texto presenta este incidente como una señal de alerta para la comunidad científica global. La irrupción de la inteligencia artificial en los procesos de evaluación no solo obliga a replantear las normas existentes, sino que también invita a una reflexión más profunda sobre el futuro de la ciencia, la confianza en sus mecanismos de validación y el papel de los investigadores en un entorno cada vez más mediado por tecnologías inteligentes.

SocArXiv establece una política para regular el uso de inteligencia artificial en su repositorio

Cohen, Philip N. “SocArXiv Releases AI Policy.” SocOpen: Home of SocArXiv, 9 de marzo de 2026. https://socopen.org/2026/03/09/socarxiv-releases-ai-policy/

SocArXiv releases AI policy

El repositorio abierto SocArXiv, dedicado a la difusión de preprints en ciencias sociales, ha publicado una nueva política sobre el uso de inteligencia artificial (IA) con el objetivo de preservar la calidad del conocimiento académico y garantizar la fiabilidad del ecosistema de investigación. La iniciativa surge en un contexto marcado por el rápido crecimiento de herramientas generativas y por el aumento de envíos de artículos que incorporan contenido producido por modelos de lenguaje. La política pretende establecer criterios claros que permitan diferenciar entre el uso legítimo de herramientas de asistencia automatizada y la producción de trabajos generados mayoritariamente por IA que no cumplen estándares académicos.

El documento parte de una preocupación central: proteger lo que sus responsables denominan el “bien común epistémico” de la investigación científica. Según el repositorio, la proliferación de textos generados automáticamente —muchos de ellos de baja calidad o incluso fraudulentos— amenaza con diluir el valor de las publicaciones académicas. En un entorno como el de los servidores de preprints, donde los artículos se difunden sin revisión por pares formal, el riesgo es mayor, ya que estos documentos pueden adquirir apariencia de legitimidad académica al recibir identificadores persistentes o integrarse en sistemas de citación. Por ello, SocArXiv considera necesario introducir reglas que ayuden a filtrar contenidos problemáticos sin comprometer el carácter abierto de la plataforma.

La política también responde a problemas operativos derivados del aumento de envíos. El repositorio experimentó un crecimiento significativo en el número de artículos depositados, acompañado de un incremento de trabajos generados parcial o totalmente mediante sistemas de inteligencia artificial. Esta situación provocó un aumento de la carga de trabajo para los moderadores voluntarios encargados de revisar las propuestas antes de su publicación. Como medida previa a la política definitiva, en noviembre de 2025 se decidió suspender temporalmente la recepción de artículos centrados en modelos de IA o en el desarrollo técnico de estas tecnologías, con el fin de aliviar la presión sobre el sistema y elaborar una normativa clara.

El nuevo marco normativo establece que el uso de herramientas de inteligencia artificial puede ser aceptable en determinadas circunstancias, siempre que se declare de forma transparente y exista supervisión humana. Entre los usos considerados legítimos se encuentran tareas como la traducción automática, la ayuda en búsquedas bibliográficas, la organización de ideas, la corrección lingüística, el formateo de textos o ciertos procesos de análisis asistido por máquinas. En estos casos, los autores deben documentar claramente cómo se ha utilizado la herramienta y garantizar que el contenido final ha sido revisado críticamente por investigadores humanos. La transparencia en la declaración del uso de IA se convierte así en un requisito fundamental para la aceptación de los trabajos.

En contraste, la política define también usos explícitamente prohibidos. Entre ellos se incluye la generación automática de párrafos completos o secciones enteras del artículo sin supervisión adecuada, la creación de datos ficticios mediante modelos generativos, la invención de fuentes o referencias inexistentes, y la presentación de sistemas de IA como si fueran coautores humanos o interlocutores en procesos de investigación. Igualmente se rechazan los trabajos producidos íntegramente por sistemas generativos sin aportación sustancial de investigación humana. Estas prácticas son consideradas incompatibles con los estándares de integridad académica y constituyen motivo de rechazo inmediato.

Otro aspecto relevante de la política es que no pretende prohibir la inteligencia artificial en la investigación, sino establecer límites razonables para su uso. Los responsables del repositorio reconocen que los modelos de lenguaje y otras herramientas automatizadas están cada vez más integrados en los procesos de investigación, desde la traducción hasta el análisis de datos. Por ello, el objetivo no es iniciar una “carrera armamentística” para detectar automáticamente contenidos generados por IA, algo que consideran difícil de sostener técnicamente, sino crear normas simples y aplicables que fomenten comportamientos responsables por parte de los investigadores.

La política también pretende ofrecer orientación a los autores sobre dónde publicar determinados tipos de trabajos. SocArXiv se concibe principalmente como un repositorio para investigación en ciencias sociales, no como un espacio dedicado al desarrollo técnico de sistemas de inteligencia artificial. Por ello, algunos trabajos centrados en la creación o experimentación con modelos de IA pueden encontrar un encaje más adecuado en otros repositorios especializados. Esta delimitación temática busca mantener la coherencia disciplinar del repositorio y evitar que se convierta

Las políticas de IA de las revistas académicas no logran frenar el auge de la escritura académica asistida por IA.

He, Y., & Bu, Y. (2026). Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing. Proceedings of the National Academy of Sciences of the United States of America, 123(9), e2526734123. https://doi.org/10.1073/pnas.2526734123

El artículo aborda una cuestión crítica y de enorme actualidad en el mundo académico: la eficacia real de las políticas de inteligencia artificial (IA) adoptadas por revistas científicas para abordar el uso de herramientas de generación automática de texto.

En respuesta al crecimiento explosivo de herramientas de IA generativas como asistentes de redacción, muchas revistas han implementado políticas que, en teoría, deberían promover la transparencia (por ejemplo, requiriendo divulgación del uso de IA) y limitar la adopción indiscriminada para salvaguardar la integridad y originalidad de la literatura científica. Sin embargo, los autores señalan que el impacto real de estas políticas no se ha evaluado exhaustivamente a gran escala hasta ahora.

Para cuantificar ese impacto, los investigadores analizaron una base de datos consistente de 5 114 revistas académicas y más de 5,2 millones de artículos científicos para observar si las métricas de uso de IA y divulgación variaban entre publicaciones con y sin políticas formales sobre IA. Este enfoque permite ir más allá de los debates teóricos sobre política editorial y aportar evidencia empírica sobre lo que está ocurriendo en la práctica: ¿la existencia de una política de IA en una revista realmente frena el uso de herramientas automáticas o mejora la transparencia declarada?

Los resultados muestran una tendencia sorprendentemente clara: el uso de herramientas de IA en la redacción de artículos científicos crece rápidamente en todos los campos y tipos de revista, independientemente de si existe o no una política formal sobre IA. Incluso entre las revistas que han adoptado políticas de divulgación o restricción, no se observa una reducción significativa en el crecimiento del uso de IA en la escritura de artículos científicos en comparación con aquellas sin políticas. Este hallazgo pone en duda la eficacia de las políticas actuales como mecanismos de control, y sugiere que muchas de las prácticas de supervisión existentes pueden ser insuficientes para moderar la adopción de IA en la producción académica.

Además, los autores realizaron un análisis específico del texto completo de 164 000 publicaciones científicas, con especial atención a 75 000 artículos publicados desde 2023. Este análisis reveló una brecha notable en la transparencia: solo 76 artículos (~0,1 %) declararon explícitamente el uso de IA en su redacción, a pesar de que las herramientas automáticas son ampliamente accesibles y utilizadas. Esto indica no solo un aumento general en el uso de IA, sino también una ausencia de prácticas de divulgación consistentes, incluso cuando las revistas requieren declaraciones obligatorias sobre asistencia automatizada.

Los patrones observados en el crecimiento del uso de IA también varían según la disciplina y las características de las publicaciones. Los autores subrayan que las tasas de adopción de IA son especialmente elevadas en países no anglófonos, en las áreas de ciencias físicas y en revistas de acceso abierto de alto impacto. Este aspecto plantea cuestiones adicionales sobre cómo las diferencias culturales, lingüísticas y de acceso influyen en el uso de IA y en las estrategias de divulgación.

En el corazón de su discusión, los autores critican la ineficacia de las políticas actuales de las revistas como herramienta de regulación o guía ética frente al uso de IA en la escritura académica. Argumentan que las políticas basadas principalmente en declaraciones de uso no han logrado frenar la adopción de estas tecnologías, ni han aumentado la transparencia de manera significativa. En consecuencia, instan a una reevaluación completa de los marcos éticos y normativos que gobiernan la publicación científica, sugiriendo que se necesitan enfoques más robustos y posiblemente mecanismos automatizados que detecten y gestionen el uso de IA para proteger la integridad y fiabilidad de la investigación científica.

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.

¿Por qué los autores no revelan el uso de IA en sus trabajos de investigación?

Staiman, Avi. 2026. “Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It.The Scholarly Kitchen, January 27, 2026. https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/

El artículo aborda el fenómeno creciente de que muchos autores académicos no están declarando el uso de herramientas de inteligencia artificial (IA) en sus procesos de investigación y redacción, a pesar de que un número significativo de ellos reconoce emplearlas en distintas fases del trabajo científico

Staiman explica que, aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.

Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.

Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.

Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.

Finalmente, el autor advierte que, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Argumenta que las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.