Archivo de la etiqueta: Ética de la información

Uno de cada 277 artículos indexados en PubMed en 2026 muestra referencias fabricadas por una IA

Retraction Watch. “One in 277 PubMed-indexed Papers in 2026 Shows Fabricated References, Says Analysis.Retraction Watch, 7 de mayo de 2026. https://retractionwatch.com/2026/05/07/one-in-277-pubmed-indexed-papers-in-2026-shows-fabricated-references-says-analysis/

Un análisis reciente difundido por Retraction Watch advierte de un crecimiento muy acusado de las referencias bibliográficas falsas dentro de la literatura biomédica indexada en PubMed. El estudio, presentado en forma de carta en The Lancet, examinó cerca de 2,5 millones de artículos científicos y concluyó que las citas inventadas se han multiplicado por doce en apenas dos años.

Los investigadores detectaron que aproximadamente uno de cada 277 artículos publicados en las primeras siete semanas de 2026 incluía al menos una referencia a un trabajo inexistente. La comparación histórica muestra una escalada preocupante: en 2025 la proporción era de uno entre 458, mientras que en 2023 era de uno entre 2.828. Esto sugiere que el fenómeno no es marginal, sino creciente y sistemático.

El equipo estuvo liderado por Maxim Topaz, del Data Science Institute de la Universidad de Columbia. Para separar errores tipográficos o abreviaturas irregulares de verdaderas invenciones bibliográficas, los autores emplearon herramientas de inteligencia artificial capaces de contrastar títulos y registros reales. Esto permitió identificar con mayor precisión qué citas eran simplemente incorrectas y cuáles correspondían a documentos inexistentes.

Según el informe, el aumento más brusco comenzó a mediados de 2024, coincidiendo con la expansión masiva de herramientas de escritura asistida por IA generativa. El artículo relaciona este crecimiento con el uso inadecuado de modelos de lenguaje capaces de producir referencias aparentemente verosímiles, aunque inexistentes, si no se supervisan correctamente.

Las implicaciones son profundas para la comunicación científica. Las referencias falsas contaminan revisiones bibliográficas, dificultan la verificación de fuentes y erosionan la confianza en el sistema académico. El caso refuerza la necesidad de controles editoriales más estrictos, verificadores automáticos de citas y formación ética en el uso de IA para la redacción científica.

Publicación académica en la era de la IA: del valor del contenido a valor de la confianza como nuevo eje del sistema científico

Academic Publishing in the Age of AI: From Content to Trust.” The Scholarly Kitchen, 22 de abril de 2026. https://scholarlykitchen.sspnet.org/2026/04/22/academic-publishing-in-the-age-of-ai-from-content-to-trust/.

La inteligencia artificial no debe entenderse simplemente como una herramienta que mejora la productividad en la publicación académica, sino como un cambio estructural profundo en la forma en que circula el conocimiento. Este cambio afecta directamente a cómo se construye, valida y percibe la autoridad científica. En otras palabras, la IA no solo acelera procesos, sino que transforma los mecanismos mediante los cuales se genera credibilidad en la ciencia.

Tradicionalmente, el sistema de publicación académica ha estado centrado en el contenido: artículos, libros o datasets evaluados mediante revisión por pares. Sin embargo, en un entorno donde la IA puede generar textos científicos, resumir investigaciones o incluso producir resultados plausibles a gran escala, el contenido en sí mismo deja de ser un indicador suficiente de calidad. El artículo sostiene que estamos transitando hacia un modelo donde lo fundamental ya no es tanto “qué se publica”, sino “en quién confiar” y “cómo se valida” lo publicado.

La IA se integrará en el flujo de trabajo de la investigación. Lo más importante de la IA no es que los científicos la «usen»; La IA se integrará en la infraestructura científica misma. Ya observamos indicios tempranos: automatización del flujo de trabajo de investigación, herramientas de selección de manuscritos, controles de integridad de la investigación, herramientas de redacción científica y revisión por pares asistida por IA. Estos sistemas y herramientas se integrarán cada vez más y será más difícil separarlos de los flujos de trabajo que respaldan.

Con el tiempo, la IA estará presente en todo el ciclo de vida de la investigación, ayudando en la planificación de experimentos, la optimización de protocolos, el análisis de datos, la detección de anomalías y el reconocimiento de patrones. La IA ya se está integrando en la mayoría de las plataformas de publicación, sistemas de revisión por pares e interfaces de descubrimiento, aunque el proceso aún es incipiente. Editores, revisores y autores inevitablemente utilizarán la IA cada vez más para mejorar la productividad, pulir manuscritos e informes de revisión, así como para seleccionar y preparar manuscritos en las diferentes etapas del flujo de trabajo de publicación.

De ello se deduce que, a medida que el contenido se vuelve barato, el escepticismo es esencial, pero costoso.

  • La gente dejará de preguntarse: «¿Está bien escrito?». y comenzarán a preguntarse: «¿Es esto real?».
  • Dejarán de preguntar «¿Está publicado?» y empezarán a preguntarse «¿Está manipulado?».
  • La pregunta cambia de «¿Es convincente?» a «¿Puedo confiar en ello?».

En este nuevo escenario, los marcadores tradicionales de confianza —como la autoría, la afiliación institucional o la revisión por pares— se ven tensionados. La facilidad con la que la IA puede generar textos convincentes introduce riesgos de saturación informativa, manipulación o pérdida de integridad científica. Por ello, los sistemas de publicación deben evolucionar para reforzar nuevas formas de señalización de credibilidad, incluyendo mayor transparencia en los procesos, trazabilidad de los contenidos y mecanismos más robustos de validación.

El texto también sugiere que el papel de los editores, revisores y plataformas de publicación podría transformarse profundamente. Más que simples intermediarios del contenido, pasarán a ser garantes de confianza, responsables de establecer y mantener estándares que permitan distinguir conocimiento fiable en un entorno saturado de producción automatizada. Esto implica repensar infraestructuras, políticas editoriales y modelos de evaluación científica.

El artículo apunta a una reconfiguración del ecosistema académico en su conjunto. La IA desplaza el foco desde la producción hacia la curación, la validación y la gobernanza del conocimiento, lo que podría redefinir el valor de instituciones como universidades, editoriales y bibliotecas. En este contexto, el desafío central no será generar más información —algo que la IA ya hace con gran eficiencia—, sino asegurar que esa información sea fiable, verificable y socialmente legítima.

La divulgación del uso de inteligencia artificial en la publicación académica: hacia estándares de transparencia disciplinar

Flowchart of AI disclosure in scholarly publishing including author collaboration, manuscript review, and final publication.
Illustration showing AI disclosure steps for ethical scholarly publishing.

LaFlamme, Marcel, y Natalie Meyers. Enacting AI Disclosure in Scholarly Publishing. Preprint, Open Anthropology Research Repository (OARR), 2025.

Acceso al documento

El artículo aborda un fenómeno emergente en la comunicación científica contemporánea: la creciente exigencia de que los autores académicos declaren si han utilizado inteligencia artificial generativa (IA) y de qué manera en la elaboración de sus trabajos. Los autores sitúan esta cuestión en un contexto de rápida expansión de herramientas de IA en la investigación y la escritura académica, lo que ha generado nuevas tensiones en torno a la transparencia, la autoría y la responsabilidad intelectual. En este escenario, la divulgación del uso de IA se perfila como una práctica clave para mantener la integridad del sistema científico, aunque todavía carece de estándares homogéneos y plenamente consolidados.

El texto ofrece un mapa del panorama actual de prácticas de divulgación y atribución de la IA, mostrando que estas se encuentran en una fase incipiente, caracterizada por la diversidad de enfoques entre editoriales, disciplinas y organismos reguladores. Los autores destacan que, aunque existe un consenso general en torno a la necesidad de transparencia, las formas concretas de declarar el uso de IA —qué se debe declarar, cómo hacerlo y en qué parte del artículo— siguen siendo objeto de debate. Esta falta de estandarización genera incertidumbre tanto para autores como para editores, y dificulta la comparabilidad entre publicaciones.

Un aspecto central del artículo es su enfoque disciplinar, particularmente en relación con la antropología. Los autores sostienen que cualquier modelo de divulgación de IA debe adaptarse a los compromisos epistemológicos y éticos específicos de cada campo, en lugar de aplicarse de manera uniforme. En disciplinas como la antropología, donde la interpretación, la reflexividad y la relación con los sujetos de estudio son fundamentales, el uso de IA plantea cuestiones adicionales sobre la mediación tecnológica en la producción de conocimiento. Por ello, la divulgación no debe entenderse solo como un requisito técnico, sino como una práctica situada que refleja valores disciplinares.

El artículo también propone recomendaciones concretas para implementar la divulgación de IA, basadas en prácticas ya existentes en la publicación académica. Entre ellas, se sugiere integrar la información sobre el uso de IA en secciones ya consolidadas, como la metodología o los agradecimientos, así como desarrollar descripciones claras del tipo de uso realizado (por ejemplo, edición lingüística, generación de texto o análisis de datos). Estas recomendaciones buscan evitar soluciones completamente nuevas y, en su lugar, aprovechar infraestructuras editoriales ya establecidas para facilitar la adopción de la transparencia.

Además, el trabajo amplía su perspectiva más allá del ámbito editorial para analizar cómo la exigencia de divulgar el uso de IA está siendo codificada en distintos niveles —profesionales, institucionales y regulatorios—. Esto permite entender la divulgación no solo como una práctica académica, sino como parte de una tendencia más amplia hacia la rendición de cuentas en el uso de tecnologías automatizadas. En este sentido, las decisiones que tomen las disciplinas individuales deben interpretarse dentro de un ecosistema global en el que la transparencia tecnológica se está convirtiendo en un principio normativo transversal.

En conjunto, el artículo defiende que la divulgación del uso de IA no es simplemente una cuestión administrativa, sino un elemento crucial para preservar la confianza en la investigación, clarificar la autoría humana y hacer visibles los procesos de producción del conocimiento. Sin embargo, advierte que el desafío no radica únicamente en exigir transparencia, sino en diseñar modelos de divulgación que sean significativos, consistentes y sensibles a las particularidades de cada disciplina.

Las humanidades y la humanidad en un mundo de IA: un manifiesto para educadores

Real Discussion. “Humanities and Humanity in an AI World: An Educator’s Manifesto.” Real Discussion. Accedido abril de 2026.

Texto completo

El manifiesto se articula como una llamada a la acción: recuperar el valor de lo humano en un entorno tecnológico acelerado. Propone que la educación del futuro debe centrarse en formar ciudadanos capaces de convivir con la inteligencia artificial sin perder su capacidad de juicio, su sensibilidad ética y su creatividad. En última instancia, sostiene que el objetivo no es competir con las máquinas, sino reafirmar aquello que nos hace irreductiblemente humanos: la capacidad de pensar, sentir, interpretar y dar sentido al mundo.

El manifiesto plantea una defensa firme del papel de las humanidades en un mundo cada vez más dominado por la inteligencia artificial, subrayando que el verdadero desafío no es tecnológico, sino profundamente humano. En este contexto, la educación se convierte en el principal campo de batalla donde se decide si la IA será una herramienta al servicio del desarrollo humano o un sustituto de capacidades esenciales como el pensamiento crítico, la creatividad y la reflexión ética. El texto advierte que el riesgo no reside únicamente en la automatización, sino en la posible delegación de procesos cognitivos fundamentales a sistemas algorítmicos, lo que podría empobrecer la experiencia educativa y reducir la autonomía intelectual de los estudiantes.

El documento insiste en que las humanidades —filosofía, literatura, historia, artes— no son disciplinas accesorias, sino el núcleo que permite interpretar el mundo, cuestionarlo y dotarlo de significado. Frente a una IA capaz de generar respuestas rápidas y aparentemente coherentes, el manifiesto reivindica la lentitud del pensamiento crítico, la ambigüedad como espacio de aprendizaje y el error como parte indispensable del proceso educativo. En este sentido, alerta sobre el peligro de que los estudiantes utilicen la inteligencia artificial como sustituto del esfuerzo intelectual, debilitando su capacidad para argumentar, analizar y crear conocimiento propio.

Asimismo, el manifiesto propone una pedagogía renovada que no rechaza la inteligencia artificial, pero sí exige una integración consciente y crítica. La IA debe ser utilizada como apoyo, nunca como reemplazo del pensamiento humano. Esto implica rediseñar las metodologías educativas para priorizar habilidades que las máquinas no pueden replicar plenamente, como la empatía, el juicio ético, la interpretación contextual y la imaginación. En esta línea, coincide con otros enfoques humanistas que subrayan que la educación no puede reducirse a eficiencia o productividad, sino que debe cultivar la dimensión moral y relacional del ser humano.

Otro eje fundamental del texto es la defensa de la autonomía del profesorado. Los docentes no deben convertirse en meros supervisores de herramientas tecnológicas, sino seguir siendo guías intelectuales capaces de orientar el aprendizaje desde una perspectiva crítica. El manifiesto advierte que una adopción acrítica de la IA en el aula puede desplazar la autoridad pedagógica hacia sistemas automatizados diseñados por grandes corporaciones, lo que plantea riesgos no solo educativos, sino también políticos y culturales.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Planeta biblioteca 2026/04/09.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Planeta biblioteca 2026/04/09.

ESUCHAR

Descargar

En esta ocasión, Julio Alonso Arévalo analiza el impacto de la inteligencia artificial generativa en la integridad académica, destacando su rápida adopción y su utilidad en la investigación y la escritura. Señala que estas herramientas plantean riesgos como el plagio, la falta de originalidad, la generación de información falsa (alucinaciones) y el uso no declarado en publicaciones científicas. Asimismo, expone evidencias del aumento de textos académicos asistidos por IA y de problemas reales derivados de su uso indebido. Aborda también las limitaciones de los detectores de contenido generado por IA, subrayando su falta de fiabilidad y sus sesgos. Propone, además, medidas como el desarrollo de políticas claras, el uso de herramientas tecnológicas de detección y la alfabetización en IA para fomentar un uso ético y crítico. Concluye que la IA es una herramienta valiosa, pero no sustituye el pensamiento humano, siendo fundamentales la transparencia, la formación y la responsabilidad en su uso.

Las gafas con IA están ganando popularidad en China, desde las compras hasta las trampas en los exámenes

Zhou, Viola. “AI Glasses Are Catching On in China, from Shopping to Cheating.Rest of World, 27 de marzo de 2026. https://restofworld.org/2026/china-ai-glasses-cheating-privacy-boom/

Los primeros usuarios alquilan gafas con IA por 6 dólares al día para la navegación, la traducción y los exámenes escolares. Su expansión en China ilustra cómo la adopción tecnológica puede ir más rápido que la regulación y la reflexión ética, generando situaciones en las que la innovación convive con riesgos significativos, especialmente en ámbitos como la educación y la privacidad.

El rápido crecimiento del mercado de gafas inteligentes con inteligencia artificial en China, presentándolas como un ejemplo paradigmático de cómo una tecnología emergente puede integrarse en la vida cotidiana con una mezcla de entusiasmo, pragmatismo y ambigüedad ética. Impulsadas por grandes empresas tecnológicas como Xiaomi o Alibaba, así como por subsidios estatales destinados a estimular el consumo, estas gafas se están consolidando como un producto cada vez más accesible. Su precio, que oscila entre varios cientos y más de mil dólares, no ha impedido su expansión, en parte gracias a modelos de alquiler muy asequibles —desde unos pocos dólares al día— que facilitan su uso puntual.

Desde el punto de vista funcional, estas gafas ofrecen una amplia gama de aplicaciones prácticas que explican su atractivo inicial. Permiten la traducción en tiempo real, la navegación mientras se conduce o camina, la consulta de precios durante las compras o incluso el uso como teleprompter en presentaciones. En este sentido, representan una extensión del smartphone hacia un formato más integrado en el cuerpo, lo que apunta a una posible evolución de la computación personal hacia dispositivos más invisibles y ubicuos. Sin embargo, esta misma integración es la que abre la puerta a usos controvertidos y difíciles de controlar.

Uno de los aspectos más llamativos —y preocupantes— que recoge el artículo es su utilización en contextos educativos para hacer trampas en exámenes. Gracias a sus cámaras y a la conexión con modelos de lenguaje, las gafas pueden escanear preguntas y mostrar respuestas en tiempo real directamente en la lente. Este uso, aunque prohibido en pruebas oficiales, resulta difícil de detectar en entornos menos controlados, lo que está generando nuevas formas de fraude académico. La existencia de un mercado de alquiler orientado específicamente a este fin evidencia hasta qué punto la tecnología no solo responde a necesidades legítimas, sino que también se adapta rápidamente a usos oportunistas.

Más allá del ámbito educativo, el texto subraya un problema estructural mucho más profundo: el impacto en la privacidad. Estas gafas incorporan cámaras y sistemas de grabación que pueden utilizarse de forma discreta, lo que plantea serias preocupaciones sobre la vigilancia no consentida. Aunque algunos dispositivos incluyen indicadores luminosos para señalar cuándo están grabando, existen métodos para ocultarlos, lo que incrementa el riesgo de grabaciones encubiertas. En un contexto social donde la tecnología se vuelve cada vez más invisible, la capacidad de saber cuándo se está siendo observado o registrado se diluye, generando una nueva forma de vulnerabilidad para las personas que no utilizan estos dispositivos.

El artículo también señala que, pese a su crecimiento, estas gafas aún presentan importantes limitaciones técnicas que dificultan su adopción masiva. Problemas como el sobrecalentamiento, la corta duración de la batería o la incomodidad física hacen que muchos usuarios las utilicen solo de forma ocasional. Además, algunas de sus funciones pueden realizarse fácilmente con un smartphone, lo que plantea dudas sobre su valor añadido real en el corto plazo. Esta tensión entre potencial innovador y limitaciones prácticas es característica de muchas tecnologías en fase temprana de desarrollo.

En conjunto, el artículo ofrece una visión compleja y matizada: las gafas con IA no son solo un avance tecnológico prometedor, sino también un campo de experimentación social donde se ponen a prueba normas, límites y valores.

SocArXiv establece una política para regular el uso de inteligencia artificial en su repositorio

Cohen, Philip N. “SocArXiv Releases AI Policy.” SocOpen: Home of SocArXiv, 9 de marzo de 2026. https://socopen.org/2026/03/09/socarxiv-releases-ai-policy/

SocArXiv releases AI policy

El repositorio abierto SocArXiv, dedicado a la difusión de preprints en ciencias sociales, ha publicado una nueva política sobre el uso de inteligencia artificial (IA) con el objetivo de preservar la calidad del conocimiento académico y garantizar la fiabilidad del ecosistema de investigación. La iniciativa surge en un contexto marcado por el rápido crecimiento de herramientas generativas y por el aumento de envíos de artículos que incorporan contenido producido por modelos de lenguaje. La política pretende establecer criterios claros que permitan diferenciar entre el uso legítimo de herramientas de asistencia automatizada y la producción de trabajos generados mayoritariamente por IA que no cumplen estándares académicos.

El documento parte de una preocupación central: proteger lo que sus responsables denominan el “bien común epistémico” de la investigación científica. Según el repositorio, la proliferación de textos generados automáticamente —muchos de ellos de baja calidad o incluso fraudulentos— amenaza con diluir el valor de las publicaciones académicas. En un entorno como el de los servidores de preprints, donde los artículos se difunden sin revisión por pares formal, el riesgo es mayor, ya que estos documentos pueden adquirir apariencia de legitimidad académica al recibir identificadores persistentes o integrarse en sistemas de citación. Por ello, SocArXiv considera necesario introducir reglas que ayuden a filtrar contenidos problemáticos sin comprometer el carácter abierto de la plataforma.

La política también responde a problemas operativos derivados del aumento de envíos. El repositorio experimentó un crecimiento significativo en el número de artículos depositados, acompañado de un incremento de trabajos generados parcial o totalmente mediante sistemas de inteligencia artificial. Esta situación provocó un aumento de la carga de trabajo para los moderadores voluntarios encargados de revisar las propuestas antes de su publicación. Como medida previa a la política definitiva, en noviembre de 2025 se decidió suspender temporalmente la recepción de artículos centrados en modelos de IA o en el desarrollo técnico de estas tecnologías, con el fin de aliviar la presión sobre el sistema y elaborar una normativa clara.

El nuevo marco normativo establece que el uso de herramientas de inteligencia artificial puede ser aceptable en determinadas circunstancias, siempre que se declare de forma transparente y exista supervisión humana. Entre los usos considerados legítimos se encuentran tareas como la traducción automática, la ayuda en búsquedas bibliográficas, la organización de ideas, la corrección lingüística, el formateo de textos o ciertos procesos de análisis asistido por máquinas. En estos casos, los autores deben documentar claramente cómo se ha utilizado la herramienta y garantizar que el contenido final ha sido revisado críticamente por investigadores humanos. La transparencia en la declaración del uso de IA se convierte así en un requisito fundamental para la aceptación de los trabajos.

En contraste, la política define también usos explícitamente prohibidos. Entre ellos se incluye la generación automática de párrafos completos o secciones enteras del artículo sin supervisión adecuada, la creación de datos ficticios mediante modelos generativos, la invención de fuentes o referencias inexistentes, y la presentación de sistemas de IA como si fueran coautores humanos o interlocutores en procesos de investigación. Igualmente se rechazan los trabajos producidos íntegramente por sistemas generativos sin aportación sustancial de investigación humana. Estas prácticas son consideradas incompatibles con los estándares de integridad académica y constituyen motivo de rechazo inmediato.

Otro aspecto relevante de la política es que no pretende prohibir la inteligencia artificial en la investigación, sino establecer límites razonables para su uso. Los responsables del repositorio reconocen que los modelos de lenguaje y otras herramientas automatizadas están cada vez más integrados en los procesos de investigación, desde la traducción hasta el análisis de datos. Por ello, el objetivo no es iniciar una “carrera armamentística” para detectar automáticamente contenidos generados por IA, algo que consideran difícil de sostener técnicamente, sino crear normas simples y aplicables que fomenten comportamientos responsables por parte de los investigadores.

La política también pretende ofrecer orientación a los autores sobre dónde publicar determinados tipos de trabajos. SocArXiv se concibe principalmente como un repositorio para investigación en ciencias sociales, no como un espacio dedicado al desarrollo técnico de sistemas de inteligencia artificial. Por ello, algunos trabajos centrados en la creación o experimentación con modelos de IA pueden encontrar un encaje más adecuado en otros repositorios especializados. Esta delimitación temática busca mantener la coherencia disciplinar del repositorio y evitar que se convierta

Las políticas de IA de las revistas académicas no logran frenar el auge de la escritura académica asistida por IA.

He, Y., & Bu, Y. (2026). Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing. Proceedings of the National Academy of Sciences of the United States of America, 123(9), e2526734123. https://doi.org/10.1073/pnas.2526734123

El artículo aborda una cuestión crítica y de enorme actualidad en el mundo académico: la eficacia real de las políticas de inteligencia artificial (IA) adoptadas por revistas científicas para abordar el uso de herramientas de generación automática de texto.

En respuesta al crecimiento explosivo de herramientas de IA generativas como asistentes de redacción, muchas revistas han implementado políticas que, en teoría, deberían promover la transparencia (por ejemplo, requiriendo divulgación del uso de IA) y limitar la adopción indiscriminada para salvaguardar la integridad y originalidad de la literatura científica. Sin embargo, los autores señalan que el impacto real de estas políticas no se ha evaluado exhaustivamente a gran escala hasta ahora.

Para cuantificar ese impacto, los investigadores analizaron una base de datos consistente de 5 114 revistas académicas y más de 5,2 millones de artículos científicos para observar si las métricas de uso de IA y divulgación variaban entre publicaciones con y sin políticas formales sobre IA. Este enfoque permite ir más allá de los debates teóricos sobre política editorial y aportar evidencia empírica sobre lo que está ocurriendo en la práctica: ¿la existencia de una política de IA en una revista realmente frena el uso de herramientas automáticas o mejora la transparencia declarada?

Los resultados muestran una tendencia sorprendentemente clara: el uso de herramientas de IA en la redacción de artículos científicos crece rápidamente en todos los campos y tipos de revista, independientemente de si existe o no una política formal sobre IA. Incluso entre las revistas que han adoptado políticas de divulgación o restricción, no se observa una reducción significativa en el crecimiento del uso de IA en la escritura de artículos científicos en comparación con aquellas sin políticas. Este hallazgo pone en duda la eficacia de las políticas actuales como mecanismos de control, y sugiere que muchas de las prácticas de supervisión existentes pueden ser insuficientes para moderar la adopción de IA en la producción académica.

Además, los autores realizaron un análisis específico del texto completo de 164 000 publicaciones científicas, con especial atención a 75 000 artículos publicados desde 2023. Este análisis reveló una brecha notable en la transparencia: solo 76 artículos (~0,1 %) declararon explícitamente el uso de IA en su redacción, a pesar de que las herramientas automáticas son ampliamente accesibles y utilizadas. Esto indica no solo un aumento general en el uso de IA, sino también una ausencia de prácticas de divulgación consistentes, incluso cuando las revistas requieren declaraciones obligatorias sobre asistencia automatizada.

Los patrones observados en el crecimiento del uso de IA también varían según la disciplina y las características de las publicaciones. Los autores subrayan que las tasas de adopción de IA son especialmente elevadas en países no anglófonos, en las áreas de ciencias físicas y en revistas de acceso abierto de alto impacto. Este aspecto plantea cuestiones adicionales sobre cómo las diferencias culturales, lingüísticas y de acceso influyen en el uso de IA y en las estrategias de divulgación.

En el corazón de su discusión, los autores critican la ineficacia de las políticas actuales de las revistas como herramienta de regulación o guía ética frente al uso de IA en la escritura académica. Argumentan que las políticas basadas principalmente en declaraciones de uso no han logrado frenar la adopción de estas tecnologías, ni han aumentado la transparencia de manera significativa. En consecuencia, instan a una reevaluación completa de los marcos éticos y normativos que gobiernan la publicación científica, sugiriendo que se necesitan enfoques más robustos y posiblemente mecanismos automatizados que detecten y gestionen el uso de IA para proteger la integridad y fiabilidad de la investigación científica.

Colonialismo digital: cómo las empresas de IA siguen el manual del imperio

Russ‑Smith, Jessica y Michelle Lazarus. 2025. “Digital colonialism: How AI companies are following the playbook of empire. The Conversation, 26 de noviembre de 2025. https://theconversation.com/digital-colonialism-how-ai-companies-are-following-the-playbook-of-empire-269285 (consultado el 24 de febrero de 2026).

Las grandes empresas de inteligencia artificial están replicando prácticas históricas de colonialismo en el entorno digital contemporáneo. Según las autoras, compañías como OpenAI y Google utilizan cantidades enormes de datos disponibles en Internet —fotos, textos, videos, obras artísticas y otros contenidos— para entrenar sus algoritmos sin el consentimiento explícito ni compensación de los creadores originales, lo que simboliza una apropiación de recursos culturales y cognitivos parecida a la lógica extractiva de los antiguos imperios coloniales.

Esta dinámica se legitima muchas veces a través de interpretaciones amplias de doctrinas legales como el “uso justo” (fair use) en el derecho de autor estadounidense, mientras que al mismo tiempo las mismas empresas protegen vehementemente su propiedad intelectual.

Las autoras trazan un paralelo entre la noción de terra nullius —un concepto legal colonial que declaraba territorios como “tierra de nadie” para justificar su apropiación— y cómo las empresas de IA tratan los datos personales y comunitarios como si no pertenecieran a nadie. Así como los colonizadores asumían que las tierras indígenas no tenían dueño legítimo, las grandes plataformas tecnológicas asumen implícitamente que la vasta colección de datos en línea está disponible para uso y explotación sin negociación ni consentimiento verdaderos. Esto se ve intensificado por prácticas de “consentimiento agrupado”, donde al usuario se le presenta un único botón de “aceptar todo” para servicios o actualizaciones, lo que en realidad no deja opción real si se quiere continuar accediendo a herramientas esenciales del mundo digital.

En el texto también se exploran formas de resistencia y alternativas a esta situación. Se destaca la importancia de los movimientos por la soberanía de los datos liderados por comunidades originarias, que proponen modelos en los que la propiedad, el control y la gobernanza de los datos pertenecen a las personas o comunidades que los generan. Estas propuestas implican mecanismos como la “continuidad del consentimiento”, en los que cada solicitud de acceso a datos exige un permiso específico y continuo, y la negociación colectiva para decisiones sobre uso y acceso. Asimismo, se mencionan casos de litigios legales contra prácticas de scraping de datos por parte de empresas de IA, como demandas de plataformas digitales o de autores por el uso no autorizado de material para entrenar modelos, lo que indica que la resistencia legal y social contra el colonialismo digital ya está en marcha.

Las autoras concluyen que aunque las empresas de IA pueden parecer todopoderosas, las estrategias históricas de resistencia al colonialismo —desde luchas jurídicas hasta reivindicaciones de derechos colectivos— ofrecen modelos para desafiar la lógica extractiva en el ámbito digital. Construir un futuro digital más justo implica reconocer los derechos sobre los datos como derechos humanos y comunitarios, promover marcos legales que protejan esos derechos, y fomentar prácticas tecnológicas que no reproduzcan desigualdades ni apropiaciones no consentidas de conocimiento y cultura.

Silicon Valley construyó la IA comprando, escaneando y descartando millones de libros

Schaffer, Aaron; Oremus, Will y Tiku, Nitasha. “How Silicon Valley Built AI: Buying, Scanning & Discarding Millions of Books”, MSN (basado en Washington Post), 27 de enero de 2026. https://www.msn.com/en-us/technology/artificial-intelligence/how-silicon-valley-built-ai-buying-scanning-and-discarding-millions-of-books/ar-AA1V4aZv

En los últimos años, las grandes empresas de tecnología y startups de Silicon Valley han librado una competencia frenética por adquirir conjuntos masivos de datos textuales, especialmente libros, como materia prima para entrenar sus modelos de inteligencia artificial (IA).

Según documentos judiciales revelados en demandas por derechos de autor, compañías como Anthropic, Meta, Google y OpenAI emprendieron acciones a gran escala para obtener millones de títulos físicos y digitales con el objetivo de mejorar la capacidad de sus modelos de lenguaje para “entender” y “escribir bien”.

Un caso emblemático es el llamado Project Panama de Anthropic, descrito en documentos internos como un esfuerzo por comprar y escanear “todos los libros del mundo”. La compañía gastó decenas de millones de dólares comprando grandes lotes de libros, a menudo en lotes de decenas de miles, y contrató servicios profesionales para desencuadernar y escanear las páginas a gran velocidad. Después del escaneo, muchas de estas copias físicas fueron recicladas o descartadas, lo que ha generado preocupación entre autores y defensores del patrimonio cultural por la eliminación física de obras impresas.

Los detalles de Project Panama, inéditos hasta ahora, salieron a la luz en más de 4.000 páginas de documentos incluidos en una demanda por derechos de autor interpuesta por escritores contra Anthropic. La empresa, valorada por sus inversores en unos 183.000 millones de dólares, aceptó pagar 1.500 millones de dólares para cerrar el litigio en agosto. Sin embargo, la decisión de un juez federal de hacer públicos numerosos documentos del caso permitió conocer con mayor profundidad la intensidad con la que Anthropic persiguió la obtención de libros.

Estos nuevos archivos, junto con otros presentados en demandas similares contra empresas de inteligencia artificial, revelan hasta qué punto compañías tecnológicas como Anthropic, Meta, Google u OpenAI llegaron a extremos notables para reunir enormes volúmenes de datos con los que “entrenar” sus sistemas. En esa carrera acelerada, los libros fueron considerados un botín esencial. Así lo reflejan los registros judiciales: en enero de 2023, uno de los cofundadores de Anthropic sostenía que entrenar modelos con libros permitiría enseñarles “a escribir bien”, en lugar de limitarse a reproducir un “lenguaje de baja calidad propio de internet”. En un correo interno de Meta fechado en 2024, el acceso a grandes bibliotecas digitales se calificaba directamente como “imprescindible” para competir con otros actores del sector.

Sin embargo, los documentos sugieren que las empresas no consideraron viable solicitar autorización directa a autores y editoriales. En su lugar, según las acusaciones recogidas en los autos, Anthropic, Meta y otras compañías recurrieron a métodos de adquisición masiva sin conocimiento de los creadores, incluida la descarga de copias pirateadas.

Estos esfuerzos reflejan las tensiones legales y éticas detrás del entrenamiento de IA con datos culturales. Muchos autores y editoriales han emprendido demandas alegando que la adquisición y uso masivo de sus obras para entrenar modelos de IA se hizo sin permiso y constituye una violación de derechos de autor. A su vez, las empresas tecnológicas han argumentado que el uso es “transformador” y, en algunos fallos judiciales, se ha considerado legal bajo la doctrina de fair use (“uso justo”). No obstante, los documentos judiciales también han expuesto que algunas empresas, incluyendo Meta, consideraron o incluso utilizaron descargas masivas desde bibliotecas pirata en línea como LibGen para obtener copias digitales de libros sin pagar por ellos, lo que ha intensificado las críticas sobre prácticas poco transparentes.

En el caso de Meta, varios empleados expresaron internamente su inquietud ante la posibilidad de infringir la ley de derechos de autor al descargar millones de libros sin permiso. Aun así, un correo electrónico de diciembre de 2023 indicaba que la práctica había sido aprobada tras una “escalada a MZ”, en aparente referencia al consejero delegado Mark Zuckerberg. Meta declinó hacer comentarios al respecto.

Además de las cuestiones legales, expertos y críticos han señalado preocupaciones más amplias sobre el impacto cultural y social de estas prácticas. La destrucción física de libros tras su digitalización plantea preguntas sobre la preservación del patrimonio literario y el valor intrínseco de las obras impresas como registros culturales. Del mismo modo, la dependencia de datos extraídos de fuentes no autorizadas subraya la necesidad de un marco ético y regulador más robusto en torno al uso de contenidos creativos para construir inteligencias artificiales avanzadas.