Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

La IA y el futuro de la educación: perturbaciones, dilemas y orientaciones.

UNESCO. “AI and the Future of Education: Disruptions, Dilemmas and Directions.UNESCO, 2 de septiembre de 2025. https://unesdoc.unesco.org/ark:/48223/pf0000395236_eng

La UNESCO presenta una antología que explora cómo la inteligencia artificial (IA) está transformando la educación, sus disrupciones, los dilemas éticos y las posibles orientaciones futuras. Se reconoce que la IA ya está modificando la forma en que enseñamos, aprendemos y entendemos el mundo, pero estas transformaciones no se distribuyen por igual. Aproximadamente un tercio de la humanidad sigue sin acceso adecuado a la conectividad, y quienes tienen suscripciones, buena infraestructura o ventaja lingüística son los que más se benefician.

Este desequilibrio implica que no solo el acceso tecnológico sea desigual, sino también qué tipos de conocimientos, valores e idiomas predominan en los sistemas educativos impulsados por IA. Los sistemas tienden a reflejar las estructuras dominantes que ya existen, lo que plantea preguntas sobre equidad, diversidad cultural e inclusión

Además, la antología aborda dilemas filosóficos, éticos y pedagógicos: ¿cómo evaluar a los estudiantes en la era de la IA?, ¿cómo asegurarse de que estas tecnologías promuevan el cuidado, la justicia y los derechos humanos? ¿Cómo diseñar políticas, currículos y pedagogías que reconozcan la cooperación humano-máquina sin deshumanizar ni reforzar desigualdades?

Para enfrentar estos retos, la UNESCO propone fomentar un “commons global” para el diálogo: un espacio global compartido para pensar juntos, debatir diferencias y reimaginar una educación inclusiva en la era de la IA. Se apoya en sus recomendaciones sobre ética de la IA, orientaciones para IA generativa en educación e investigación, y marcos de competencias para docentes y estudiantes.

El promedio de palabras por oración en los bestsellers cae a menos de la mitad (1931–2025)

The Economist, «Is the decline of reading making politics dumber?» The Economist, 4 de septiembre de 2025, https://www.economist.com/culture/2025/09/04/is-the-decline-of-reading-making-politics-dumber

La imagen corresponde a un gráfico publicado por The Economist bajo el título “Get to the point”, que analiza la evolución de la longitud promedio de las oraciones en los libros populares a lo largo de casi un siglo. El eje horizontal representa los años, desde 1931 hasta la actualidad, y el eje vertical muestra el promedio de palabras por oración en las obras que han figurado en la lista de bestsellers del New York Times. Los puntos dispersos en color naranja corresponden a obras individuales, mientras que la línea roja representa la tendencia general en este periodo.

Lo primero que destaca es una tendencia descendente clara: en los años treinta y cuarenta del siglo XX, las frases de los libros más vendidos solían contener en promedio entre 20 y 25 palabras, e incluso casos como Frenchman’s Creek de Daphne du Maurier superaban las 30 palabras por oración. Sin embargo, a medida que avanzan las décadas, se observa una reducción progresiva en la complejidad sintáctica. A partir de los años noventa y en especial en el siglo XXI, el promedio cae notablemente hacia un rango más cercano a 12 o 15 palabras por oración, con ejemplos recientes como It Ends With Us de Colleen Hoover, donde el promedio ronda apenas las 10 palabras.

Este fenómeno sugiere un cambio profundo en los hábitos de escritura y lectura. La literatura de consumo masivo parece haberse adaptado a lectores que demandan frases más breves, directas y fáciles de procesar. En lugar de estructuras largas y subordinadas, propias de la narrativa clásica del siglo XX, hoy se privilegia la inmediatez y la claridad. Esto puede estar relacionado con la influencia de la cultura digital, donde la lectura en pantallas, redes sociales y mensajería instantánea fomenta el uso de frases cortas y un estilo más ágil.

Otro aspecto relevante es el impacto cultural de este cambio estilístico. Oraciones más cortas no implican necesariamente menor calidad literaria, pero sí indican una tendencia hacia la simplificación del lenguaje. Esto tiene consecuencias en la manera en que los lectores se enfrentan a ideas complejas: frases largas suelen exigir mayor concentración, capacidad de abstracción y paciencia, mientras que frases breves favorecen la inmediatez, pero a veces a costa de la profundidad. El gráfico de The Economist se enlaza con la preocupación más amplia —ya expresada en otros artículos del medio— sobre cómo el declive de la “lectura profunda” afecta la capacidad crítica y, en última instancia, el debate público y político.

Finalmente, conviene subrayar que este descenso en la longitud media de las frases no es un fenómeno aislado, sino parte de un cambio más global en la comunicación escrita. Los géneros periodísticos, académicos y literarios muestran ajustes semejantes: más concisión, menos subordinadas, más ritmo directo. La literatura popular, al reflejar los gustos del mercado, es un buen indicador de estas transformaciones culturales. En conclusión, la gráfica nos habla tanto de la evolución de la prosa de los bestsellers como de un viraje cultural más amplio en la forma en que leemos, escribimos y entendemos el lenguaje en la actualidad.

La crisis de la lectura profunda y sus efectos en el discurso político

Is the Decline of Reading Making Politics Dumber?The Economist, 4 de septiembre de 2025. https://www.economist.com/culture/2025/09/04/is-the-decline-of-reading-making-politics-dumbe

La llegada de medios digitales, la disminución del hábito de leer, y la simplificación creciente del discurso público podrían estar socavando la calidad del pensamiento político y, por ende, la democracia misma. La tesis principal sostiene que leer menos —y de forma más superficial— degrada nuestra capacidad de entender ideas complejas, matizar puntos de vista y sostener argumentos sofisticados, lo cual tiene consecuencias en la manera como se hace política.

El artículo comienza citando experimentos y estudios que muestran que incluso estudiantes universitarios pueden tener dificultades para comprender fragmentos literarios clásicos con vocabulario rico, metáforas o estructura compleja. Estos hallazgos ilustran que la disminución en la exposición a textos desafiantes está estrechamente ligada a la reducción de la habilidad de lectura profunda, o deep reading, lo cual impacta directamente en la capacidad de analizar y evaluar argumentos más elaborados.

A continuación, el artículo conecta esta merma en las competencias lectoras con la degradación del discurso político. Se argumenta que políticos y medios —diseñados para captar la mayor atención posible en un entorno cada vez más fragmentado y mediático— tienden a favorecer mensajes breves, directos, emocionales y polarizantes. Estos mensajes, si bien eficaces para atraer atención, requieren poca reflexión, y a menudo evitan matices o complejidades que sí están presentes en los temas reales.

Además, se reflexiona sobre cómo esta tendencia puede tener efectos retroactivos: al leer menos y de manera más superficial, los ciudadanos están menos equipados para ejercer un pensamiento crítico, aceptar incertidumbre, o tolerar el debate genuino. Esto alimenta un círculo vicioso donde la política se vuelve cada vez más dominada por lo espectacular, lo emocional y lo simplista, en lugar de ideas bien fundadas, deliberación cuidadosa, y compromisos fundamentados.

Por último, el artículo no pretende condenar las nuevas formas de consumo cultural ni ignora los avances de la comunicación digital. Sin embargo, advierte que estas no deben sustituir por completo a las prácticas de lectura profunda, especialmente en contextos como la política, donde el debate público robusto es esencial. Se sugiere entonces que devolverle espacio a la lectura extensa y al análisis riguroso puede ser vital para sostener una política que no se limite a lo emocional sino que promueva deliberación madura e informado.

Evaluación del software para compartir recursos en bibliotecas

Evaluating Resource Sharing Software’ Report.”Boston Library Consortium (BLC) , 10 de septiembre de 2025.

Texto completo

El objetivo principal del informe es proporcionar un conjunto claro de criterios que permitan a bibliotecas individuales y consorcios evaluar las funcionalidades de sus plataformas de intercambio de recursos y motivar un diálogo con administradores y proveedores de software para impulsar mejoras centradas en las necesidades reales del personal y los usuarios.

El documento incluye diversas secciones fundamentales. En primer lugar, ofrece criterios de evaluación, organizados entre funcionalidades esenciales (“must-have”) y deseables (“nice-to-have”), con el fin de guiar a los equipos responsables a identificar las prioridades locales según sus contextos específicos. Además, se presenta un marco histórico que revisa la evolución de las herramientas de intercambio de recursos en la última década, destacando los desafíos enfrentados y los modos en que BLC ha adaptado su enfoque frente a un entorno tecnológico y normativo cambiante. También se describe la metodología de categorización y priorización empleada para jerarquizar necesidades y crear una base de conocimiento que pueda servir tanto al consorcio como a la comunidad más amplia de bibliotecas

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.

SLMs: Modelos de lenguaje de IA pequeños, eficientes y especializados

Kumar, Ajay; Thomas H. Davenport; y Randy Bean. “The Case for Using Small Language Models.” Harvard Business Review, 8 de septiembre de 2025. https://hbr.org/2025/09/the-case-for-using-small-language-models?ab=HP-hero-latest-2

Los SLMs (Small Language Models) son modelos de IA más pequeños y eficientes que los LLMs, capaces de procesar lenguaje natural con menos recursos.
Destacan por su rapidez, bajo consumo y fácil implementación en dispositivos locales

Un SLM (Small Language Model, o modelo de lenguaje pequeño) es un modelo de inteligencia artificial entrenado para procesar y generar lenguaje natural, pero con muchos menos parámetros y recursos que los grandes modelos de lenguaje (LLMs, como GPT-4 o Gemini).

Hasta ahora, la revolución de la IA se ha definido por el tamaño: cuanto más grande es el modelo, más ambiciosas las expectativas. No obstante, se está produciendo un giro notable: los modelos de lenguaje pequeños (SLMs, por sus siglas en inglés), podrían convertirse en la columna vertebral de la próxima generación de empresas inteligentes. Esta tendencia sugiere que el futuro podría favorecer el enfoque de “más pequeño = más inteligente”.

La rapidez, eficiencia y rentabilidad de los SLMs son factores clave que los hacen atractivos frente a los grandes modelos de lenguaje (LLMs). Además, su diseño compacto facilita su implementación en dispositivos periféricos, lo que permite una toma de decisiones en tiempo real sin depender de la nube. Estas características los hacen ideales para aplicaciones como vehículos autónomos, asistentes de voz y tecnología portátil.

Los SLMs también consumen menos energía y requieren menos recursos, lo que los convierte en una alternativa sostenible y más accesible para su adopción masiva. Por otro lado, la posibilidad de afinarlos para dominios específicos mejora su precisión y reduce las respuestas irrelevantes, algo especialmente útil en sectores como salud, finanzas y agricultura.

Otro punto destacado es que los SLMs ofrecen mayor control, privacidad y transparencia, lo que favorece el procesamiento seguro de datos y el cumplimiento normativo. Su integración en infraestructuras existentes es sencilla, lo que permite un desarrollo ágil y la creación rápida de prototipos sin necesidad de realizar cambios de infraestructura significativos.

El declive de la lectura por placer a lo largo de 20 años

Sullivan, John L., et al. «The Decline in Reading for Pleasure over 20 Years of the American Time Use SurveyiScience 28, no. 10 (2025): 105149. https://doi.org/10.1016/j.isci.2025.105149

Un estudio publicado en iScience analiza la disminución de la lectura por placer en Estados Unidos durante un período de 20 años, utilizando datos representativos a nivel nacional del American Time Use Survey (ATUS) entre 2003 y 2023. La investigación se centra en dos comportamientos clave: la lectura por placer de adultos y la lectura conjunta con niños.

Los resultados muestran una disminución significativa en ambos comportamientos a lo largo de las dos décadas. La lectura por placer ha disminuido en todas las edades adultas, con una caída más pronunciada en mujeres y personas con niveles educativos más bajos. Además, la lectura conjunta con niños también ha experimentado una disminución, lo que podría tener implicaciones para el desarrollo del lenguaje y la alfabetización infantil.

Entre 2003 y 2023, un total de 236,270 personas completaron la Encuesta de Uso del Tiempo en Estados Unidos (ATUS), excluyendo 2020 debido a interrupciones por la pandemia de COVID-19. Los participantes tenían 15 años o más, con una edad promedio de 45,14 años. Tras ponderar los datos, el 52 % eran mujeres, el 53 % estaban casados, el 63 % empleados y el 81 % se identificaban como blancos. El resto se distribuía entre afroamericanos (12 %), asiáticos (4 %) y otras razas (2 %). La educación, ingresos y estado laboral mostraron variaciones importantes, y la mayoría vivía en áreas metropolitanas (84 %)

Respecto a la lectura por placer, en 2023 los participantes dedicaban en promedio 16 minutos diarios a esta actividad, aunque solo el 16 % leía en el día registrado. Quienes leían pasaban en promedio 1 hora y 37 minutos. A lo largo del periodo 2003–2023, la tasa de participación en la lectura por placer mostró un descenso gradual del 3 % anual, alcanzando su punto más bajo en 2023. No obstante, el tiempo promedio invertido por quienes leían aumentó 0,62 minutos por año, indicando que los lectores activos dedicaban más tiempo individualmente.

En cuanto a la lectura con niños, la participación era muy baja: en 2023, solo el 2 % de los participantes leyeron con niños, con un promedio de 28 minutos entre quienes participaron. A diferencia de la lectura por placer, no hubo cambios significativos en la lectura con niños a lo largo de los 20 años. La mayoría de la lectura por placer se realizaba sola (67 %), mientras que la lectura con niños ocurría casi siempre en compañía (99 %). Asimismo, la lectura se concentraba principalmente en el hogar (94 % para lectura por placer y 99 % con niños).

Las características individuales influyeron notablemente en la lectura por placer. En 2023, las mujeres, los adultos mayores, quienes tenían mayor educación y mayores ingresos familiares eran más propensos a leer. Los participantes afroamericanos y aquellos con discapacidad mostraron menor prevalencia de lectura. La brecha entre grupos se amplió con el tiempo: para 2023, los lectores con educación de posgrado leían casi tres veces más que quienes tenían educación secundaria o menor, y los participantes afroamericanos leían un 49 % menos que los blancos. La ubicación metropolitana comenzó a mostrar diferencias emergentes, con mayor prevalencia de lectura en áreas urbanas.

Respecto al tiempo dedicado a la lectura, las diferencias entre grupos fueron menos marcadas. En 2023, las mujeres y los adultos mayores leían más tiempo, mientras que los afroamericanos y los participantes con mayores ingresos leían menos tiempo. No se encontraron diferencias consistentes según educación, área metropolitana o discapacidad. La lectura con niños mostró variaciones más limitadas debido al bajo tamaño de muestra, y los resultados completos se presentan en materiales suplementarios.

El estudio destaca la importancia de estos comportamientos en el bienestar individual y en la transmisión intergeneracional de la cultura escrita. Los autores sugieren que esta tendencia podría estar relacionada con el aumento del uso de dispositivos digitales y la disponibilidad de contenido en línea que compite por el tiempo de ocio de las personas.

Se subraya la necesidad de políticas públicas y estrategias educativas que fomenten la lectura por placer y la lectura conjunta con niños, con el fin de contrarrestar esta tendencia y promover una sociedad más alfabetizada y culturalmente rica.

¿Es realmente posible detectar con precisión el contenido generado por inteligencia artificial?

Edwards, Benj. “Why AI Detectors Think the US Constitution Was Written by AI.” Ars Technica, 14 de julio de 2023.

Los expertos en inteligencia artificial de la UMD, Soheil Feizi y Furong Huang, comparten sus últimas investigaciones sobre los grandes modelos lingüísticos como ChatGPT, las posibles implicaciones de su uso y lo que nos depara el futuro.

Los detectores actuales se han convertido en herramientas populares en entornos educativos y profesionales, pero la evidencia muestra que su fiabilidad es muy limitada. En muchos casos, un texto auténticamente humano puede ser clasificado como artificial, mientras que uno generado por IA puede pasar inadvertido. Este margen de error refleja que los algoritmos todavía no cuentan con mecanismos suficientemente sólidos para distinguir entre los matices del lenguaje humano y los patrones que produce una máquina.

Una de las principales dificultades radica en que los detectores suelen basarse en métricas lingüísticas como la “perplejidad”, que miden la complejidad o previsibilidad de un texto. Sin embargo, la escritura humana no siempre responde a un mismo patrón: puede ser sencilla o repetitiva, como ocurre en exámenes, informes técnicos o incluso documentos históricos. Este es el motivo por el que se han dado casos llamativos, como el de la Constitución de Estados Unidos, que fue identificada erróneamente como un texto creado por inteligencia artificial. Este tipo de fallos no solo muestran las limitaciones técnicas, sino también los riesgos de utilizar estas herramientas como árbitros definitivos de la autenticidad textual.

El artículo también menciona que las estrategias de detección basadas en marcas de agua digitales, que se presentan como una alternativa, tampoco están libres de problemas. Aunque permiten incrustar señales invisibles en los textos generados por IA para poder rastrearlos, estas señales pueden ser eliminadas o modificadas mediante técnicas de reescritura o edición, lo que vuelve a poner en entredicho la seguridad del sistema. Así, tanto los detectores tradicionales como las técnicas más recientes pueden ser engañados con relativa facilidad.

A pesar de estas limitaciones, hay un horizonte de mejora. Investigadores apuntan que la fiabilidad de los detectores podría aumentar si se entrenan con más datos de referencia de escritura humana y si, en lugar de analizar frases o fragmentos cortos, se valoran textos completos en los que se puedan identificar patrones más amplios. De este modo, aunque hoy la detección de IA se perciba como una tarea frágil y llena de falsos positivos, aún existe la posibilidad de desarrollar métodos más precisos y robustos que permitan distinguir con mayor seguridad entre lo humano y lo artificial.

La cultura en la era de la inteligencia artificial: ¿creación humana o producción algorítmica?

Rothman, Joshua. “A.I. Is Coming for Culture.The New Yorker, August 25, 2025. https://www.newyorker.com/magazine/2025/09/01/ai-is-coming-for-culture

Joshua Rothman abre reflexionando sobre cómo, en la era de los smartphones, nuestra rutina cotidiana está profundamente marcada por el algoritmo

Estamos acostumbrados a que los algoritmos guíen nuestras elecciones. Sin embargo, cuando las máquinas pueden generar sin esfuerzo el contenido que consumimos, ¿qué queda para la imaginación humana?

El ensayo reflexiona sobre cómo la inteligencia artificial está transformando la producción cultural. Comienza con la idea de que nuestra vida diaria ya está profundamente mediada por algoritmos que moldean lo que leemos, vemos y escuchamos. A este ritmo, la IA no solo multiplicará la cantidad de contenidos disponibles —música, vídeos, textos o imágenes—, sino que dará lugar a nuevas formas de creación todavía imprevisibles.

Sin embargo, las limitaciones de estas obras generadas por máquinas: carecen de individualidad, intención y agencia artística, pues se basan en patrones preexistentes. Aun así, para muchos creadores la IA representa una oportunidad, ya que reduce costes, facilita la experimentación y permite realizar proyectos antes inalcanzables.

También se plantea un escenario futuro en el que los contenidos culturales no sean productos fijos, sino experiencias creadas en tiempo real para cada usuario, diseñadas para provocar una reacción inmediata. Esto transformaría radicalmente la forma en que concebimos el arte y el entretenimiento.

El texto concluye con una advertencia: si todo lo que consumimos procede de máquinas, corremos el riesgo de diluir la creatividad humana. Pero, paradójicamente, esta situación podría reforzar nuestro aprecio por lo genuinamente humano en la cultura, frente a la avalancha de producciones artificiales.