Archivo por meses: septiembre 2025

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.

Encuesta al personal de la biblioteca pública

Public Library Association. Public Library Staff Survey: Summary Report. Chicago: Public Library Association, 2025.

Texto completo

La encuesta de la PLA 2025 muestra que los salarios bajos y la retención de personal siguen siendo un desafío, mientras aumenta la atención a la equidad, diversidad e inclusión, aunque con menor participación en actividades prácticas. Además, la mayoría de las bibliotecas son accesibles físicamente, pero la accesibilidad tecnológica y sensorial sigue siendo limitada.

La Encuesta de Personal de Bibliotecas Públicas de 2024, realizada por la Public Library Association (PLA), recopiló datos representativos a nivel nacional sobre los roles y la representación del personal, las prácticas de contratación y retención, y las metas y actividades orientadas a crear un entorno inclusivo para el personal y los miembros de la comunidad de todas las edades y habilidades en las bibliotecas públicas de EE. UU.

Principales hallazgos:

  • Salarios y representación del personal: Los salarios de los directores de bibliotecas y los bibliotecarios principiantes no han mantenido el ritmo de la inflación. En términos reales, los salarios promedio reportados en 2024 representan una ligera disminución respecto a 2021. Los encuestados indican que los salarios bajos afectan negativamente su capacidad para contratar y retener personal.
  • Roles en la biblioteca: Aunque los roles tradicionales del personal de la biblioteca siguen siendo comunes, un mayor porcentaje de bibliotecas ahora cuenta con personal dedicado al compromiso comunitario y la divulgación.
  • Contratación y retención: En general, el 18% de todas las bibliotecas públicas reportaron la pérdida de puestos de personal en los 12 meses previos a la encuesta de 2024, una cifra inferior al 22.6% registrado en 2021.
  • Metas y actividades de EDIA: En comparación con 2021, más bibliotecas públicas tienen metas escritas formales relacionadas con la equidad, la diversidad, la inclusión y la accesibilidad (EDIA). Sin embargo, informan participar en menos actividades de EDIA en general.
  • Accesibilidad: Más del 90% de las bibliotecas públicas tienen entradas principales accesibles para personas con discapacidades, y más del 80% tienen pasillos y baños interiores que cumplen con los estándares de la ADA. Sin embargo, solo alrededor de un tercio (36%) tiene señalización en braille u otra asistencia para personas con baja visión, y la mitad (48.4%) tiene computadoras públicas con tecnologías y software accesibles.

El problema de la “endogamia” en la IA: modelos que se retroalimentan a sí mismos

Lavoué, Alix. “AI Inbreeding: The Phenomenon Threatening Artificial Intelligence.” Worldcrunch, 7 de septiembre de 2025. https://worldcrunch.com/tech-science/ai-inbreeding-the-phenomenon-threatening-artificial-intelligence/

La «endogamia» en la inteligencia artificial ocurre cuando los modelos se entrenan utilizando contenido generado por otros modelos de IA, en lugar de datos originales creados por humanos. Este ciclo de retroalimentación puede llevar a una degradación progresiva de la calidad y diversidad de los resultados producidos por los modelos.

La endogamia de la IA, o colapso del modelo, se produce cuando un modelo de IA generativa se entrena con datos que han sido generados por una IA, lo que provoca una degradación de la calidad, la precisión y la diversidad de los resultados futuros del modelo, lo que a menudo da lugar a contenidos sin sentido, repetitivos o sesgados.

Lo que conlleva a que los sesgos se amplifiquen, la diversidad de información se colapse y las respuestas se vuelvan cada vez más ruidosas e imprecisas. Un ejemplo de este fenómeno se observó en un estudio publicado en la revista Nature, donde investigadores británicos y canadienses entrenaron un modelo de IA para dibujar números manuscritos basándose en un conjunto de datos real. Al repetir el proceso utilizando los números generados por la IA en cada etapa, se observó que después de 20 generaciones, los números se volvían borrosos, y después de 30 generaciones, convergían en una forma indistinta. Este estudio demuestra que en solo cinco generaciones de entrenamiento con datos autogenerados, los sesgos y fallos del sistema ya se amplifican, disminuyendo la variación y la precisión de las respuestas.

Este proceso degenerativo se debe a la falta de diversidad en los datos de entrenamiento, lo que lleva a que el sistema se enfoque en respuestas promedio y elimine las excepciones. Esto se conoce como colapso temprano, seguido de un colapso tardío, donde las respuestas se vuelven agotadas y, a veces, muy alejadas de la realidad.

El problema es que los atajos sintéticos no solo amplían la cantidad de datos, sino que los distorsionan. Cuando un sistema se entrena principalmente con su propio output, termina siendo una versión “promedio potenciada” de sí mismo: segura, insípida y progresivamente incorrecta. Para las empresas que dependen de mejoras continuas de modelos, esto significa que cada nueva generación puede resultar menos confiable. Al mismo tiempo, las compañías con grandes reservas de datos originales podrían convertirse en los únicos guardianes reales de la ventaja competitiva.

Para mitigar este problema, es esencial diversificar las fuentes de datos utilizadas para entrenar los modelos de IA, asegurando que incluyan una variedad de perspectivas y contextos. Además, se deben implementar técnicas de validación y monitoreo para

El futuro de la IA en las bibliotecas públicas: oportunidades, desafíos y alfabetización digital

WebJunction. “What’s on the Horizon for AI and Public Libraries?WebJunction, 28 de agosto de 2025. https://www.webjunction.org/news/webjunction/public-libraries-ai-future.html

La inteligencia artificial (IA) está impulsando un cambio drástico en nuestro mundo. Es una herramienta transformadora que revoluciona las industrias e impacta la vida cotidiana. Al concluir nuestra serie sobre IA, queremos explorar qué se avecina en el panorama de la IA.

Al mantenerse al tanto de estos problemas en constante evolución, el personal bibliotecario puede desarrollar sus habilidades informativas para posicionarse como expertos en alfabetización en IA, educar al público y participar activamente en la definición del impacto social de la IA.

El enorme poder de la IA

El poder de la IA reside en su capacidad para analizar grandes cantidades de datos, aprender de la experiencia y realizar tareas que normalmente requieren inteligencia humana, a menudo con mayor precisión, velocidad y eficiencia. Recopilar, interpretar y generar informes de datos son funciones cruciales para las bibliotecas, por lo que no sorprende que el poder de la IA esté transformando las bibliotecas públicas.

A medida que las bibliotecas desempeñan funciones más complejas y adoptan sistemas más sofisticados, se dispone de más datos para facilitar la toma de decisiones y contar la historia de la biblioteca. Esta realidad puede presentar desafíos a la hora de saber qué datos utilizar y cómo extraer conclusiones precisas. La IA puede procesar y sintetizar conjuntos de datos grandes y mixtos para generar rápidamente información y crear narrativas. Los productos o soluciones de IA independientes, fácilmente disponibles e integrados en las herramientas bibliotecarias existentes, pueden utilizarse para automatizar procesos, informar y representar colecciones, impulsar programas y la participación de la comunidad, y ofrecer servicios completamente nuevos. Sin embargo, siempre se debe tener en cuenta la privacidad de los usuarios y se debe eliminar la información de identificación personal de los datos de la biblioteca enviados a las herramientas de IA.

La Biblioteca de Pottsboro participó en un taller intensivo de consultoría sobre preparación de IA para organizaciones sin fines de lucro y colaboró ​​con miembros del equipo de Dell de todo el mundo para identificar las necesidades que la IA podría abordar. El equipo de la Biblioteca de Pottsboro se centró en los datos recopilados en su ILS, así como en los datos de la comunidad, para comprender qué información les podría proporcionar sobre las tendencias de los usuarios y las mejoras en los servicios, la colección o la difusión que convenía implementar. Por ejemplo, para orientar las decisiones de compra, el personal utilizó la IA para encontrar libros que se prestaban con frecuencia en Libby (una suscripción de libros electrónicos), pero que no tenían ejemplares impresos en su colección. También realizaron un análisis por código postal, observando la distribución de los usuarios que utilizan la biblioteca para ver si la difusión o la promoción en un código postal en particular contribuían a un aumento de titulares de tarjetas en esa zona. Finalmente, pudieron utilizar un lenguaje sencillo para consultar con la IA los datos de circulación de libros infantiles en formato físico y digital para su informe anual, sin necesidad de conocimientos avanzados de Excel para presentar los datos de forma eficaz y eficiente.

Algunas limitaciones e inquietudes

Si bien el poder de la IA puede ser notable, las precauciones que conlleva esta tecnología son significativas. El volumen de resultados de IA que circula en la web es inmenso y está en crecimiento. Es importante evaluar siempre con cuidado el contenido generado por IA para evitar sesgos y desinformación.

Según el New York Times, a medida que las empresas de IA buscan en la web nuevos datos para entrenar sus próximos modelos, es probable que incorporen parte de su propio contenido generado por IA, «creando un ciclo de retroalimentación involuntario en el que lo que antes era el resultado de una IA se convierte en la entrada de otra». Este proceso resulta en un rango más reducido de resultados de IA con el tiempo, una etapa temprana de lo que los investigadores han denominado «colapso del modelo». Cuando estos modelos se entrenan con sus propias palabras, su resultado muestra una menor diversidad lingüística. Además, este proceso puede amplificar el sesgo en los datos. Esta es una información de referencia importante para el personal de bibliotecas que podría impartir talleres sobre IA con el público.

La capacidad de la IA para suplantar la voz de alguien ha mejorado drásticamente, por lo que incidentes como el de alguien que se hace pasar por el secretario de Estado estadounidense, Marco Rubio, y contacta con ministros de Asuntos Exteriores, un gobernador y un senador estadounidense serán cada vez más comunes. Esta sofisticación de la IA está provocando que incluso el director ejecutivo de The Atlantic, Nicholas Thompson, diga: «Es difícil distinguir la realidad; muy difícil». El trabajo del personal bibliotecario que participa activamente en la enseñanza de habilidades de alfabetización informacional se está volviendo cada vez más difícil.

Los problemas legales relacionados con los derechos de autor y la privacidad se están abriendo camino en el sistema judicial estadounidense. Un juez federal de San Francisco declaró que Anthropic hizo un uso legítimo de los libros de varios autores sin su consentimiento para entrenar su modelo de lenguaje Claude Large. En el fallo, el juez afirma: «Como cualquier lector que aspira a ser escritor, los LLM de Anthropic se entrenaron con obras para no adelantarse a los demás».

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

La IA y el futuro de la educación: perturbaciones, dilemas y orientaciones.

UNESCO. “AI and the Future of Education: Disruptions, Dilemmas and Directions.UNESCO, 2 de septiembre de 2025. https://unesdoc.unesco.org/ark:/48223/pf0000395236_eng

La UNESCO presenta una antología que explora cómo la inteligencia artificial (IA) está transformando la educación, sus disrupciones, los dilemas éticos y las posibles orientaciones futuras. Se reconoce que la IA ya está modificando la forma en que enseñamos, aprendemos y entendemos el mundo, pero estas transformaciones no se distribuyen por igual. Aproximadamente un tercio de la humanidad sigue sin acceso adecuado a la conectividad, y quienes tienen suscripciones, buena infraestructura o ventaja lingüística son los que más se benefician.

Este desequilibrio implica que no solo el acceso tecnológico sea desigual, sino también qué tipos de conocimientos, valores e idiomas predominan en los sistemas educativos impulsados por IA. Los sistemas tienden a reflejar las estructuras dominantes que ya existen, lo que plantea preguntas sobre equidad, diversidad cultural e inclusión

Además, la antología aborda dilemas filosóficos, éticos y pedagógicos: ¿cómo evaluar a los estudiantes en la era de la IA?, ¿cómo asegurarse de que estas tecnologías promuevan el cuidado, la justicia y los derechos humanos? ¿Cómo diseñar políticas, currículos y pedagogías que reconozcan la cooperación humano-máquina sin deshumanizar ni reforzar desigualdades?

Para enfrentar estos retos, la UNESCO propone fomentar un “commons global” para el diálogo: un espacio global compartido para pensar juntos, debatir diferencias y reimaginar una educación inclusiva en la era de la IA. Se apoya en sus recomendaciones sobre ética de la IA, orientaciones para IA generativa en educación e investigación, y marcos de competencias para docentes y estudiantes.

El promedio de palabras por oración en los bestsellers cae a menos de la mitad (1931–2025)

The Economist, «Is the decline of reading making politics dumber?» The Economist, 4 de septiembre de 2025, https://www.economist.com/culture/2025/09/04/is-the-decline-of-reading-making-politics-dumber

La imagen corresponde a un gráfico publicado por The Economist bajo el título “Get to the point”, que analiza la evolución de la longitud promedio de las oraciones en los libros populares a lo largo de casi un siglo. El eje horizontal representa los años, desde 1931 hasta la actualidad, y el eje vertical muestra el promedio de palabras por oración en las obras que han figurado en la lista de bestsellers del New York Times. Los puntos dispersos en color naranja corresponden a obras individuales, mientras que la línea roja representa la tendencia general en este periodo.

Lo primero que destaca es una tendencia descendente clara: en los años treinta y cuarenta del siglo XX, las frases de los libros más vendidos solían contener en promedio entre 20 y 25 palabras, e incluso casos como Frenchman’s Creek de Daphne du Maurier superaban las 30 palabras por oración. Sin embargo, a medida que avanzan las décadas, se observa una reducción progresiva en la complejidad sintáctica. A partir de los años noventa y en especial en el siglo XXI, el promedio cae notablemente hacia un rango más cercano a 12 o 15 palabras por oración, con ejemplos recientes como It Ends With Us de Colleen Hoover, donde el promedio ronda apenas las 10 palabras.

Este fenómeno sugiere un cambio profundo en los hábitos de escritura y lectura. La literatura de consumo masivo parece haberse adaptado a lectores que demandan frases más breves, directas y fáciles de procesar. En lugar de estructuras largas y subordinadas, propias de la narrativa clásica del siglo XX, hoy se privilegia la inmediatez y la claridad. Esto puede estar relacionado con la influencia de la cultura digital, donde la lectura en pantallas, redes sociales y mensajería instantánea fomenta el uso de frases cortas y un estilo más ágil.

Otro aspecto relevante es el impacto cultural de este cambio estilístico. Oraciones más cortas no implican necesariamente menor calidad literaria, pero sí indican una tendencia hacia la simplificación del lenguaje. Esto tiene consecuencias en la manera en que los lectores se enfrentan a ideas complejas: frases largas suelen exigir mayor concentración, capacidad de abstracción y paciencia, mientras que frases breves favorecen la inmediatez, pero a veces a costa de la profundidad. El gráfico de The Economist se enlaza con la preocupación más amplia —ya expresada en otros artículos del medio— sobre cómo el declive de la “lectura profunda” afecta la capacidad crítica y, en última instancia, el debate público y político.

Finalmente, conviene subrayar que este descenso en la longitud media de las frases no es un fenómeno aislado, sino parte de un cambio más global en la comunicación escrita. Los géneros periodísticos, académicos y literarios muestran ajustes semejantes: más concisión, menos subordinadas, más ritmo directo. La literatura popular, al reflejar los gustos del mercado, es un buen indicador de estas transformaciones culturales. En conclusión, la gráfica nos habla tanto de la evolución de la prosa de los bestsellers como de un viraje cultural más amplio en la forma en que leemos, escribimos y entendemos el lenguaje en la actualidad.

La crisis de la lectura profunda y sus efectos en el discurso político

Is the Decline of Reading Making Politics Dumber?The Economist, 4 de septiembre de 2025. https://www.economist.com/culture/2025/09/04/is-the-decline-of-reading-making-politics-dumbe

La llegada de medios digitales, la disminución del hábito de leer, y la simplificación creciente del discurso público podrían estar socavando la calidad del pensamiento político y, por ende, la democracia misma. La tesis principal sostiene que leer menos —y de forma más superficial— degrada nuestra capacidad de entender ideas complejas, matizar puntos de vista y sostener argumentos sofisticados, lo cual tiene consecuencias en la manera como se hace política.

El artículo comienza citando experimentos y estudios que muestran que incluso estudiantes universitarios pueden tener dificultades para comprender fragmentos literarios clásicos con vocabulario rico, metáforas o estructura compleja. Estos hallazgos ilustran que la disminución en la exposición a textos desafiantes está estrechamente ligada a la reducción de la habilidad de lectura profunda, o deep reading, lo cual impacta directamente en la capacidad de analizar y evaluar argumentos más elaborados.

A continuación, el artículo conecta esta merma en las competencias lectoras con la degradación del discurso político. Se argumenta que políticos y medios —diseñados para captar la mayor atención posible en un entorno cada vez más fragmentado y mediático— tienden a favorecer mensajes breves, directos, emocionales y polarizantes. Estos mensajes, si bien eficaces para atraer atención, requieren poca reflexión, y a menudo evitan matices o complejidades que sí están presentes en los temas reales.

Además, se reflexiona sobre cómo esta tendencia puede tener efectos retroactivos: al leer menos y de manera más superficial, los ciudadanos están menos equipados para ejercer un pensamiento crítico, aceptar incertidumbre, o tolerar el debate genuino. Esto alimenta un círculo vicioso donde la política se vuelve cada vez más dominada por lo espectacular, lo emocional y lo simplista, en lugar de ideas bien fundadas, deliberación cuidadosa, y compromisos fundamentados.

Por último, el artículo no pretende condenar las nuevas formas de consumo cultural ni ignora los avances de la comunicación digital. Sin embargo, advierte que estas no deben sustituir por completo a las prácticas de lectura profunda, especialmente en contextos como la política, donde el debate público robusto es esencial. Se sugiere entonces que devolverle espacio a la lectura extensa y al análisis riguroso puede ser vital para sostener una política que no se limite a lo emocional sino que promueva deliberación madura e informado.

Evaluación del software para compartir recursos en bibliotecas

Evaluating Resource Sharing Software’ Report.”Boston Library Consortium (BLC) , 10 de septiembre de 2025.

Texto completo

El objetivo principal del informe es proporcionar un conjunto claro de criterios que permitan a bibliotecas individuales y consorcios evaluar las funcionalidades de sus plataformas de intercambio de recursos y motivar un diálogo con administradores y proveedores de software para impulsar mejoras centradas en las necesidades reales del personal y los usuarios.

El documento incluye diversas secciones fundamentales. En primer lugar, ofrece criterios de evaluación, organizados entre funcionalidades esenciales (“must-have”) y deseables (“nice-to-have”), con el fin de guiar a los equipos responsables a identificar las prioridades locales según sus contextos específicos. Además, se presenta un marco histórico que revisa la evolución de las herramientas de intercambio de recursos en la última década, destacando los desafíos enfrentados y los modos en que BLC ha adaptado su enfoque frente a un entorno tecnológico y normativo cambiante. También se describe la metodología de categorización y priorización empleada para jerarquizar necesidades y crear una base de conocimiento que pueda servir tanto al consorcio como a la comunidad más amplia de bibliotecas

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.