Archivo de la categoría: Noticias

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.

El problema de la “endogamia” en la IA: modelos que se retroalimentan a sí mismos

Lavoué, Alix. “AI Inbreeding: The Phenomenon Threatening Artificial Intelligence.” Worldcrunch, 7 de septiembre de 2025. https://worldcrunch.com/tech-science/ai-inbreeding-the-phenomenon-threatening-artificial-intelligence/

La «endogamia» en la inteligencia artificial ocurre cuando los modelos se entrenan utilizando contenido generado por otros modelos de IA, en lugar de datos originales creados por humanos. Este ciclo de retroalimentación puede llevar a una degradación progresiva de la calidad y diversidad de los resultados producidos por los modelos.

La endogamia de la IA, o colapso del modelo, se produce cuando un modelo de IA generativa se entrena con datos que han sido generados por una IA, lo que provoca una degradación de la calidad, la precisión y la diversidad de los resultados futuros del modelo, lo que a menudo da lugar a contenidos sin sentido, repetitivos o sesgados.

Lo que conlleva a que los sesgos se amplifiquen, la diversidad de información se colapse y las respuestas se vuelvan cada vez más ruidosas e imprecisas. Un ejemplo de este fenómeno se observó en un estudio publicado en la revista Nature, donde investigadores británicos y canadienses entrenaron un modelo de IA para dibujar números manuscritos basándose en un conjunto de datos real. Al repetir el proceso utilizando los números generados por la IA en cada etapa, se observó que después de 20 generaciones, los números se volvían borrosos, y después de 30 generaciones, convergían en una forma indistinta. Este estudio demuestra que en solo cinco generaciones de entrenamiento con datos autogenerados, los sesgos y fallos del sistema ya se amplifican, disminuyendo la variación y la precisión de las respuestas.

Este proceso degenerativo se debe a la falta de diversidad en los datos de entrenamiento, lo que lleva a que el sistema se enfoque en respuestas promedio y elimine las excepciones. Esto se conoce como colapso temprano, seguido de un colapso tardío, donde las respuestas se vuelven agotadas y, a veces, muy alejadas de la realidad.

El problema es que los atajos sintéticos no solo amplían la cantidad de datos, sino que los distorsionan. Cuando un sistema se entrena principalmente con su propio output, termina siendo una versión “promedio potenciada” de sí mismo: segura, insípida y progresivamente incorrecta. Para las empresas que dependen de mejoras continuas de modelos, esto significa que cada nueva generación puede resultar menos confiable. Al mismo tiempo, las compañías con grandes reservas de datos originales podrían convertirse en los únicos guardianes reales de la ventaja competitiva.

Para mitigar este problema, es esencial diversificar las fuentes de datos utilizadas para entrenar los modelos de IA, asegurando que incluyan una variedad de perspectivas y contextos. Además, se deben implementar técnicas de validación y monitoreo para

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

El declive de la lectura por placer a lo largo de 20 años

Sullivan, John L., et al. «The Decline in Reading for Pleasure over 20 Years of the American Time Use SurveyiScience 28, no. 10 (2025): 105149. https://doi.org/10.1016/j.isci.2025.105149

Un estudio publicado en iScience analiza la disminución de la lectura por placer en Estados Unidos durante un período de 20 años, utilizando datos representativos a nivel nacional del American Time Use Survey (ATUS) entre 2003 y 2023. La investigación se centra en dos comportamientos clave: la lectura por placer de adultos y la lectura conjunta con niños.

Los resultados muestran una disminución significativa en ambos comportamientos a lo largo de las dos décadas. La lectura por placer ha disminuido en todas las edades adultas, con una caída más pronunciada en mujeres y personas con niveles educativos más bajos. Además, la lectura conjunta con niños también ha experimentado una disminución, lo que podría tener implicaciones para el desarrollo del lenguaje y la alfabetización infantil.

Entre 2003 y 2023, un total de 236,270 personas completaron la Encuesta de Uso del Tiempo en Estados Unidos (ATUS), excluyendo 2020 debido a interrupciones por la pandemia de COVID-19. Los participantes tenían 15 años o más, con una edad promedio de 45,14 años. Tras ponderar los datos, el 52 % eran mujeres, el 53 % estaban casados, el 63 % empleados y el 81 % se identificaban como blancos. El resto se distribuía entre afroamericanos (12 %), asiáticos (4 %) y otras razas (2 %). La educación, ingresos y estado laboral mostraron variaciones importantes, y la mayoría vivía en áreas metropolitanas (84 %)

Respecto a la lectura por placer, en 2023 los participantes dedicaban en promedio 16 minutos diarios a esta actividad, aunque solo el 16 % leía en el día registrado. Quienes leían pasaban en promedio 1 hora y 37 minutos. A lo largo del periodo 2003–2023, la tasa de participación en la lectura por placer mostró un descenso gradual del 3 % anual, alcanzando su punto más bajo en 2023. No obstante, el tiempo promedio invertido por quienes leían aumentó 0,62 minutos por año, indicando que los lectores activos dedicaban más tiempo individualmente.

En cuanto a la lectura con niños, la participación era muy baja: en 2023, solo el 2 % de los participantes leyeron con niños, con un promedio de 28 minutos entre quienes participaron. A diferencia de la lectura por placer, no hubo cambios significativos en la lectura con niños a lo largo de los 20 años. La mayoría de la lectura por placer se realizaba sola (67 %), mientras que la lectura con niños ocurría casi siempre en compañía (99 %). Asimismo, la lectura se concentraba principalmente en el hogar (94 % para lectura por placer y 99 % con niños).

Las características individuales influyeron notablemente en la lectura por placer. En 2023, las mujeres, los adultos mayores, quienes tenían mayor educación y mayores ingresos familiares eran más propensos a leer. Los participantes afroamericanos y aquellos con discapacidad mostraron menor prevalencia de lectura. La brecha entre grupos se amplió con el tiempo: para 2023, los lectores con educación de posgrado leían casi tres veces más que quienes tenían educación secundaria o menor, y los participantes afroamericanos leían un 49 % menos que los blancos. La ubicación metropolitana comenzó a mostrar diferencias emergentes, con mayor prevalencia de lectura en áreas urbanas.

Respecto al tiempo dedicado a la lectura, las diferencias entre grupos fueron menos marcadas. En 2023, las mujeres y los adultos mayores leían más tiempo, mientras que los afroamericanos y los participantes con mayores ingresos leían menos tiempo. No se encontraron diferencias consistentes según educación, área metropolitana o discapacidad. La lectura con niños mostró variaciones más limitadas debido al bajo tamaño de muestra, y los resultados completos se presentan en materiales suplementarios.

El estudio destaca la importancia de estos comportamientos en el bienestar individual y en la transmisión intergeneracional de la cultura escrita. Los autores sugieren que esta tendencia podría estar relacionada con el aumento del uso de dispositivos digitales y la disponibilidad de contenido en línea que compite por el tiempo de ocio de las personas.

Se subraya la necesidad de políticas públicas y estrategias educativas que fomenten la lectura por placer y la lectura conjunta con niños, con el fin de contrarrestar esta tendencia y promover una sociedad más alfabetizada y culturalmente rica.

¿Es realmente posible detectar con precisión el contenido generado por inteligencia artificial?

Edwards, Benj. “Why AI Detectors Think the US Constitution Was Written by AI.” Ars Technica, 14 de julio de 2023.

Los expertos en inteligencia artificial de la UMD, Soheil Feizi y Furong Huang, comparten sus últimas investigaciones sobre los grandes modelos lingüísticos como ChatGPT, las posibles implicaciones de su uso y lo que nos depara el futuro.

Los detectores actuales se han convertido en herramientas populares en entornos educativos y profesionales, pero la evidencia muestra que su fiabilidad es muy limitada. En muchos casos, un texto auténticamente humano puede ser clasificado como artificial, mientras que uno generado por IA puede pasar inadvertido. Este margen de error refleja que los algoritmos todavía no cuentan con mecanismos suficientemente sólidos para distinguir entre los matices del lenguaje humano y los patrones que produce una máquina.

Una de las principales dificultades radica en que los detectores suelen basarse en métricas lingüísticas como la “perplejidad”, que miden la complejidad o previsibilidad de un texto. Sin embargo, la escritura humana no siempre responde a un mismo patrón: puede ser sencilla o repetitiva, como ocurre en exámenes, informes técnicos o incluso documentos históricos. Este es el motivo por el que se han dado casos llamativos, como el de la Constitución de Estados Unidos, que fue identificada erróneamente como un texto creado por inteligencia artificial. Este tipo de fallos no solo muestran las limitaciones técnicas, sino también los riesgos de utilizar estas herramientas como árbitros definitivos de la autenticidad textual.

El artículo también menciona que las estrategias de detección basadas en marcas de agua digitales, que se presentan como una alternativa, tampoco están libres de problemas. Aunque permiten incrustar señales invisibles en los textos generados por IA para poder rastrearlos, estas señales pueden ser eliminadas o modificadas mediante técnicas de reescritura o edición, lo que vuelve a poner en entredicho la seguridad del sistema. Así, tanto los detectores tradicionales como las técnicas más recientes pueden ser engañados con relativa facilidad.

A pesar de estas limitaciones, hay un horizonte de mejora. Investigadores apuntan que la fiabilidad de los detectores podría aumentar si se entrenan con más datos de referencia de escritura humana y si, en lugar de analizar frases o fragmentos cortos, se valoran textos completos en los que se puedan identificar patrones más amplios. De este modo, aunque hoy la detección de IA se perciba como una tarea frágil y llena de falsos positivos, aún existe la posibilidad de desarrollar métodos más precisos y robustos que permitan distinguir con mayor seguridad entre lo humano y lo artificial.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. «Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.» International Journal for Educational Integrity 19, artículo 17 (2023). https://doi.org/10.1007/s40979-023-00140-5.

Se evalúa la eficacia de diversas herramientas de detección de contenido generado por inteligencia artificial (IA), como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, para diferenciar entre textos escritos por humanos y generados por IA.

Para la investigación, se generaron 15 párrafos con el modelo ChatGPT 3.5, 15 con el modelo 4 y 5 respuestas de control escritas por humanos, todas sobre el tema de torres de enfriamiento en procesos de ingeniería. Las herramientas evaluadas incluyeron OpenAI, Writer, Copyleaks, GPTZero y CrossPlag.

Los resultados indicaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT-3.5 que por GPT-4. Sin embargo, al aplicarlas a las respuestas de control escritas por humanos, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Estos hallazgos subrayan la necesidad de desarrollar y perfeccionar las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve más sofisticado y difícil de distinguir del texto escrito por humanos.

Aunque las herramientas de detección de IA ofrecen una funcionalidad valiosa, su fiabilidad y precisión actuales son limitadas. Es crucial abordar estos desafíos para garantizar una evaluación justa y precisa en diversos contextos académicos y profesionales.

Capacidades de generación de texto de las principales herramientas de inteligencia artificial

Las capacidades de generación de texto de las principales herramientas de inteligencia artificial varían significativamente de un modelo a otro, y esto determina no solo la longitud de las respuestas que pueden ofrecer, sino también su utilidad en diferentes contextos.

En el caso de GitHub Copilot, su límite de 2.048 tokens (aproximadamente entre 1.000 y 1.500 palabras) responde a su orientación hacia la asistencia en programación. Copilot no está diseñado para elaborar ensayos largos o análisis extensos, sino para generar fragmentos de código, explicaciones puntuales y apoyo inmediato a desarrolladores. Su límite reducido refleja la necesidad de respuestas rápidas, concisas y contextualizadas en un entorno de trabajo técnico.

Por otro lado, ChatGPT en su versión GPT-3.5 ya dobla esa capacidad, llegando a los 4.096 tokens, lo que equivale a entre 1.500 y 3.000 palabras. Este salto le permite manejar conversaciones más fluidas, mantener cierta coherencia en textos largos y elaborar respuestas con un mayor nivel de detalle. Sin embargo, al tratarse de una versión intermedia, todavía presenta dificultades cuando se le pide que mantenga un hilo narrativo o argumentativo muy prolongado.

La mejora con ChatGPT (GPT-4) es significativa: su límite de 8.192 tokens le otorga la posibilidad de trabajar con entre 3.000 y 6.000 palabras, lo que ya le permite redactar documentos académicos completos, informes extensos o incluso capítulos de libros. Esta capacidad no solo se traduce en mayor volumen de texto, sino en una mejor gestión del contexto, lo que evita repeticiones y aporta coherencia a producciones largas.

En la misma línea, Claude (Anthropic) se sitúa en un rango muy competitivo, con unos 9.000 tokens (aproximadamente 3.500 a 6.500 palabras). Aunque la diferencia con GPT-4 en números absolutos no parece tan grande, su arquitectura está pensada para procesar instrucciones complejas y sostener interacciones prolongadas, lo que lo convierte en una herramienta atractiva para quienes necesitan trabajar con grandes volúmenes de información en una sola sesión.

El caso de Gemini (Google DeepMind) es particularmente interesante porque ofrece una gran flexibilidad: sus modelos abarcan desde 8.192 hasta 32.768 tokens, lo que equivale a textos de entre 3.000 y 12.000–25.000 palabras. Esto lo sitúa como uno de los modelos más potentes en cuanto a capacidad de entrada y salida de información, lo cual es clave en tareas de investigación avanzada, redacción de informes técnicos de gran extensión o síntesis de múltiples fuentes documentales.

Finalmente, Perplexity AI, aunque no tiene un límite fijo, se mueve en torno a las 6.000 palabras, situándose en un rango intermedio. Su particularidad no está tanto en la longitud como en su integración con la búsqueda web, lo que le da una ventaja en la actualización de la información frente a modelos cerrados.

Project Outcome: evaluación y medición de resultados en bibliotecas públicas

El Proyecto Outcome es una iniciativa de la Public Library Association (PLA) que proporciona herramientas gratuitas para que las bibliotecas públicas midan y comprendan el impacto de sus programas y servicios esenciales. Lanzado en 2015, este proyecto ofrece encuestas estandarizadas y un proceso sencillo para medir y analizar resultados, permitiendo a las bibliotecas demostrar su efectividad y abogar por su valor en la comunidad.

Las encuestas del Proyecto Outcome están diseñadas para evaluar cuatro resultados clave en los usuarios: conocimiento, confianza, aplicación y conciencia. Estas encuestas se centran en nueve áreas de servicio prioritarias, incluyendo lectura de verano, habilidades laborales, alfabetización infantil temprana, aprendizaje digital y salud. Además, se ofrecen recursos y capacitación para ayudar a las bibliotecas a aplicar sus resultados y defender con confianza el futuro de sus servicios.

El Proyecto Outcome ha demostrado ser una herramienta valiosa para las bibliotecas, permitiéndoles no solo medir el impacto de sus programas, sino también utilizar esos datos para mejorar sus servicios y abogar por su relevancia en la comunidad. Con el apoyo de la PLA, las bibliotecas pueden acceder a estos recursos y capacitaciones sin costo alguno, fortaleciendo así su capacidad para servir a sus comunidades de manera efectiva.

Perplexity AI compartirá los ingresos por búsquedas con los editores

Perplexity AI to Share Search Revenue with Publishers.Tech Xplore, 27 de agosto de 2025. https://techxplore.com/news/2025-08-perplexity-ai-revenue-publishers.html

Perplexity AI implementará un novedoso modelo de reparto de ingresos, mediante el cual comenzará a pagar a los medios de comunicación cuyas publicaciones sean utilizadas por su navegador o asistente de IA para responder consultas de usuario.

Como parte de este enfoque, la empresa ha reservado un fondo inicial de 42,5 millones de dólares que se destinará a compensar a los editores cuyas páginas web sean visitadas o citadas, o cuyos contenidos sean utilizados por agentes inteligentes de IA.

Este modelo se sostiene gracias a una nueva suscripción llamada Comet Plus, con un costo mensual de 5 dólares, que también estará incluida en los planes Pro y Max de Perplexity

La estructura de reparto de ingresos es clara: el 80 % de los ingresos de Comet Plus irá directamente a los editores, mientras que el 20 % restante cubrirá los costes de computación necesarios para mantener la infraestructura IA

Además, el sistema de distribución de los fondos se basa en tres tipos de interacciones generadas por la IA: visitas humanas, citas en búsquedas de IA y acciones realizadas por agentes.

Este anuncio llega en un contexto de crecientes tensiones entre las empresas de inteligencia artificial y los medios, muchos de los cuales acusan a los sistemas de IA de consumir contenido sin remunerar a sus creadores ni generar tráfico real a sus sitios web

La introducción de Comet Plus parece ser una respuesta concreta a estas preocupaciones, además de una estrategia para fomentar la colaboración en lugar de enfrentamientos legales

Despidos de catalogadores y calidad de los metadatos generados por IA en bibliotecas

Olson, Mike. «Beyond Classification: The Human Cost of Library and Information Labor Under Digital CapitalismThe Scholarly Kitchen, 26 de agosto de 2025. https://scholarlykitchen.sspnet.org/2025/08/26/guest-post-beyond-classification-the-human-cost-of-library-and-information-labor-under-digital-capitalism

A través de ejemplos como los 80 despidos en OCLC y la eliminación de 425 puestos en la Universidad Northwestern, se destaca cómo la reducción de personal especializado en catalogación afecta negativamente la calidad de los metadatos y la accesibilidad de las colecciones.

Los recientes despidos en OCLC, la organización sin fines de lucro con sede en Dublín, Ohio, que administra el Sistema Decimal Dewey y WorldCat, ofrecen una visión clara del futuro precario del trabajo en bibliotecas y gestión de información. En julio de 2025, OCLC confirmó la reducción de aproximadamente 80 puestos en su fuerza laboral de Ohio central, citando “cambios en los requisitos de habilidades técnicas, creciente influencia de la inteligencia artificial y cambios continuos en la educación superior y las bibliotecas”.

Mientras OCLC cita la IA como justificación para los recortes de personal, también ha anunciado que está desarrollando herramientas de IA para el procesamiento de metadatos. Aquí radica la paradoja de nuestra época: los mismos avances tecnológicos que se celebran por su eficiencia están eliminando la experiencia humana que crea los metadatos de alta calidad de los que dependen estos sistemas para funcionar.

El trabajo en bibliotecas ejemplifica lo que Maurizio Lazzarato identifica como “trabajo inmaterial”: un trabajo que produce contenido informativo y estandarización cultural, convirtiéndose en directamente productivo para el capitalismo digital a través de sistemas controlados por proveedores que agregan y monetizan metadatos estandarizados.

La desvalorización de la experiencia en catalogación se hace visible cuando las instituciones eliminan estos puestos durante recortes presupuestarios. El anuncio de despidos en la Universidad Northwestern, que afectó a 425 puestos, incluyó a Violet Fox, una de las voces principales en catalogación crítica y creadora del Cataloging Lab. El despido de Fox es particularmente significativo: su trabajo en prácticas de descripción reparativa ejemplifica el tipo de conocimiento especializado en catalogación que las instituciones están eliminando precisamente cuando más se necesita. Catalogadores como Fox realizan el trabajo invisible de desafiar los sistemas de clasificación coloniales, asegurando que los encabezamientos de materia reflejen las necesidades de la comunidad y no términos genéricos de proveedores, haciendo que las colecciones sean accesibles y manteniendo la calidad de los metadatos que permite la investigación académica.

La promesa de la IA en catalogación es seductora: procesamiento más rápido, reducción del trabajo manual, liberando a los trabajadores para tareas “más importantes”. Sin embargo, experimentos recientes de la Biblioteca del Congreso muestran que los modelos de lenguaje grande obtuvieron solo un 26% de F1 al predecir encabezamientos de la Biblioteca del Congreso, y los modelos de clasificación de materias solo un 35% de precisión. Esto revela un cambio fundamental en el trabajo de catalogación: los catalogadores ahora se concentran en entrenar, evaluar y curar resultados algorítmicos, proporcionando retroalimentación para sistemas incapaces de replicar la experiencia humana, el conocimiento cultural y la comprensión contextual necesarios para metadatos de calidad.

Olson argumenta que la automatización, en lugar de mejorar la eficiencia, está desplazando la experiencia humana necesaria para crear metadatos precisos y culturalmente sensibles. Esta tendencia refleja una transformación más amplia en la educación superior, donde las instituciones se enfocan en la eficiencia y la rentabilidad, a menudo a expensas de la diversidad cultural y la equidad.

El autor concluye que la pérdida de control institucional sobre la organización bibliográfica y la dependencia de sistemas de descubrimiento controlados por proveedores externos están erosionando la autonomía y la misión pública de las bibliotecas. Advierte que, sin una reflexión crítica y una acción concertada, el trabajo bibliotecario esencial podría desaparecer, con consecuencias negativas para la accesibilidad y la justicia en la información.