Análisis del uso de Claude: patrones de adopción de la IA en EE. UU. y el mundo

Anthropic. “Anthropic Economic Index: Tracking AI’s Role in the US and Global Economy.” Anthropic Research, 15 de septiembre de 2025. https://www.anthropic.com/research/economic-index-geography

El informe de Anthropic presenta el Economic Index, una herramienta que analiza cómo se utiliza Claude, su modelo de inteligencia artificial, en distintos países y estados de Estados Unidos. El objetivo es ofrecer una visión clara de los patrones tempranos de adopción de la IA y su impacto económico, explorando tanto diferencias geográficas como la evolución en los tipos de tareas realizadas.

A nivel internacional, Estados Unidos lidera el uso total, seguido por India, Brasil, Japón y Corea del Sur. Sin embargo, al ajustar por población activa, países como Israel, Singapur, Australia y Nueva Zelanda muestran niveles de adopción proporcionalmente más altos. El índice revela una fuerte correlación entre el ingreso per cápita y el uso relativo de la IA, con los países de mayor desarrollo económico y conectividad digital a la cabeza.

Dentro de Estados Unidos, el mismo patrón se repite: los estados con mayor PIB per cápita presentan un uso más intensivo de la IA. El Distrito de Columbia lidera el índice estatal, destacando en tareas de edición y búsqueda de información, mientras que California se orienta más hacia la programación y Nueva York hacia las finanzas. Las economías locales influyen en el tipo de tareas: por ejemplo, en Hawái se observan más usos vinculados al turismo.

El estudio también muestra una transición hacia una mayor automatización. Entre diciembre de 2024 y mediados de 2025, las tareas automatizadas directivas crecieron del 27 % al 39 %, mientras que las de colaboración y apoyo (augmentación) disminuyeron. Esto sugiere que los usuarios confían cada vez más en que Claude ejecute tareas con menor supervisión.

Finalmente, se destacan diferencias entre el uso empresarial y el de consumidores. Los clientes de la API —principalmente empresas— priorizan la automatización y las tareas más costosas, como programación y matemáticas, mientras que los usuarios de Claude.ai mantienen un equilibrio mayor entre colaboración y automatización. En conjunto, el informe concluye que la adopción de la IA está marcada por la desigualdad económica, la especialización local y una creciente tendencia hacia la delegación de responsabilidades a los sistemas automatizados.

Acceso inclusivo a la información: guía canadiense sobre copyright y formatos alternativos

Canadian Association of Research Libraries (CARL) y Canadian Federation of Library Associations (CFLA). “CARL and CFLA Release New Guide on the Canadian Copyright Act for Accessible Content.” CARL News, 15 de septiembre de 2025

Texto completo

El documento busca ofrecer una visión clara y práctica de la legislación canadiense en materia de derechos de autor, centrada en el acceso, la producción y la distribución de contenidos accesibles para personas con discapacidades perceptuales

La publicación explica cómo se aplican las disposiciones vigentes, incluye un listado de verificación de requisitos legales, recopila buenas prácticas, ofrece recomendaciones para situaciones cotidianas y propone medidas para reducir barreras de acceso. También incorpora un glosario de términos clave que facilita la comprensión del marco legal (carl-abrc.ca).

El material está dirigido principalmente a productores de formatos alternativos, bibliotecas, archivos, museos, galerías, instituciones educativas y organizaciones que trabajan con personas con discapacidades perceptuales. Sin embargo, resulta igualmente útil para titulares de derechos que deseen conocer en detalle la normativa aplicable (carl-abrc.ca).

La guía subraya la necesidad de lograr una mayor coordinación entre quienes crean contenidos accesibles y los propietarios de derechos, con el fin de garantizar que toda la ciudadanía canadiense pueda acceder en igualdad de condiciones a la información y la cultura. Además, constituye la primera publicación conjunta de CARL y CFLA disponible también en formato EPUB, lo que amplía su nivel de accesibilidad.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Libros creados por bots: los bibliotecarios se enfrentan al material generado por IA en sus colecciones

Saleh, Reema. “Books by Bots: Librarians Grapple with AI-Generated Material in Collections.” American Libraries Magazine, 2 de septiembre de 2025. https://americanlibrariesmagazine.org/2025/09/02/books-by-bots/

El artículo analiza cómo la proliferación de libros creados con inteligencia artificial (IA) está generando desafíos inéditos para las bibliotecas y quienes las gestionan.

No siempre resulta sencillo detectar qué títulos han sido elaborados por estas herramientas: la simple revisión de catálogos o fichas de proveedores no basta, de modo que muchas obras producidas por IA pasan inadvertidas, complicando su evaluación.

Se mencionan casos concretos, como un libro infantil —Rabbits: Children’s Animal Fact Book, de la editorial Bold Kids— que presenta señales de haber sido generado mediante IA. Ejemplos así impulsan a los bibliotecarios a examinar con mayor detenimiento metadatos, descripciones editoriales y otras huellas que puedan revelar una autoría no humana.

Sus páginas contenían frases extrañamente redactadas, algunas de las cuales incluían datos inventados sobre los conejos (como la afirmación de que se hacen su propia ropa). Cada página de texto mostraba la misma imagen prediseñada de un conejito comiendo una zanahoria. Fotos de archivo de conejos llenaban las páginas, con sus ojos y narices desapareciendo en la sangría del libro.

Además se sospecha que el título y otros de Bold Kids, que no tiene sitio web ni autores asociados con sus libros, fueron creados por inteligencia artificial (IA). Para colmo, el libro se imprimió bajo demanda, por lo que no se podía devolver. Peor aún, algunos libros generados por IA pueden contener desinformación potencialmente peligrosa. La Sociedad Micológica de Nueva York, por ejemplo, ha advertido contra la compra de guías escritas por IA para la recolección de setas silvestres. Al consultar los registros de derechos de autor de los libros, descubrió que contenían menciones a «texto generado por IA».

El texto subraya además la urgencia de contar con políticas y directrices claras para afrontar esta nueva realidad: desde definir en qué circunstancias se incorporarán a las colecciones libros creados con IA, hasta exigir transparencia sobre su origen y mantener estándares de calidad que resguarden la integridad de los fondos bibliográficos.

Finalmente, se recogen las distintas respuestas de la profesión. Algunos bibliotecarios están estableciendo criterios de adquisición específicos que distingan entre materiales de origen humano y automatizado; otros reclaman etiquetas o declaraciones de autoría explícitas. En todos los casos se pone en valor la vigilancia constante, necesaria para identificar contenidos dudosos y garantizar que las decisiones de selección mantengan el rigor, la relevancia y el servicio a la comunidad lectora.

Cómo identificar libros generados por IA:

  • Investiga quién es el autor y cuán “real” parece ser
  • Otra señal de alerta: un libro sin autor listado en absoluto.
  • Ten precaución con los libros autopublicados, de editoriales pequeñas o de plataformas como Amazon, que filtran menos contenido generado por IA que otros proveedores.
  • Considera si el libro está aprovechando la posibilidad de que un lector lo confunda con otro más popular
  • Si el libro se ha registrado en la Oficina de Derechos de Autor de EE. UU., es posible que su registro mencione la IA.

Consideraciones sobre el impacto ambiental de la IA en la ciencia

Albornoz, Denisse; Natalia Norori. Considerations on the environmental impact of AI in science. Working Paper, International Science Council, septiembre de 2025. DOI:10.24948/2025.10.

Texto completo

El informe analiza las consecuencias ambientales del uso de inteligencia artificial en la investigación científica. Propone marcos conceptuales, metodologías de evaluación aplicables y estrategias para reducir la huella ecológica de los proyectos científicos impulsados por IA. Está dirigido a investigadores, instituciones y responsables de políticas interesados en comprender tanto los costos ambientales como las formas de mitigarlos.

En primer lugar, el informe ofrece una visión integral del ciclo de vida de una aplicación de IA en ciencia, desde la recolección y preparación de datos, pasando por el entrenamiento de modelos, hasta su despliegue, mantenimiento y eventual reemplazo. Se enfatiza que los impactos ambientales no se limitan al consumo inmediato de energía (por ejemplo, la electricidad necesaria durante el entrenamiento de los modelos), sino que abarcan también efectos indirectos o de “rebound”, como la creación de nuevos datasets para satisfacer demandas crecientes, la necesidad de hardware de alto consumo energético y los costos asociados a refrigeración, infraestructura de servidores y transporte.

El informe subraya además que la evidencia empírica detallada sobre los impactos ambientales específicos sigue siendo limitada, lo que dificulta estimar con precisión métricas como emisiones de carbono o consumo de agua en muchos proyectos científicos con IA. Ante esta falta de datos, es necesario apoyarse en modelos, simulaciones o ejemplos aislados, lo que restringe la generalización. Sin embargo, los autores presentan herramientas conceptuales para que científicos e instituciones puedan evaluar sus propios proyectos: plantillas de estimación, criterios de transparencia, métricas de consumo energético, huella de carbono, uso de hardware, ubicación geográfica (que afecta la eficiencia energética), entre otras.

Una aportación destacada del documento es su énfasis en alternativas más “frugales” o ligeras para determinados usos de IA, especialmente en contextos con menos recursos. Se promueven modelos más pequeños, entrenamientos locales o descentralizados, reutilización de modelos previamente entrenados, optimización de hardware y técnicas que reduzcan el consumo energético, como el ajuste fino en lugar del entrenamiento completo o la eficiencia algorítmica. Estas estrategias no solo disminuyen el impacto ambiental directo, sino que también fomentan la inclusión, permitiendo que centros de investigación en países con recursos limitados puedan participar activamente sin generar costos ecológicos excesivos.

Finalmente, el informe ofrece recomendaciones estratégicas para investigadores, instituciones y responsables de políticas: incorporar evaluaciones ambientales desde la fase de diseño de los proyectos de IA, transparentar los costos ecológicos en los informes científicos, fomentar políticas institucionales que promuevan el uso eficiente de la IA, invertir en infraestructuras energéticamente sostenibles, impulsar estándares comunes de medición de impacto y considerar la justicia ambiental, evaluando cómo las decisiones tecnológicas pueden afectar de manera desigual a distintas regiones, especialmente aquellas con menor capacidad técnica o energética.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial

Estupiñán Cáceres, Rosalía; Fonticiella Hernández, Beatriz; Ojeda Tacoronte, Carolina J. Una mirada jurídica poliédrica a la normativa europea sobre inteligencia artificial. Madrid: Dykinson, 2025.

Descargar

El libro examina de forma multidisciplinar la reciente normativa europea sobre inteligencia artificial, especialmente el Reglamento (UE) 2024/1689 sobre IA y la Directiva (UE) 2024/2853 relativa a la responsabilidad por daños causados por productos defectuosos.

La irrupción de la inteligencia artificial en nuestra sociedad ha generado un profundo impacto jurídico que exige respuestas normativas claras y adaptadas. Esta obra colectiva ofrece un análisis crítico y multidisciplinar del nuevo Reglamento (UE) 2024/1689 sobre inteligencia artificial, así como de la reciente Directiva (UE) 2024/2853 sobre responsabilidad por daños causados por productos defectuosos. Fruto del Congreso celebrado en la Universidad de Las Palmas de Gran Canaria en 2024, el libro reúne aportaciones de destacados expertos que abordan los retos que plantea la IA en distintos ámbitos del Derecho: administrativo, penal, laboral, mercantil, constitucional, entre otros.

Se abordan los retos legales que plantea la IA en distintos ámbitos del Derecho —administrativo, penal, laboral, mercantil, constitucional entre otros— analizando aspectos como:

  • la gobernanza de la IA, es decir las instituciones, mecanismos de control, obligaciones reguladoras;
  • la protección de los derechos fundamentales frente al uso de IA;
  • el impacto de la IA en mercados financieros;
  • su utilización en procesos judiciales;
  • y los desafíos en materia de responsabilidad civil y compliance

Una obra esencial para comprender el alcance e implicaciones de las nuevas normativas europeas sobre inteligencia artificial.

Inteligencia Artificial y profesionales bibliotecarios

Cox, Andrew M. AI and the UK Library Profession: Survey Results — A Report for CILIP. London: CILIP, 2025

Texto completo

El informe analiza cómo los profesionales de bibliotecas e información en el Reino Unido están incorporando la Inteligencia Artificial (IA) en su trabajo, cuáles son sus percepciones y qué apoyos necesitan.

La encuesta, realizada entre noviembre y diciembre de 2024, recogió 162 respuestas válidas procedentes principalmente de bibliotecas universitarias, de salud y públicas. El objetivo del estudio fue conocer no solo el nivel de adopción de estas tecnologías, sino también las oportunidades, riesgos y necesidades que identifican los bibliotecarios.

El resultado más llamativo es que un 65 % de los participantes reconoció estar utilizando herramientas de IA en su trabajo cotidiano. Entre las más citadas se encuentran ChatGPT y Copilot, empleadas sobre todo para tareas de redacción, búsqueda de información y automatización de procesos rutinarios. El uso resulta más extendido en bibliotecas universitarias y de salud, mientras que en las públicas todavía es más moderado. Pese a esta presencia creciente, solo un tercio de las instituciones encuestadas contaba ya con una política específica sobre IA y otro cuarto estaba en proceso de desarrollarla, lo que indica que todavía existe un marco normativo y estratégico insuficiente.

En cuanto a los ámbitos de aplicación, el informe destaca el uso de la IA generativa para redactar borradores de documentos, apoyar la alfabetización digital de los usuarios e integrar la enseñanza crítica de estas tecnologías en programas formativos. También se la emplea en la síntesis de información y en la mejora de procesos internos, con el fin de ganar eficiencia administrativa y liberar tiempo para otras tareas de valor añadido. Todo ello revela que la profesión percibe la IA como una herramienta práctica y útil, aunque aún en fase exploratoria.

Los encuestados identificaron varias oportunidades relacionadas con la IA. Entre ellas figuran la posibilidad de mejorar la eficiencia de los servicios bibliotecarios, reforzar las competencias en análisis y gestión de datos, enriquecer la experiencia de los usuarios y desarrollar nuevas funciones profesionales ligadas a la enseñanza y mediación tecnológica. Sin embargo, junto a estos beneficios emergen preocupaciones importantes que frenan una adopción plena.

Las principales barreras son de naturaleza ética, económica y técnica. En el terreno ético, se señalaron riesgos como la falta de transparencia, los sesgos de los algoritmos, la generación de desinformación y los problemas de privacidad. Desde el punto de vista económico, muchas instituciones consideran que el coste de las soluciones comerciales de IA resulta excesivo. También se subraya el impacto ambiental que puede tener el uso intensivo de estas tecnologías, especialmente por el alto consumo energético de los sistemas. A todo ello se suma la percepción de un déficit de competencias técnicas dentro de la profesión, que limita el aprovechamiento de las herramientas disponibles, y las dudas legales vinculadas a los derechos de autor y la propiedad intelectual en relación con los contenidos generados por IA.

Frente a este panorama, los profesionales expresaron con claridad sus necesidades de apoyo. La mayoría reclama formación accesible en distintos formatos —cursos cortos, seminarios web o materiales escritos— que les permita adquirir un conocimiento práctico y actualizado. También demandan guías éticas y regulatorias que orienten el uso responsable de la IA, así como ejemplos concretos de buenas prácticas adaptadas a diferentes tipos de bibliotecas. Se espera además que CILIP desempeñe un papel de liderazgo institucional, actuando como referente en la elaboración de políticas, en la difusión de recursos y en la representación del sector en los debates públicos y regulatorios sobre la IA.

El estudio muestra que la IA se ha integrado de forma significativa en el trabajo bibliotecario del Reino Unido, aunque de manera desigual y todavía experimental. Los profesionales reconocen tanto sus beneficios como los riesgos que entraña, y existe una demanda clara de liderazgo, formación y marcos normativos que permitan gestionar esta integración de manera responsable. El informe refleja un sector en transformación, que avanza con cautela pero con la convicción de que la IA será una pieza clave en el futuro de las bibliotecas.

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.