Archivo de la etiqueta: Escritura

El cuento de Roald Dahl que anticipó la inteligencia artificial y la muerte del escritor

Dahl, Roald. “The Great Automatic Grammatizator.” 1954. PDF. Accedido en 2026. https://gwern.net/doc/fiction/science-fiction/1953-dahl-thegreatautomaticgrammatizator.pdf

Leer en español

Relato de Roald Dahl en el que un ingeniero frustrado diseña una máquina capaz de generar literatura mediante reglas gramaticales y combinatorias. El invento se industrializa y permite producir textos en masa, sustituyendo progresivamente a los escritores humanos en el mercado editorial. La historia satiriza la deshumanización de la creatividad y anticipa debates actuales sobre la automatización de la escritura y la inteligencia artificial.

Adolph Knipe, un joven ingeniero que trabaja en una empresa tecnológica, pero que en realidad esconde una ambición frustrada: quiere ser escritor. Sin embargo, su experiencia con el rechazo editorial y su formación técnica le llevan a una idea radicalmente distinta de la literatura: en lugar de ver la escritura como un acto creativo humano, la concibe como un proceso mecánico basado en reglas combinatorias del lenguaje.

A partir de esta intuición, Knipe desarrolla la idea de construir una máquina capaz de generar textos automáticamente. Su jefe, Bohlen, inicialmente desconfiado, termina aceptando financiar el proyecto al percibir su enorme potencial económico. La lógica es clara: si la máquina puede producir relatos aceptables de forma continua y barata, podría revolucionar el mercado literario.

La máquina, denominada el “Gran Gramaticador Automático”, se basa en un sistema de reglas gramaticales y combinaciones de palabras que permite generar historias de manera sistemática. Aunque los textos resultantes no son de gran calidad literaria, sí son coherentes, comprensibles y, sobre todo, infinitamente reproducibles. Esto convierte al sistema en una herramienta extremadamente rentable.

El éxito del invento lleva a Knipe y Bohlen a dar un paso más ambicioso: intervenir directamente en el mundo editorial. Su estrategia consiste en convencer a escritores reales —incluidos autores reconocidos— para que firmen contratos en los que ceden el uso de su nombre a cambio de una compensación económica. A partir de ese momento, la máquina escribe los textos que se publican bajo esos nombres. El prestigio del autor humano se mantiene como marca, pero el contenido es producido por el sistema automatizado.

Este modelo de negocio se expande rápidamente. Muchos escritores aceptan, seducidos por la estabilidad económica y la ausencia de esfuerzo creativo. Poco a poco, la figura del autor individual empieza a diluirse, sustituida por una producción industrial de literatura firmada con nombres humanos pero generada por la máquina.

A medida que el sistema se consolida, la industria editorial se transforma por completo. La abundancia de textos producidos por el gramaticador hace que los libros se vuelvan un producto barato y masivo. La calidad literaria deja de ser un criterio central; lo importante es la cantidad, la rentabilidad y la eficiencia del sistema automatizado.

Sin embargo, esta expansión tiene un efecto colateral inquietante: los escritores que se niegan a participar en el sistema quedan progresivamente marginados. Sus obras ya no pueden competir en un mercado inundado por producción automática. El relato muestra así un proceso de desplazamiento silencioso de la creatividad humana por la lógica industrial de la máquina.

El desenlace adquiere un tono oscuro e irónico. El mundo literario queda dominado por el gramaticador, mientras la escritura humana sobrevive solo de forma residual o marginal. La autoría deja de ser un acto de creación individual para convertirse en una etiqueta comercial aplicada a productos generados automáticamente.

¿Quién es el autor cuando las máquinas pueden escribir?

McCray, W. Patrick. “What Is Authorship When Machines Can Write?MIT Press Reader, 27 de abril de 2026. https://thereader.mitpress.mit.edu/what-is-authorship-when-machines-can-write/

El artículo aborda una cuestión central en la era de la inteligencia artificial generativa: qué significa ser autor cuando las máquinas pueden producir textos coherentes, creativos y aparentemente humanos. A partir del auge de sistemas como los modelos de lenguaje tipo ChatGPT, el autor explora cómo la noción de autoría —tradicionalmente vinculada a la creatividad, la intención y la originalidad humanas— se está volviendo cada vez más difusa.

McCray sitúa el debate en un contexto histórico amplio. Señala que la preocupación por máquinas capaces de escribir no es nueva, sino que tiene antecedentes en la literatura y la cultura del siglo XX. Ejemplos como el cuento de Roald Dahl The Great Automatic Grammatizator (1954) ya imaginaban un mundo en el que las máquinas producían literatura en masa, desplazando a los escritores humanos. Asimismo, menciona experimentos tempranos de generación automática de texto, como los de Christopher Strachey también en los años cincuenta, que producían cartas de amor mediante algoritmos simples, o el programa RACTER en los años ochenta, que llegó a publicar textos atribuidos a una “máquina escritora”. En 1981 apareció un relato firmado por una entidad llamada RACTER, un programa informático desarrollado por William Chamberlain y Thomas Etter. Publicado en la revista Omni, el texto “Soft Ions” se presentó como el primer experimento de ficción generada por ordenador. Strachey logró que un ordenador Ferranti Mark 1 generara cartas de amor mediante un algoritmo. Aunque los resultados eran pobres literariamente, eran comprensibles y mostraban enormes posibilidades combinatorias. RACTER seleccionaba palabras al azar y las organizaba según reglas gramaticales codificadas. Más tarde produciría incluso un libro de poemas, The Policeman’s Beard Is Half-Constructed, con frases absurdas pero ocasionalmente sugerentes.

A partir de estos antecedentes, el autor muestra que la idea de la escritura como proceso mecánico o combinatorio ha sido discutida también por pensadores como Italo Calvino, quien sugirió que la literatura podía entenderse como un sistema de reglas y combinaciones, lo que abría la posibilidad teórica de que una máquina pudiera generar textos literarios. La historia describe a un ingeniero brillante pero frustrado que construye una máquina capaz de producir ficción aceptable. El dispositivo genera relatos mediocres en masa, que su creador vende a gran escala, desplazando a los escritores humanos. Finalmente, el inventor ofrece contratos a autores para que dejen de escribir a cambio de dinero, y el relato culmina con la imagen de un escritor pobre que se niega a firmar y reza: “Danos fuerza, Señor, para dejar que nuestros hijos pasen hambre”.

El núcleo del artículo se centra en la irrupción de los modelos de lenguaje actuales, basados en aprendizaje profundo y entrenamiento con grandes volúmenes de datos. Estas tecnologías no “comprenden” el lenguaje en sentido humano, sino que generan texto mediante predicción estadística de palabras. Sin embargo, sus resultados pueden ser sorprendentemente coherentes, lo que plantea una tensión: si el resultado es indistinguible del texto humano, ¿importa cómo se produce?

McCray analiza también las implicaciones éticas, legales y laborales de esta transformación. Destaca conflictos recientes en el ámbito editorial y audiovisual, como huelgas de guionistas preocupados por el uso de IA en la escritura de guiones, así como demandas de autores que denuncian el uso no autorizado de sus obras para entrenar modelos de IA. También introduce el concepto de “textpocalypse”, la idea de una sobreproducción de textos generados por máquinas que podría saturar el ecosistema informativo.

El artículo plantea que la autoría no es solo una cuestión técnica, sino también social y cultural. La figura del autor implica intención, responsabilidad, creatividad y reconocimiento, elementos que la IA no posee en el mismo sentido que un ser humano. Sin embargo, la creciente calidad de los textos generados por máquinas obliga a reconsiderar estas categorías.

McCray no ofrece una respuesta cerrada, sino que subraya la incertidumbre del momento actual. La historia de la tecnología muestra que las fronteras entre lo humano y lo mecánico en la escritura han sido siempre móviles. Por ello, la pregunta sobre qué significa ser autor en la era de la IA sigue abierta y en evolución constante, dependiente tanto del desarrollo tecnológico como de las decisiones culturales y legales que se tomen en el futuro.

El 35 % de los nuevos sitios web contienen texto generado o asistido por IA

Jonas Dolezal, Sawood Alam, Mark Graham y Maty Bohacek. “The Impact of AI-Generated Text on the Internet.” 2025. https://ai-on-the-internet.github.io/

El estudio analiza cómo la rápida expansión del texto generado por inteligencia artificial ha transformado el ecosistema digital entre 2022 y 2025. A partir de una muestra representativa de páginas web obtenida mediante la Wayback Machine del Internet Archive, los autores estiman que hacia mediados de 2025 aproximadamente el 35 % de los nuevos sitios web contienen texto generado o asistido por IA, una cifra que contrasta con la inexistencia de este fenómeno antes del lanzamiento de ChatGPT en 2022. Este crecimiento evidencia la velocidad con la que la IA se ha integrado en la producción de contenidos en línea.

Uno de los aportes más relevantes del trabajo es su intento de medir empíricamente los efectos reales de este fenómeno frente a la percepción social. Para ello, combina análisis computacional del contenido web con una encuesta a 853 adultos en Estados Unidos. Metodológicamente, el estudio afronta dos retos clave: obtener una muestra representativa de internet —algo complejo por su naturaleza descentralizada— y distinguir entre texto humano y generado por IA, utilizando varios detectores y seleccionando el más robusto (Pangram v3).

En cuanto a los resultados, el estudio confirma dos efectos significativos. Por un lado, se observa una contracción semántica, es decir, una reducción en la diversidad de ideas y perspectivas: los textos generados por IA muestran mayor similitud entre sí. Por otro, se detecta un aumento del tono positivo, con contenidos más “amables” o emocionalmente optimistas, lo que sugiere una cierta tendencia hacia la homogeneización afectiva del discurso digital.

Sin embargo, el trabajo desmonta varias creencias extendidas. No encuentra evidencia estadísticamente significativa de que el uso de IA reduzca la precisión factual, ni de que provoque una pérdida clara de diversidad estilística, ni tampoco que genere textos más largos pero menos densos o que disminuya el uso de enlaces externos. Estos resultados contrastan fuertemente con la percepción pública: una mayoría de los encuestados cree que todos estos efectos negativos sí están ocurriendo.

En conjunto, el estudio pone de relieve una brecha importante entre evidencia empírica y opinión social. Aunque la IA sí está modificando el ecosistema textual de internet —especialmente en términos de diversidad semántica y tono—, muchos de los temores más extendidos no están respaldados por los datos. Esto sugiere la necesidad de un análisis más matizado del impacto de la inteligencia artificial, evitando tanto el alarmismo como la complacencia.

La habilidad humana que la IA no puede replicar: por qué los modelos de lenguaje aún no escriben bien literatura creativa

Sun, Jasmine. The Human Skill That Eludes AI: Why can’t language models write well? The Atlantic, 17 de marzo de 2026. https://www.theatlantic.com/technology/2026/03/ai-creative-writing/686418/?utm_medium=offsite&utm_source=flipboard&utm_campaign=all

Aunque los modelos de lenguaje generativo han progresado mucho en funcionalidad técnica, no han logrado capturar la esencia de la creatividad y la escritura auténticamente humana, lo que sugiere que la IA puede ser una herramienta útil para apoyar la escritura pero no un reemplazo real de la capacidad creativa humana

Las inteligencias artificiales avanzadas —especialmente los grandes modelos de lenguaje generativo— siguen siendo incapaces de producir escritos creativos de alta calidad comparables a los de los humanos, a pesar de sus enormes capacidades técnicas. Aunque los modelos modernos pueden resolver problemas complejos, crear imágenes realistas o escribir textos coherentes a nivel superficial, fallan de manera recurrente cuando se trata de generar prosa literaria profunda o ensayos que realmente emocionen o asombren al lector.

La autora, Jasmine Sun, destaca que muchos en la industria de la IA reconocen que aún no se ha construido un modelo que “escriba bien” en términos artísticos o creativos. Incluso con capacidades técnicas extraordinarias —como predecir estructuras de proteínas o generar aplicaciones completas a partir de un solo comando— los sistemas actuales producen prosa que suele ser rígida, predecible y carente de verdadera originalidad. Comúnmente incluyen metáforas sin sentido, construcciones aburridas o una retórica que suena artificial, lo que limita su valor literario y emocional.

Gran parte del problema se encuentra en cómo se entrenan y diseñan estos modelos. El artículo explica que durante la fase de preentrenamiento, los modelos absorben enormes cantidades de texto de internet —mucho del cual es mediocre— lo que les enseña patrones de estructura y gramática pero no el juicio y la sensibilidad necesarios para producir arte genuino. Además, en la fase de post-entrenamiento, las empresas priorizan que la IA sea “útil, honesta y segura”, lo que tiende a limitar la creatividad porque penaliza respuestas impredecibles o arriesgadas que podrían considerarse inapropiadas o peligrosas.

Conversaciones con investigadores del sector revelan que existe una tensión esencial entre las metas comerciales y la escritura creativa: los modelos están optimizados para seguir reglas, evitar errores y producir respuestas útiles para una amplia gama de usuarios, pero la creatividad artística requiere precisamente romper reglas, explorar lo inesperado y aportar una perspectiva singular, rasgos que estos sistemas no están diseñados para priorizar. Esta contradicción fundamental ayuda a explicar por qué, incluso con memorias extensas de grandes cantidades de literatura, los modelos aún no generan obras que igualen la profundidad, la emoción o la voz autoral humana.

De este modo a pesar de los avances, la escritura humana mantiene una ventaja insustituible, ya que está intrínsecamente ligada a la experiencia vivida, a la sensibilidad emocional y a un tipo de juicio estético que las máquinas no poseen. Incluso si en el futuro se desarrollan modelos más sofisticados, los escritores humanos seguirán aportando algo único que no puede ser simplemente emulado por algoritmos.

¿Por qué los autores no revelan el uso de IA en sus trabajos de investigación?

Staiman, Avi. 2026. “Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It.The Scholarly Kitchen, January 27, 2026. https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/

El artículo aborda el fenómeno creciente de que muchos autores académicos no están declarando el uso de herramientas de inteligencia artificial (IA) en sus procesos de investigación y redacción, a pesar de que un número significativo de ellos reconoce emplearlas en distintas fases del trabajo científico

Staiman explica que, aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.

Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.

Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.

Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.

Finalmente, el autor advierte que, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Argumenta que las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.

La IA marca un punto de inflexión en el reconocimiento de la escritura a mano

Cohen, Dan. “The Writing Is on the Wall for Handwriting Recognition.” Humane Ingenuity (newsletter), November 25, 2025. https://newsletter.dancohen.org/archive/the-writing-is-on-the-wall-for-handwriting-recognition

Uno de los problemas más difíciles en las humanidades digitales —el reconocimiento preciso de escritura a mano— parece haber sido finalmente resuelto gracias a los avances recientes en inteligencia artificial. Tradicionalmente, los sistemas de reconocimiento óptico de caracteres (OCR) alcanzaron casi un 99 % de precisión con texto impreso, pero los sistemas de reconocimiento de texto manuscrito (HTR) apenas rozaban un 80 % debido a la enorme variabilidad y complejidad de las escrituras humanas. Esto obligaba a historiadores y paleógrafos a invertir mucho tiempo descifrando documentos antiguos, como cartas de figuras históricas, antes de llegar a la etapa analítica de sus investigaciones.

Cohen ilustra el punto con ejemplos personales de su trabajo con cartas manuscritas del siglo XIX, mostrando cómo herramientas como Transkribus requerían extensas preparaciones y seguían generando transcripciones con errores persistentes. Sin embargo, al emplear modelos de IA avanzados como Gemini 3 Pro, constató transcripciones sorprendentemente precisas de textos complejos, con la capacidad adicional de generar explicaciones sobre cómo la IA llegó a ciertas interpretaciones al analizar rasgos gráficos específicos de la escritura. Esta evolución tecnológica sugiere que la IA puede transformar la forma en que los documentos manuscritos digitalizados se hacen buscables y legibles de manera automática.

Más allá de las implicaciones técnicas, Cohen reflexiona sobre el papel de estas herramientas en la investigación académica. Señala que, al reducir la monotonía y labor manual de transcripción, los estudiosos pueden dedicar más tiempo a la comprensión profunda de los textos y a la interacción humana que estos contienen. Aun así, advierte que el uso de IA debe ser equilibrado: útil para tareas que liberan tiempo, pero sin desplazar la apreciación humana por la escritura y la comunicación que subyacen en los documentos históricos.

Libros bomba

«Quisiera construir libros bomba, es decir, libros que fueran útiles precisamente en el momento en el que alguien los escribe o los lee. Y que desaparecieran luego. Esos libros estarían hechos de tal modo que desaparecerían poco tiempo después de haber sido leídos o utilizados. Los libros deberían ser una especie de bombas y nada más. Tras la explosión, las gentes podrían recordar que esos libros produjeron unos hermosos fuegos artificiales. Más tarde los historiadores y demás especialistas podrían decir que ese libro o tal otro fue tan útil como una bomba y también tan hermoso como unos fuegos artificiales».


MICHEL FOUCAULT, «Dialogue on Power», 1975/78.

Writer: detector gratuito de contenido generado por IA

Writer.com

El detector de contenido con IA de Writer.com es una herramienta gratuita diseñada para identificar la presencia de texto generado por inteligencia artificial en fragmentos de hasta 5.000 palabras. Su objetivo es ayudar a escritores, educadores y profesionales a verificar la autenticidad de los textos antes de su publicación.

Entre sus características principales, destaca la posibilidad de pegar directamente el texto a analizar o incluso ingresar una URL para evaluar su contenido. La herramienta ofrece un puntaje de detección, expresado en porcentaje, que indica la probabilidad de que el texto haya sido generado por IA. Además, es de acceso gratuito y no requiere registro para realizar un análisis, aunque el límite por comprobación es de 5.000 palabras. Para usuarios empresariales, Writer.com ofrece una API que permite integrar el detector en flujos de trabajo automatizados.

Sin embargo, el detector tiene algunas limitaciones. Su precisión puede variar, especialmente en textos que imitan muy bien el estilo humano o que contienen frases comunes, lo que puede generar falsos positivos o negativos. Además, a diferencia de otras herramientas como Originality.ai, no cuenta con detección de plagio, lo que puede ser una desventaja para quienes buscan una solución integral. Otra limitación es que el acceso a la API solo está disponible en planes empresariales, lo que restringe su uso para individuos o pequeñas empresas que necesiten automatizar los análisis.

El detector de IA de Writer.com resulta útil para comprobaciones rápidas y accesibles de contenido generado por inteligencia artificial. Es una opción práctica para usuarios que buscan una solución sencilla y gratuita. Sin embargo, para quienes necesitan funciones más avanzadas, como análisis más profundos o detección de plagio, puede ser necesario considerar herramientas complementarias o alternativas más completas.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. 2023. “Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.” International Journal for Educational Integrity 19: 17. https://doi.org/10.1007/s40979-023-00140-5

Se investiga la efectividad de diversas herramientas de detección de contenido generado por IA, como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, en la identificación de textos producidos por modelos de IA como ChatGPT.

Utilizando párrafos sobre el tema de las torres de refrigeración en procesos de ingeniería generados por ChatGPT Modelos 3.5 y 4, junto con respuestas humanas de control, los investigadores evaluaron la capacidad de estas herramientas para distinguir entre contenido humano y generado por IA.

Los resultados revelaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT 3.5 en comparación con GPT 4. Sin embargo, al aplicarlas a las respuestas humanas de control, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Esto destaca la necesidad de un desarrollo y refinamiento continuo de las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve cada vez más sofisticado y difícil de distinguir del texto escrito por humanos.

El estudio subraya la importancia de no depender exclusivamente de estas herramientas para garantizar la integridad académica. Se recomienda adoptar un enfoque más holístico que combine el uso de herramientas de detección con revisiones manuales y consideraciones contextuales para asegurar una evaluación justa y precisa del contenido académico. Además, los autores sugieren que las instituciones educativas reconsideren sus métodos de evaluación tradicionales, incorporando tecnologías de IA para mejorar el aprendizaje y la evaluación, al tiempo que fomentan una cultura de honestidad académica y responsabilidad.

Aspectos clave:

  • Ninguna herramienta es completamente infalible; la combinación de detección automática y revisión manual es esencial.
  • Los textos generados por ChatGPT 4 son más difíciles de detectar, mostrando la necesidad de mejorar continuamente estas herramientas.
  • Se recomienda integrar estas tecnologías con políticas educativas que fomenten la honestidad académica y métodos de evaluación adaptados.

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.