Prillaman, McKenzie. «‘ChatGPT Detector’ Catches AI-Generated Papers with Unprecedented Accuracy». Nature, 6 de noviembre de 2023. https://doi.org/10.1038/d41586-023-03479-4.
Los grandes modelos lingüísticos como ChatGPT pueden generar textos que parecen auténticos a la velocidad del rayo, si bien, la gran mayoría de editores de revistas rechazan los modelos lingüísticos como autores de manuscritos. Por tanto, se necesita inmediatamente un medio para distinguir con precisión el texto generado por humanos del generado por inteligencia artificial (IA).
Según un estudio publicado el 6 de noviembre en Cell Reports Physical Science, una herramienta de aprendizaje automático puede identificar fácilmente cuándo los documentos de química están escritos utilizando el chatbot ChatGPT. El clasificador especializado, que superó a dos detectores de inteligencia artificial (IA) existentes, podría ayudar a las editoriales académicas a identificar documentos creados por generadores de texto de IA.
Se trata de un detector preciso de texto de IA para revistas científicas probando su capacidad en una serie de situaciones complejas, incluido el texto humano de una amplia variedad de revistas de química, el texto de IA del modelo de lenguaje más avanzado disponible públicamente (GPT-4) y, lo que es más importante, el texto de IA generado mediante mensajes diseñados para ocultar el uso de IA. En todos los casos, los textos humanos y de IA se asignaron con gran precisión. El texto generado por ChatGPT puede detectarse fácilmente en las revistas de química; este avance es un requisito previo fundamental para entender cómo afectará la generación automatizada de texto a las publicaciones científicas de ahora en adelante.
«La mayoría de la comunidad de análisis de texto busca un detector realmente general que funcione en cualquier cosa», dice la coautora Heather Desaire, una química de la Universidad de Kansas en Lawrence. Pero al crear una herramienta que se centra en un tipo específico de documento, «realmente estábamos buscando la precisión».
Los hallazgos sugieren que los esfuerzos para desarrollar detectores de IA podrían mejorar al adaptar el software a tipos específicos de escritura, dice Desaire. «Si puedes construir algo rápidamente y fácilmente, entonces no es tan difícil construir algo para diferentes dominios».
Con el interés público centrado en tecnologías de IA generativa en constante aumento, algunos de los problemas más apremiantes giran en torno a preguntas como «¿Se está utilizando la IA generativa para crear imágenes y videos falsos?» y «¿Los estudiantes están utilizando la IA generativa para escribir trabajos y hacer trampa en los exámenes?» Por estas razones, hay una creciente demanda de sistemas que puedan detectar si una imagen, archivo de audio o trabajo escrito ha sido creado por un humano o un sistema de IA.
A pesar de que los sistemas de detección de IA están comenzando a proliferar, no existen estándares de la industria ni regulaciones gubernamentales que garanticen que estos sistemas sean precisos o justos. Debido a que el impacto de estos sistemas en las personas puede ser significativo, el Association for Computing Machinery’s US Technology Policy Committee (ACM USTPC) ha emitido una Declaración de Principios para el Desarrollo y Uso de Sistemas de Detección de Contenido de IA Generativa.
La introducción a la nueva Declaración de USTPC destaca diversos escenarios en los que sería deseable contar con sistemas para detectar contenido generado por IA. Por ejemplo, los empleadores que desean saber si se utilizó IA generativa para completar una solicitud de trabajo o las empresas de medios que intentan determinar si los comentarios publicados en plataformas fueron dejados por humanos o chatbots.
Al mismo tiempo, la Declaración señala que «la demanda de tales sistemas no es un indicador de su equidad o precisión». El comité continúa explicando que «ninguna tecnología de detección actualmente disponible es lo suficientemente confiable como para basar exclusivamente decisiones críticas, potencialmente alteradoras de la vida y la carrera…»
La declaración proporciona un contexto técnico sobre por qué no se puede garantizar la equidad y precisión de los sistemas de detección de IA generativa existentes y establece seis principios y recomendaciones específicos:
Bajo riesgo de rechazos incorrectos y proceso de apelación impulsado por humanos: El uso de sistemas para detectar imágenes generadas por IA y otros medios que automáticamente marcan las presentaciones para su rechazo solo debe ser aceptable si estos sistemas de detección tienen un riesgo extremadamente bajo de rechazos incorrectos y si se proporciona un proceso de apelación impulsado por humanos.
Presentaciones de alto riesgo: Generalmente no es apropiado rechazar automáticamente presentaciones de texto en circunstancias de alto riesgo que se clasifican como producidas por un sistema de IA generativa, incluso si se proporciona un proceso para apelar dichos rechazos. Ejemplos de presentaciones de alto riesgo incluyen (pero no se limitan a) tareas en el aula y solicitudes de admisión a una institución educativa, crédito o empleo.
Códigos de conducta: Las entidades que utilizan sistemas de detección de IA generativa deben adoptar directrices, como códigos de conducta, manuales del empleado y códigos de honor ejecutables, que requieran que aquellos afiliados a la entidad cumplan con las políticas de IA de la organización.
Impugnación de resultados: De acuerdo con declaraciones anteriores de USTPC, las personas deben tener la oportunidad de impugnar resultados siempre que se tome una decisión adversa sobre ellas, en su totalidad o en parte, basada en la salida de un sistema de IA.
Formación adecuada: Los evaluadores de contenido humano deben recibir una formación adecuada de manera continua sobre los métodos y herramientas adecuados para validar el contenido presentado.
Aumento de la financiación: Sería prudente y beneficioso aumentar la financiación del sector público y privado para la investigación sobre cómo desarrollar mecanismos de detección mejores, realizar análisis de impacto, realizar investigaciones de usuario y otros asuntos relacionados.
En palabras de Simson Garfinkel, autor principal de la declaración y presidente del Subcomité de Gobierno Digital de USTPC: «En principio, detectar texto e imágenes generados por la IA es un problema abierto. Aunque podría ser posible construir un sistema que pueda detectar el contenido generado por la IA de hoy, tal detector podría utilizarse para construir el sistema de generación de IA del mañana que evite dicha detección. Esta declaración se emite para agregar una voz de experiencia técnica al pánico moral sobre el uso de la IA generativa. Estamos diciendo que el texto e imágenes producidos por sistemas de IA generativa no pueden detectarse de manera confiable hoy. También alentamos a todas las instituciones a abstenerse de desplegar sistemas que pretendan detectar y descartar automáticamente materiales porque supuestamente fueron creados por un sistema de IA generativa».
Larry Medsker, presidente del Comité de Política Tecnológica de ACM de los Estados Unidos, agregó: «Esta nueva Declaración es parte de una serie continua que el Comité de Tecnología de ACM de los Estados Unidos publica para informar al público sobre las nuevas tecnologías y sus impactos en la sociedad. Recientemente, hemos estado especialmente activos en brindar aportes oportunos para abordar los nuevos desarrollos en IA». En esta línea, los miembros de USTPC han publicado “Principles for the Development, Deployment and Use of Generative AI” y “Statement on Principles for Responsible Algorithmic Systems.”
Además del autor principal Simson Garfinkel, los principales contribuyentes a la “Statement on Principles for the Development and Use of Systems to Detect Generative AI Content” incluyen a los miembros del comité Houssam Abbas, Andrew Appel, Harish Arunachalam, Ricardo Baeza-Yates, David Bauman, Ravi Jain, Carl Landwehr, Larry Medsker, Neeti Pokhriyal, Arnon Rosenthal y Marc Rotenberg.
La semana pasada recibí una llamada desesperada de un estudiante de máster de Austria que estaba inconsolable. Acababa de enviar su tesis a su universidad para que la revisaran y había sido marcada como escrita por IA. La universidad le había dado una oportunidad más para revisar y volver a presentar su trabajo. Si pasaba la herramienta de detección de IA, revisarían el trabajo y le darían una nota final. Si no superaba la comprobación automática, lo rechazarían automáticamente y lo expulsarían deshonrosamente de su programa, tirando por la borda dos años de estudio.
¿Herramientas de detección de IA para defender la integridad de la investigación?
El reciente auge en el desarrollo de tecnologías de IA en el ámbito de la escritura ha provocado el aumento y la proliferación de detectores de IA en el mundo académico. Estos detectores prometen ser los guardianes de la integridad académica combatiendo el plagio y los contenidos generados por IA. Aunque la ambición es noble, su aplicación práctica ha tenido su buena dosis de deficiencias críticas.
El supuesto fundamental que subyace a la creación de herramientas de detección de IA parece ser que la escritura con IA debería poder detectarse del mismo modo que se detecta el plagio. Sin embargo, hay una diferencia fundamental: el plagio simplemente busca coincidencias exactas con obras existentes, un criterio objetivo que puede identificarse, medirse y reproducirse. Por otro lado, la escritura de IA es original por derecho propio (aunque se extraiga de fuentes no originales) y no puede rastrearse fácilmente hasta su fuente.
Mi oposición a que las editoriales académicas recurran a herramientas de detección obedece a razones tanto pragmáticas como ideológicas. Empecemos por las cuestiones pragmáticas.
Problemas con los falsos positivos
Los grandes modelos lingüísticos aprenden de la escritura humana y se construyen para parecerse a ella en sus resultados. Ya con el lanzamiento de ChatGPT, quedó claro que la IA generativa podía producir una escritura que imitara con éxito la de los humanos. Cuantificar los respectivos componentes humanos y de IA en un documento concreto es todo un reto y, a menudo, los autores mezclan sus propias palabras con las sugeridas por la herramienta de IA.
Las imperfecciones de los detectores de IA son cada vez más evidentes, ya que a menudo identifican erróneamente contenidos genuinamente generados por humanos. Los estudios han mostrado tasas de error de hasta el 9% o más, una cifra demasiado alta para vivir con ella. Un caso notable fue el de una herramienta de IA que marcó la Constitución de EE.UU. como producida por IA. Este falso positivo no sólo pone de manifiesto la flagrante imperfección de estos detectores, sino que también subraya las posibles trampas que aguardan a los autores académicos que tratan estos informes como fidedignos. Un caso humorístico pero inquietante de este tipo de confusión surgió después de que un profesor de Texas A&M suspendiera toda su clase después de que ChatGPT respondiera afirmativamente cuando le preguntó si había escrito los trabajos entregados por los estudiantes.
¿No es esa precisamente la razón por la que los profesores recurren a estas herramientas?
Las universidades están empezando a comprender las implicaciones de estas admisiones y han empezado a tomar medidas aconsejando a su profesorado que no utilice estas herramientas. En un informe de orientación publicado por la Universidad de Vanderbilt, señalan que Turnitin, su proveedor de software contra el plagio, afirmó originalmente tener una tasa positiva del 1% en la detección de trabajos escritos con IA tras el lanzamiento de su herramienta de detección de IA, pero luego aumentó esa tasa al 4% tras un uso y unas pruebas más amplias. Aunque esas cifras mejoren, no sería difícil para los autores malintencionados pasar los resultados de la IA por un software de parafraseo para eliminar rastros del original. La propia OpenAI cerró un proyecto que intentaba detectar sus propios resultados. Muchas universidades ya han cambiado de rumbo y están buscando políticas alternativas.
Daños colaterales de las falsas acusaciones
La falacia de los detectores de IA tiene consecuencias en el mundo real. Timnit Gebru, fundadora y directora ejecutiva del Distributed AI Research Institute (DAIR), compartió recientemente un angustioso correo electrónico que recibió en el que se acusaba injustamente a un escritor de emplear IA. Este tipo de incidentes pueden causar una angustia emocional indebida y empañar potencialmente la reputación profesional de un investigador. El efecto dominó puede traducirse en desconfianza, escepticismo y descarrilamiento de la carrera académica, por no hablar de las prolongadas batallas legales.
Peor aún, es más probable que estos detectores marquen como generados por IA los trabajos de hablantes de inglés como lengua adicional (EAL) que los de sus homólogos nativos de habla inglesa. Lo último que querría cualquier editor es arriesgarse a introducir aún más prejuicios y discriminación contra los autores EAL.
¿Por qué corremos de nuevo a prohibir la escritura asistida por IA?
Las editoriales académicas deberían ser cautelosas a la hora de adoptar herramientas de detección de IA por razones que van más allá de la integridad de la investigación.
Si bien es probable que la mayoría de los editores no quieran publicar investigaciones que hayan sido obviamente realizadas por ChatGPT, adoptar políticas en las que los verificadores de IA sean estándar es también hacer una declaración educativa y de valores sobre cómo vemos el uso de la IA generativa en la expresión de hallazgos académicos. En lugar de rechazar las herramientas de IA en la escritura académica, ¿qué pasaría si las utilizáramos como herramientas educativas y como medio para igualar las condiciones de los académicos de la EAL?
Instituciones como la Universidad de Yale son pioneras en la utilización de la IA para mejorar el proceso de escritura. Ethan y Lilach Mollick, de la Wharton School, han creado un curso práctico en línea sobre IA para el aula que incluye la integración de la GPT en las tareas. Estos avances ponen de relieve un posible camino a seguir en el que la IA ayude a la escritura académica en lugar de entorpecerla.
Conclusión
Aunque la motivación para integrar los detectores de IA en la revisión académica es bienintencionada, los retos que introducen exigen un enfoque diferente. El sector de las publicaciones académicas debe estar alerta, sopesar los posibles escollos frente a las promesas y explorar formas de integrar armoniosamente la IA en la bibliografía académica.
Según la información proporcionada, OpenAI decidió cerrarAI Text Classifier, su herramienta diseñada para distinguir la escritura humana de la IA debido a su baja tasa de precisión. La compañía anunció en su blog que el clasificador de IA sería discontinuado a partir del 20 de julio.
Tras la irrupción de ChatGPT de OpenAI y su rápido crecimiento, la sociedad se apresuró a comprender esta tecnología. Sin embargo, varios sectores expresaron preocupación acerca del uso de texto y arte generados por IA. Especialmente los educadores temían que los alumnos dejaran de estudiar y confiaran en ChatGPT para completar sus tareas escolares. En algunos colegios de Nueva York, incluso se prohibió el acceso a ChatGPT dentro del recinto escolar debido a inquietudes sobre la precisión, la seguridad y la posibilidad de hacer trampas.
OpenAI anunció que, mientras cierra la herramienta de detección de escritura generada por IA, tiene planes de desarrollar y desplegar mecanismos que permitan a los usuarios identificar si el contenido de audio o visual ha sido generado por IA. Aunque aún no se han dado a conocer los detalles específicos de estos mecanismos.
Además, OpenAI admitió que su AI Text Classifier utilizado para detectar texto generado por IA no era muy preciso y podía generar falsos positivos. Esto significa que en ocasiones etiquetaba texto escrito por humanos como si fuera generado por IA. Antes de implementar la actualización que cerró la herramienta, OpenAI expresó la posibilidad de mejorar el rendimiento de su herramienta mediante el uso de más datos de entrenamiento.
La desinformación a través de la IA también ha sido motivo de preocupación, con estudios que demuestran que los textos generados por la IA podrían ser más convincentes que los escritos por humanos. Los gobiernos aún no han encontrado la forma de frenar la IA y, por ahora, dejan que grupos y organizaciones individuales establezcan sus propias normas y desarrollen sus propias medidas de protección para hacer frente a la avalancha de textos generados por ordenador. Y parece que, por ahora, nadie, ni siquiera la empresa que ayudó a poner en marcha la locura de la IA generativa, tiene respuestas sobre cómo hacer frente a todo esto. Aunque a algunos les pillen, cada vez va a ser más difícil diferenciar fácilmente la IA del trabajo humano.
La IA generativa está ganando terreno y se está utilizando cada vez más para crear diversos tipos de contenidos, como texto, imágenes, música y más. Esto ha llevado a una creciente preocupación sobre la fiabilidad de los detectores de IA para discernir entre contenidos generados por humanos y aquellos creados por algoritmos de inteligencia artificial. Turnitin resultó ser la herramienta más precisa en todos los enfoques, seguida de Compilatio y GPT-2 Output Detector.
Detectar y verificar si un contenido fue generado por una IA o por un ser humano es un desafío en constante evolución. A medida que la tecnología de IA avanza, también lo hacen las técnicas para ocultar la autoría de los contenidos generados por algoritmos. Esto puede plantear problemas en términos de veracidad, credibilidad y confiabilidad de la información que se comparte en línea. Para abordar esta preocupación, se han llevado a cabo diversos estudios para evaluar la eficacia de las herramientas de detección de IA en esta tarea. Estos estudios buscan mejorar y perfeccionar los algoritmos de detección y establecer métricas para evaluar su precisión.
Algunos enfoques utilizan marcadores específicos que pueden identificar ciertas características o patrones que son más comunes en contenidos generados por IA. Otros enfoques buscan analizar el estilo y la estructura de los textos o imágenes para identificar indicios de automatización.
¿Son parciales los detectores de IA? Los investigadores encontraron que los detectores de contenidos de IA, especialmente aquellos diseñados para identificar contenidos generados por modelos de lenguaje como GPT, pueden presentar un sesgo significativo en contra de los escritores no nativos de inglés. El estudio descubrió que estos detectores, diseñados para diferenciar entre contenidos generados por IA y contenidos generados por humanos, clasifican erróneamente muestras de escritura en inglés no nativo como generadas por IA, mientras que identifican con precisión muestras de escritura en inglés nativo.
Utilizando muestras de escritura de escritores nativos y no nativos, los investigadores descubrieron que los detectores clasificaban erróneamente más de la mitad de estas últimas muestras como generadas por IA. Los resultados sugieren que los detectores de GPT pueden penalizar involuntariamente a los escritores con expresiones lingüísticas limitadas, lo que subraya la necesidad de prestar más atención a la equidad y solidez de estas herramientas. Esto podría tener implicaciones significativas, sobre todo en contextos evaluativos o educativos, donde los hablantes no nativos de inglés podrían verse inadvertidamente penalizados.
Los investigadores también destacan la necesidad de seguir investigando para hacer frente a estos sesgos y perfeccionar los métodos de detección actuales para garantizar un panorama digital más equitativo y seguro para todos los usuarios.
En otro estudio sobre texto generado por IA, los investigadores documentan la optimización de ejemplos en contexto basada en la sustitución (SICO), que permite a los grandes modelos lingüísticos (LLM) como ChatGPT eludir la detección de los detectores de texto generado por IA. En el estudio se utilizaron tres tareas para simular situaciones reales de uso de los LLM en las que es crucial detectar el texto generado por IA: redacciones académicas, preguntas y respuestas abiertas y reseñas comerciales.
También se probó SICO frente a seis detectores representativos -incluidos modelos basados en la formación, métodos estadísticos y API- que superaron sistemáticamente a otros métodos en todos los detectores y conjuntos de datos.
Los investigadores comprobaron que SICO era eficaz en todos los escenarios de uso probados. En muchos casos, el texto generado por SICO era indistinguible del texto escrito por humanos. Sin embargo, también pusieron de relieve el posible mal uso de esta tecnología. Dado que SICO puede ayudar a que el texto generado por IA evada la detección, los actores malintencionados también podrían utilizarla para crear información engañosa o falsa que parezca escrita por humanos.
Ambos estudios señalan el ritmo al que el desarrollo de la IA generativa supera al de los detectores de texto de IA, y el segundo hace hincapié en la necesidad de una tecnología de detección más sofisticada.
Los investigadores de un tercer estudio recopilaron estudios anteriores sobre la fiabilidad de los detectores de IA, seguidos de sus datos, y publicaron varias conclusiones sobre estas herramientas.
Aydin & Karaarslan (2022) revelaron que iThenticate, una popular herramienta de detección de plagio, encontró altas tasas de coincidencia con el texto parafraseado por ChatGPT.
Wang et al. (2023) descubrieron que es más difícil detectar código generado por IA que contenido en lenguaje natural. Además, algunas herramientas mostraron sesgos, inclinándose por identificar el texto como generado por IA o escrito por humanos.
Pegoraro et al. (2023) descubrieron que detectar texto generado por ChatGPT es muy difícil, y que la herramienta más eficaz lograba una tasa de éxito inferior al 50%.
Van Oijen (2023) reveló que la precisión global de las herramientas en la detección de texto generado por IA era sólo de alrededor del 28%, y que la mejor herramienta lograba sólo un 50% de precisión. Por el contrario, estas herramientas eran más eficaces (alrededor del 83% de precisión) en la detección de contenido escrito por humanos.
Anderson et al. (2023) observaron que la paráfrasis reducía notablemente la eficacia del detector de salida GPT-2.
Utilizando 14 herramientas de detección de texto generadas por IA, los investigadores crearon varias docenas de casos de prueba en diferentes categorías, entre ellas:
Texto escrito por humanos. Texto traducido. Texto generado por IA. Texto generado por IA con ediciones humanas. Texto generado por IA con parafraseo de IA.
La mayoría de las herramientas probadas mostraron un sesgo hacia la clasificación precisa del texto escrito por humanos, en comparación con el texto generado o modificado por IA. El estudio destacó también el riesgo de falsas acusaciones y casos no detectados. Los falsos positivos fueron mínimos en la mayoría de las herramientas, excepto en GPT Zero, que presentó una tasa elevada.
Los casos no detectados eran preocupantes, sobre todo en el caso de los textos generados por IA que habían sido editados por personas o parafraseados por máquinas. La mayoría de las herramientas tenían dificultades para detectar este tipo de contenidos, lo que supone una amenaza potencial para la integridad académica y la imparcialidad entre los estudiantes. Turnitin resultó ser la herramienta más precisa en todos los enfoques, seguida de Compilatio y GPT-2 Output Detector.
Los investigadores sugieren que abordar estas limitaciones será crucial para implantar eficazmente herramientas de detección de texto generadas por IA en entornos educativos, garantizando la detección precisa de conductas indebidas y minimizando al mismo tiempo las acusaciones falsas y los casos no detectados.
¿Deberíamos confiar en las herramientas de detección de IA basándose en los resultados de estos estudios? Aunque los detectores de IA han demostrado cierta precisión a la hora de detectar texto generado por IA, también han mostrado sesgos, problemas de usabilidad y vulnerabilidades ante las técnicas de elusión Se necesitan mejoras para corregir los sesgos, aumentar la robustez y garantizar una detección precisa en diferentes contextos. La investigación y el desarrollo continuados son cruciales para fomentar la confianza en los detectores de IA y crear un panorama digital más equitativo y seguro.
Desaire, Heather, Aleesa E. Chua, Madeline Isom, Romana Jarosova, y David Hua. «Distinguishing Academic Science Writing from Humans or ChatGPT with over 99% Accuracy Using Off-the-Shelf Machine Learning Tools». Cell Reports Physical Science 0, n.o 0 (7 de junio de 2023). https://doi.org/10.1016/j.xcrp.2023.101426.
Investigadores de la Universidad de Kansas afirman tener una precisión del 99% en la detección de falsificaciones de ChatGPT. Los investigadores afirman que su algoritmo puede detectar escritos científicos realizados por robots con una precisión sorprendente
Científicos de la Universidad de Kansas publicaron un artículo el miércoles en el que detallan un algoritmo que, según dicen, detecta la escritura académica de ChatGPT con una precisión de más del 99%.
A medida que el contenido del chatbot de IA comienza a inundar el mundo, una de las mayores preocupaciones es poder distinguir de manera confiable entre las palabras de los robots y las de los seres humanos reales. Se han realizado algunos intentos de construir detectores de ChatGPT, y decenas de empresas compiten por desarrollar tecnología para detectar la IA. Pero hasta ahora, ninguna de las opciones funciona bien, incluso una construida por OpenAI, la empresa que creó ChatGPT. Las herramientas existentes son tan ineficaces que son prácticamente inútiles.
El detector de ChatGPT descrito en el artículo solo está diseñado para funcionar en contextos específicos, pero su éxito reportado parece prometedor. En el proceso de construcción, los investigadores afirman haber identificado señales reveladoras de la escritura de IA.
El artículo, que fue revisado por pares y publicado en Cell Reports Physical Science, describe una técnica que detecta artículos de investigación académica escritos por IA. El estudio seleccionó un conjunto de 64 artículos científicos escritos por autores humanos en una variedad de disciplinas, desde biología hasta física. Alimentaron esos datos a ChatGPT y lo utilizaron para producir un conjunto de datos de 128 artículos de IA con un total de 1.276 párrafos generados por el chatbot. Los científicos utilizaron esos párrafos falsos para construir su algoritmo de detección de ChatGPT. Luego crearon un nuevo conjunto de datos para probar su algoritmo con 30 artículos reales y 60 artículos escritos por ChatGPT, lo que suma un total de 1.210 párrafos.
Los investigadores afirman que su algoritmo detectó artículos completos escritos por ChatGPT el 100% de las veces. A nivel de párrafo, fue menos preciso pero aún impresionante: el algoritmo identificó el 92% de los párrafos generados por IA.
Los investigadores esperan que otros utilicen su trabajo para adaptar el software de detección a sus propios nichos y propósitos. «Nos esforzamos mucho para crear un método accesible para que, con poca orientación, incluso los estudiantes de secundaria puedan construir un detector de IA para diferentes tipos de escritura», dijo Heather Desaire, autora del artículo y profesora de química en la Universidad de Kansas, en una entrevista con EurekAlert. «Existe la necesidad de abordar la escritura de IA, y las personas no necesitan tener un título en ciencias de la computación para contribuir a este campo».
El artículo menciona algunas señales reveladoras del trabajo de ChatGPT. Por ejemplo, los escritores humanos redactan párrafos más largos, utilizan un vocabulario más amplio, incluyen más signos de puntuación y tienden a calificar sus afirmaciones con palabras como «sin embargo», «pero» y «aunque». ChatGPT también es menos específico en cuanto a las citas, como figuras y menciones de otros científicos.
El modelo desarrollado por Desaire y sus colaboradores no funcionará de manera inmediata para los profesores que esperan penalizar a los estudiantes de secundaria que hacen trampa. El algoritmo fue creado para la escritura científica, específicamente el tipo de escritura académica que se encuentra en revistas. Esto es una lástima para los formadores y gestores que, en general, han pasado los últimos seis meses preocupados por el plagio facilitado por ChatGPT. Sin embargo, Desaire afirmó que teóricamente se puede utilizar la misma técnica para construir un modelo que detecte otros tipos de escritura.
Las cosas se complican cuando consideramos el hecho de que un escritor podría realizar fácilmente pequeñas modificaciones a un texto generado por el chatbot y hacerlo mucho más difícil de detectar. Aun así, los investigadores describieron este trabajo como una «prueba de concepto» y afirman que podrían desarrollar una herramienta más robusta y quizás más precisa con un conjunto de datos más amplio.
Aunque estos resultados son prometedores, las empresas de tecnología y los defensores de la IA señalan que herramientas como ChatGPT están en sus etapas iniciales. Es imposible decir si los métodos de detección como este serán efectivos si la IA continúa desarrollándose al ritmo acelerado que hemos presenciado en los últimos años. Cuanto más se acerquen los modelos de lenguaje grandes a replicar los murmullos de la escritura humana basada en carne, más difícil será identificar las huellas del lenguaje de los robots.
Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA, y algo menos de una décima parte de los envíos contenían al menos un 20% de texto escrito con IA.
Turnitin informó de que, de 38 millones de consultas realizadas desde el 4 de abril, aproximadamente el 3,5% de ellos contenían al menos un 80% de texto escrito por IA. Esto sugiere que hay una notable presencia de texto generado por IA en los envíos que Turnitin ha procesado.
De manera que en las primeras seis semanas de uso por parte de los educadores de la nueva función de detección de escritura por IA de Turnitin, ha llevado a la plataforma a ajustar el detector y a explicar mejor el significado y los índices de precisión de las puntuaciones de detección.
Las actualizaciones de la función de detección de IA inclyen:
Se ha añadido un asterisco a las puntuaciones inferiores al 20%: Ahora aparecerá un asterisco junto al indicador «puntuación» -o el porcentaje de un envío que se considera texto escrito con IA- cuando la puntuación sea inferior al 20%, ya que el análisis de los envíos hasta ahora muestra que los falsos positivos son mayores cuando el detector encuentra que menos del 20% de un documento está escrito con IA. El asterisco indica que la puntuación es menos fiable, según la entrada del blog.
Aumento del número mínimo de palabras: El número mínimo de palabras necesario para que el detector de IA funcione se ha aumentado de 150 a 300, porque el detector es más preciso cuanto más largo es un envío, dijo Chechitelli. «Los resultados demuestran que nuestra precisión aumenta con un poco más de texto, y nuestro objetivo es centrarnos en los escritos largos. Es posible que con el tiempo modifiquemos este requisito de palabras mínimas basándonos en la evaluación continua de nuestro modelo.»
Cambios en el análisis del detector de frases iniciales y finales: «También observamos una mayor incidencia de falsos positivos en las primeras o últimas frases de un documento», dijo Chechitelli. «Muchas veces, estas frases son la introducción o la conclusión en un documento. Como resultado, hemos cambiado la forma de agregar estas frases específicas para la detección con el fin de reducir los falsos positivos.»
Es importante señalar que la capacidad de Turnitin para detectar texto generado por IA se basa en sus algoritmos y bases de datos que comparan el texto enviado con las fuentes existentes para identificar posibles casos de plagio. Aunque Turnitin puede detectar casos en los que el texto generado por IA se ha copiado directamente de fuentes existentes, puede tener dificultades para identificar el plagio cuando el texto generado por IA es original y no procede de publicaciones existentes.
A medida que siga evolucionando el uso de la IA en la generación de texto, es posible que las herramientas de detección como Turnitin tengan que adaptarse y desarrollar nuevas técnicas para identificar y abordar eficazmente el plagio generado por IA. Las instituciones y organizaciones educativas también pueden necesitar establecer políticas y directrices específicas para abordar el uso de contenidos generados por IA y el plagio en entornos académicos.
Vale la pena mencionar que las cifras proporcionadas por Turnitin ponen de relieve la prevalencia del texto generado por IA, pero sería necesario realizar más análisis e investigaciones para comprender plenamente el impacto y las implicaciones del contenido generado por IA en el contexto de la integridad académica y la detección del plagio.
Como cada día aparecen nuevas alternativas a ChatGPT, los detectores de contenido de IA también están ganando popularidad. En este artículo, se comparan16 de estos detectores y se muestra cómo puntúan algunos párrafos de un escrito original no publicado frente a algunos párrafos sobre el mismo tema de ChatGPT.
La IA generativa y los contenidos ChatGPT plantean varios problemas:
La información generada por IA puede ser incorrecta, peligrosa, obsoleta o engañosa.
Los resultados de la escritura de la IA pueden ser deficientes.
Aunque no se penaliza explícitamente el contenido generado por IA, es posible que Google no siempre confíe en él y lo considere igual que el contenido creado por humanos.
El contenido de IA puede «engañar» a los editores o a las empresas que creen que están pagando por contenido creado por humanos.
El contenido de IA puede aprovechar el trabajo creativo de los humanos y reutilizarlo sin atribución.
Es importante señalar que los detectores de IA actuales no resuelven todos estos problemas. En su mayoría, estas herramientas no comprueban los contenidos de la IA, no mejoran ni auditan la calidad de los contenidos, ni proporcionan citas de la información extraída de otras fuentes.
Dicho esto, las áreas en las que los detectores de IA pueden ayudar incluyen:
Plagio: Muchas de estas herramientas llevan incorporada la detección de plagio, por lo que se puede comprobar si el contenido de la IA se ha extraído en gran medida de otra fuente.
Prevención de sanciones: Si te preocupa que el contenido de IA se devalúe de algún modo en los resultados de búsqueda, estas herramientas pueden ayudarte a hacerte una idea de lo fácilmente detectable que es el contenido de IA. (Por supuesto, Google tendrá sin duda herramientas y comprobaciones diferentes).
Auditar el uso de la IA: Si tienes una política específica o una forma de compensar a los redactores por el contenido original frente al generado por IA, estas herramientas pueden darte una idea aproximada de si un redactor utiliza IA para generar contenido.
Tenga en cuenta que también pueden arrojar falsos negativos y positivos).
Comprender los resultados de búsqueda: Algunas de estas herramientas ofrecen extensiones de Chrome, que pueden ayudarle a comprender si los competidores y otros sitios web utilizan o no contenidos generados por IA.
Cómo funciona el software de detección de IA
Cada herramienta es diferente y tiene su propio enfoque del problema. Pero, en general, las herramientas de detección de ChatGPT califican los contenidos en función de la previsibilidad de las frases elegidas.
En otras palabras, la probabilidad de que el contenido sea calificado como IA frente a humano tiene mucho que ver con si el software de detección considera que un fragmento de texto sigue el patrón probable que seguiría la IA para generar contenido.
Los dos conceptos básicos en torno a este proceso se denominan:
Ráfaga: Longitud y ritmo predecibles de la estructura de la frase.
Perplejidad: Aleatoriedad de las palabras elegidas en una frase o conjunto de frases.
Por ejemplo, en un ensayo sobre la fundación de Estados Unidos, es muy poco probable que la IA generativa incluya una anécdota aleatoria, escrita de forma irregular, sobre la primera vez que vio un pingüino, por lo que una herramienta de detección probablemente la vería como una escritura humana.
Del mismo modo que aparecieron detectores de ChatGPT para detectar la escritura de IA generativa, ya se están desarrollando herramientas para sortear los detectores. Herramientas como Undetectable o Quillbot reescribirán tu contenido, a veces haciéndolo más difícil de detectar para ciertas herramientas de detección de IA.
Comparación de los mejores detectores de escritura por IA
Si todavía estás buscando un detector de contenido IA/ChatGPT, vamos a repasar cada uno de ellos y cómo «puntuaron» en la evaluación de la copia generada por humanos frente a la copia IA frente a la copia IA que utilizó este aviso para intentar «superar la detección».
En la tabla que aparece a continuación, puedes ver cómo puntuó cada herramienta la copia escrita por un humano y el texto tomado directamente de ChatGPT sin modificar nada, y esa misma copia modificada con la pregunta «perplejidad y explosividad»:
Principales conclusiones de las pruebas realizadas con 16 verificadores de contenido AI y ChatGPT
Una vez más, es esencial advertir aquí de mis principales conclusiones, ya que tres breves muestras de escritura son muestras muy pequeñas para extraer conclusiones firmes sobre las herramientas individuales.
Dicho esto, se han encontrado algunos patrones interesantes relacionados con los detectores de escritura de IA en general:
Calibración: La mayoría de las herramientas encontraron muy probable o muy improbable que las tres muestras de escritura fueran humanas. Es probable que las distintas herramientas sean «más duras» o «más blandas» a la hora de calificar el contenido humano frente al de la IA, por lo que entender cómo está calibrada una herramienta puede ayudar a determinar su utilidad.
Características más raras: Algunas de las características menos comunes entre las herramientas son las cargas masivas, la detección de plagio, tener una extensión de Chrome y resaltar secciones específicas con probabilidad de ser IA frente a humano.
Gratuito o de pago: Todas las herramientas presentadas aquí excepto Originality.AI tenían al menos versiones gratuitas. Pero las herramientas con los resultados más precisos y la mayoría de las «características raras» tendían a ser las herramientas con una versión de pago.
El ritmo de la innovación en la generación, edición y detección de contenidos de IA puede hacer que tu herramienta favorita se quede obsoleta rápidamente.