
Beschizza, Rob. «OpenAI Could Watermark the Text ChatGPT Generates, but Hasn’t.» Boing Boing, 5 de agosto de 2024. https://boingboing.net/2024/08/05/openai-could-watermark-the-text-chatgpt-generates-but-hasnt.html
OpenAI ha desarrollado un sistema de «marca de agua» para detectar cuando ChatGPT genera texto, pero ha decidido no implementarlo, según informes de The Wall Street Journal. El sistema, que podría detectar con precisión si un estudiante usó ChatGPT para escribir un ensayo, ha estado listo durante un año, pero ha sido objeto de debates internos dentro de la compañía.
OpenAI afirma que aunque el sistema es 99.9% fiable en textos sin editar, es «fácil de evadir». La marca de agua funciona bien contra alteraciones locales, como la paráfrasis, pero es menos efectiva contra ediciones más globales, como la traducción o el uso de otros modelos generativos. Además, la compañía ha señalado que este método podría tener efectos negativos, como estigmatizar a los no hablantes nativos de inglés que usan la IA como herramienta de escritura.
De modo que aunque la tecnología de marca de agua de OpenAI es precisa en situaciones controladas, se puede eludir fácilmente con modificaciones más profundas, lo que hace que su uso sea poco confiable para detectar textos generados por IA en la práctica.