Archivo de la etiqueta: ChatGPT

ChatGPT y una nueva realidad académica: los trabajos de investigación escritos con Inteligencia Artificial y la ética en la publicación

Lund, Brady D., Ting Wang, Nishith Reddy Mannuru, Bing Nie, Somipam Shimray, y Ziang Wang. «ChatGPT and a New Academic Reality: Artificial Intelligence-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing». Journal of the Association for Information Science and Technology n/a, n.o n/a. Accedido 20 de marzo de 2023. https://doi.org/10.1002/asi.24750.

Texto completo

En este artículo se analiza ChatGPT de OpenAI, un transformador generativo preentrenado que utiliza el procesamiento del lenguaje natural para satisfacer las peticiones de texto de los usuarios (es decir, un «chatbot»). Se analizan la historia y los principios en los que se basan ChatGPT y otros modelos similares. A continuación, se analiza el impacto potencial de esta tecnología en el mundo académico y en la investigación y publicación académicas. ChatGPT se considera un modelo potencial para la preparación automatizada de ensayos y otros tipos de manuscritos académicos. Los posibles problemas éticos que podrían surgir con la aparición de grandes modelos lingüísticos como GPT-3, la tecnología subyacente detrás de ChatGPT y su uso por académicos e investigadores, se discuten y se sitúan en el contexto de avances más amplios en inteligencia artificial, aprendizaje automático y procesamiento del lenguaje natural para la investigación y la publicación académica.

La tecnología detrás del chatbot viral de OpenAI está a punto de replicarse ampliamente, desatando una oleada de bots.

Knight, Will. «Get Ready to Meet the ChatGPT Clones». Wired. Accedido 15 de marzo de 2023. https://www.wired.com/story/get-ready-to-meet-the-chatgpt-clones/.

Puede que CHATGPT sea el algoritmo más famoso y potencialmente valioso del momento, pero las técnicas de inteligencia artificial empleadas por OpenAI para dotarlo de inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código abierto pronto pondrán a disposición de cualquiera bots del estilo de ChatGPT para que los copie y reutilice, lo que hará cada vez más complicado controlar todos los efectos adversos de esta tecnología IA.

Stability AI, una startup que ya ha desarrollado y puesto en código abierto una avanzada tecnología de generación de imágenes, está trabajando en un competidor abierto de ChatGPT. «Estamos a unos meses del lanzamiento», afirma Emad Mostaque, CEO de Stability. Otras empresas de la competencia, como Anthropic, Cohere y AI21, trabajan en chatbots propios similares al de OpenAI.

La inminente avalancha de sofisticados chatbots hará que la tecnología sea más abundante y visible para los consumidores, así como más accesible para las empresas, desarrolladores e investigadores de IA. Eso podría acelerar la carrera por ganar dinero con herramientas de IA que generan imágenes, código y texto.

Empresas consolidadas como Microsoft y Slack están incorporando ChatGPT a sus productos, y muchas startups se apresuran a construir sobre una nueva API ChatGPT para desarrolladores. Pero la mayor disponibilidad de la tecnología también puede complicar los esfuerzos para predecir y mitigar los riesgos que conlleva.

La seductora capacidad de ChatGPT para ofrecer respuestas convincentes a una amplia gama de preguntas también hace que a veces invente hechos o adopte personajes problemáticos. Puede ayudar en tareas maliciosas como la producción de código malicioso o campañas de spam y desinformación.

Por ello, algunos investigadores han pedido que se frene el despliegue de sistemas similares a ChatGPT mientras se evalúan los riesgos. «No hay necesidad de detener la investigación, pero sin duda podríamos regular el despliegue generalizado», afirma Gary Marcus, un experto en IA que ha tratado de llamar la atención sobre riesgos como la desinformación generada por la IA. «Podríamos, por ejemplo, pedir estudios sobre 100.000 personas antes de lanzar estas tecnologías a 100 millones de personas».

Una mayor disponibilidad de sistemas del estilo de ChatGPT y la publicación de versiones de código abierto dificultarían la limitación de la investigación o una implantación más amplia. Y la competencia entre empresas grandes y pequeñas para adoptar o igualar ChatGPT sugiere pocas ganas de frenar, sino que más bien parece incentivar la proliferación de la tecnología.

Cambridge University Press publica los principios de política de ética en la investigación de la IA, que prohíbe tratarla como «autora» de artículos y libros académicos.

Cambridge principles for generative AI in research publishing, Cambridge University Press, 2023

Las normas se recogen en la primera política ética de la IA de Cambridge University Press y se aplican a artículos de investigación, libros y otros trabajos académicos.

Incluyen la prohibición de que la IA sea tratada como «autora» de los artículos académicos y libros que publicamos. Esta medida aporta claridad a los académicos en medio de la preocupación por el uso erróneo o engañoso de potentes modelos lingüísticos de gran tamaño como ChatGPT en la investigación, junto con el entusiasmo por su potencial.

Mandy Hill, Directora General de Publicaciones Académicas de Cambridge, ha declarado: «La IA generativa puede abrir nuevas vías de investigación y experimentación. Los investigadores nos han pedido que les orientemos sobre su uso».

Creemos que los autores académicos, los revisores y los editores deben tener libertad para utilizar las tecnologías emergentes como consideren oportuno dentro de unas directrices adecuadas, al igual que hacen con otras herramientas de investigación».

«Al igual que nuestra comunidad académica, abordamos esta nueva tecnología con un espíritu de compromiso crítico. Al dar prioridad a la transparencia, la responsabilidad, la precisión y la originalidad, vemos tanto continuidad como cambio en el uso de la IA para la investigación.

Los principios de Cambridge para la IA generativa en la publicación de investigaciones incluyen que:

  • La IA debe declararse y explicarse claramente en publicaciones como los trabajos de investigación, al igual que hacen los académicos con otros programas informáticos, herramientas y metodologías.
  • La IA no cumple los requisitos de Cambridge sobre autoría, dada la necesidad de rendir cuentas. Las herramientas de IA y LLM no pueden figurar como autor en ningún trabajo académico publicado por Cambridge.
  • Cualquier uso de la IA no debe infringir la política de plagio de Cambridge. Los trabajos académicos deben ser propios del autor y no presentar ideas, datos, palabras u otro material de otros sin una citación adecuada y una referenciación transparente.
  • Los autores son responsables de la exactitud, integridad y originalidad de sus trabajos de investigación, incluido cualquier uso de la IA.