La IA destapa la caja de Pandora: ChatGPT genera artículos científicos falsos y convincentes

Májovský, Martin, Martin Černý, Matěj Kasal, Martin Komarc, y David Netuka. «Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened». Journal of Medical Internet Research 25, n.o 1 (31 de mayo de 2023): e46924. https://doi.org/10.2196/46924.


Un estudio publicado en el Journal of Medical Internet Research por Martin Májovský y sus colegas revela que los modelos de lenguaje de inteligencia artificial (IA), como ChatGPT (Chat Generative Pre-trained Transformer), pueden generar artículos científicos fraudulentos que parecen notablemente auténticos. Este descubrimiento plantea preocupaciones críticas sobre la integridad de la investigación científica y la confiabilidad de los documentos publicados.

Investigadores de la Universidad Charles, República Checa, se propusieron investigar las capacidades de los modelos actuales de lenguaje de IA para crear artículos médicos fraudulentos de alta calidad. El equipo utilizó el popular chatbot de IA, ChatGPT, que se ejecuta en el modelo de lenguaje GPT-3 desarrollado por OpenAI, para generar un artículo científico completamente ficticio en el campo de la neurocirugía. Las preguntas y sugerencias se refinaron a medida que ChatGPT generaba respuestas, lo que permitió mejorar iterativamente la calidad del resultado.

Los resultados de este estudio de concepto fueron sorprendentes: el modelo de lenguaje de IA produjo con éxito un artículo fraudulento que se asemejaba estrechamente a un documento científico genuino en cuanto al uso de palabras, estructura de las oraciones y composición general. El artículo incluía secciones estándar como resumen, introducción, métodos, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo tomó solo una hora sin necesidad de ningún entrenamiento especial por parte del usuario humano.

Si bien el artículo generado por IA parecía sofisticado e impecable, al examinarlo más detenidamente, los lectores expertos pudieron identificar inexactitudes y errores semánticos, especialmente en las referencias; algunas referencias eran incorrectas, mientras que otras no existían. Esto subraya la necesidad de una mayor vigilancia y métodos de detección mejorados para combatir el posible mal uso de la IA en la investigación científica.

Los hallazgos de este estudio destacan la importancia de desarrollar pautas éticas y mejores prácticas para el uso de modelos de lenguaje de IA en la escritura e investigación científica genuina. Modelos como ChatGPT tienen el potencial de mejorar la eficiencia y precisión en la creación de documentos, el análisis de resultados y la edición de lenguaje. Al utilizar estas herramientas con cuidado y responsabilidad, los investigadores pueden aprovechar su poder al tiempo que minimizan el riesgo de mal uso o abuso.

En un comentario sobre el artículo del Dr. Májovský, el Dr. Pedro Ballester habla sobre la necesidad de priorizar la reproducibilidad y visibilidad de las obras científicas, ya que estas sirven como salvaguardias esenciales contra la proliferación de investigaciones fraudulentas.

A medida que la IA continúa avanzando, es crucial que la comunidad científica verifique la precisión y autenticidad del contenido generado por estas herramientas e implemente mecanismos para detectar y prevenir el fraude y la mala conducta. Si bien ambos artículos coinciden en que se necesita una mejor manera de verificar la precisión y autenticidad del contenido generado por IA, cómo se puede lograr esto es menos claro. «Deberíamos al menos declarar en qué medida la IA ha ayudado en la escritura y análisis de un artículo», sugiere el Dr. Ballester como punto de partida. Otra posible solución propuesta por Májovský y sus colegas es hacer obligatoria la presentación de datos para respaldar los resultados de la investigación, lo cual podría aumentar la transparencia y la verificabilidad de los estudios.