Un profesor contratado por OpenAI para probar GPT-4 afirma que existe un «riesgo significativo» de que las personas lo utilicen para llevar a cabo «química peligrosa»

Bhaimiya, Sawdah. «A Professor Hired by OpenAI to Test GPT-4 Says There’s “significant Risk” of People Using It to Do “Dangerous Chemistry”». Business Insider. Accedido 3 de noviembre de 2023. https://www.businessinsider.com/open-ai-gpt4-high-risk-used-for-dangerous-chemistry-expert-2023-4.

Un profesor contratado por OpenAI para probar GPT-4, creadora del chatbot ChatGPT, ha advertido sobre el «riesgo significativo» de que las personas lo utilicen para realizar «química peligrosa». Andrew White, profesor asociado de ingeniería química en la Universidad de Rochester en el estado de Nueva York, formó parte de un grupo de 50 expertos contratados para probar la nueva tecnología durante un período de seis meses en 2022.

Este grupo de expertos, conocido como el «equipo rojo«, planteó preguntas peligrosas y provocadoras al modelo de inteligencia artificial para evaluar hasta dónde podía llegar. White reveló que utilizó GPT-4 para sugerir un compuesto que pudiera funcionar como un arma química, utilizando «complementos» que permitían al chatbot acceder a información de documentos científicos y directorios de fabricantes químicos. Según se informa, el chatbot pudo encontrar información sobre cómo fabricar el compuesto.

White comentó que, si bien esta tecnología puede acelerar y mejorar la química, también existe el riesgo de que las personas realicen actividades químicas peligrosas.

Los hallazgos del equipo de 50 expertos se presentaron en un documento técnico sobre el nuevo modelo, que también mostró que la IA podría ayudar a los usuarios a redactar discursos de odio y a encontrar armas no registradas en línea. Estos hallazgos contribuyeron a que OpenAI abordara estos problemas antes de lanzar GPT-4 para uso público.

GPT-4 se lanzó en marzo y se describe como la tecnología de IA más avanzada de OpenAI, capaz de aprobar un examen de abogacía o alcanzar una calificación de 5 en algunos exámenes de nivel avanzado (AP).

El CEO de Twitter, Elon Musk, y cientos de expertos en IA, académicos e investigadores firmaron una carta abierta el mes pasado en la que pedían una pausa de seis meses en el desarrollo de herramientas de IA más poderosas que GPT-4. La carta argumentaba que los sistemas de IA poderosos solo deberían desarrollarse «una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables».