El CEO de OpenAI, Sam Altman, empresa creadora de ChatGPT, pide una mayor regulación de la inteligencia artificial

«Si la inteligencia artificial sale mal, puede salir muy mal… para prever que realmente no podamos hacer daño en el mundo“

Sam Altman, ‘padre’ de ChatGPT

«OpenAI CEO Sam Altman Agrees AI Must Be Regulated», Time. 16 de mayo de 2023. https://time.com/6280372/sam-altman-chatgpt-regulate-ai/.

El CEO de OpenAI, Sam Altman, hizo un llamamiento a los miembros del Congreso bajo juramento: Regular la inteligencia artificial. Altman, cuya empresa está en la vanguardia extrema de la tecnología de Inteligencia Artificial generativa con su herramienta ChatGPT, testificó ante el Comité Judicial del Senado por primera vez en una audiencia celebrada el martes. Y aunque dijo que en última instancia es optimista respecto a que la innovación beneficiará a las personas a gran escala, Altman se hizo eco de su afirmación anterior de que los legisladores deberían crear parámetros para que los creadores de IA eviten causar «daños significativos al mundo.» «Creemos que puede ser el momento de la imprenta», dijo Altman. «Tenemos que trabajar juntos para que así sea».

Junto a Altman testificaron ante la comisión otros dos expertos en IA, el catedrático de Psicología y Ciencias Neuronales de la Universidad de Nueva York Gary Marcus y la Directora de Privacidad y Confianza de IBM Christina Montgomery. Los tres testigos apoyaron la gobernanza de la IA tanto a nivel federal como mundial, con planteamientos ligeramente distintos.

«Hemos construido máquinas que son como elefantes en una cacharrería: Potentes, temerarias y difíciles de controlar», dijo Marcus. Para hacer frente a esto, sugirió el modelo de una agencia de supervisión como la Administración de Alimentos y Medicamentos, de modo que los creadores tuvieran que demostrar la seguridad de su IA y demostrar por qué los beneficios superan a los posibles daños.

Sin embargo, los senadores que dirigieron las preguntas se mostraron más escépticos sobre la rápida evolución de la industria de la IA y compararon su impacto potencial no con la imprenta, sino con otras innovaciones, sobre todo la bomba atómica.

La sesión duró casi tres horas y las preguntas del senador abordaron una amplia gama de preocupaciones sobre la IA, desde cuestiones de derechos de autor hasta aplicaciones militares. Tanto Altman como los senadores expresaron sus temores sobre cómo la IA podría «salir bastante mal».

Cuando se le preguntó cuál era su peor temor sobre la IA, Altman fue franco sobre los riesgos de su trabajo.

«Mi peor temor es que nosotros -el campo, la tecnología, la industria- causemos un daño significativo al mundo. Creo que eso puede ocurrir de muchas maneras», dijo Altman. No dio más detalles, pero las advertencias de los críticos van desde la difusión de información errónea y tendenciosa hasta la destrucción total de la vida biológica. «Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser claros al respecto», continuó Altman. «Queremos trabajar con el gobierno para evitar que eso ocurra».

La preocupación por la IA llevó a cientos de grandes nombres de la tecnología, entre ellos Elon Musk, a firmar en marzo una carta abierta en la que instaban a los laboratorios de IA a pausar durante seis meses el entrenamiento de sistemas superpotentes debido a los riesgos que suponen para «la sociedad y la humanidad». Y a principios de este mes, Geoffry Hinton, al que se ha llamado el «padrino» de la IA, renunció a su puesto en Google, diciendo que se arrepentía de su trabajo y advirtiendo de los peligros de la tecnología.

Altman expuso un plan general de tres puntos sobre cómo podría regular el Congreso a los creadores de IA.

  • En primer lugar, apoyó la creación de una agencia federal que pueda conceder licencias para crear modelos de IA por encima de un determinado umbral de capacidades, y que también pueda revocar esas licencias si los modelos no cumplen las directrices de seguridad establecidas por el gobierno. La idea no era nueva para los legisladores. Al menos cuatro senadores, tanto demócratas como republicanos, abordaron o apoyaron la idea de crear una nueva agencia de supervisión durante sus preguntas.
  • En segundo lugar, Altman dijo que el gobierno debería crear normas de seguridad para los modelos de IA de alta capacidad (como prohibir que un modelo se autorreproduzca) y crear pruebas de funcionalidad específicas que los modelos tengan que superar, como verificar la capacidad del modelo para producir información precisa o garantizar que no genera contenidos peligrosos.
  • Y en tercer lugar, instó a los legisladores a exigir auditorías independientes de expertos no afiliados a los creadores o al gobierno para garantizar que las herramientas de IA funcionen dentro de las directrices legislativas.

Los legisladores europeos están más avanzados en la regulación de las aplicaciones de IA, y la UE está decidiendo si clasifica la tecnología de IA de propósito general (en la que se basan herramientas como ChatGPT) como de «alto riesgo». Dado que esto sometería a la tecnología al nivel más estricto de regulación, muchas grandes empresas tecnológicas como Google y Microsoft -el mayor inversor de OpenAI- han presionado en contra de esta clasificación, argumentando que ahogaría la innovación.