Melissa Heikkilä. «Unpacking the Hype around OpenAI’s Rumored New Q* Model». MIT Technology Review Accedido 28 de noviembre de 2023.
Ver original
Desde los dramáticos eventos de la semana pasada en OpenAI, el rumor se ha desatado sobre por qué el director científico de la compañía, Ilya Sutskever, y su junta decidieron destituir al CEO Sam Altman (solo para recontratarlo unos días después y reemplazar a las únicas dos mujeres en su junta con hombres blancos. ¡Con clase!).
Aunque aún no conocemos todos los detalles, ha habido informes de que los investigadores de OpenAI hicieron un «avance» en IA que alarmó a los miembros del personal. Reuters y The Information informaron que los investigadores habían ideado una nueva forma de crear sistemas de IA potentes y habían creado un nuevo modelo llamado Q* (pronunciado Q estrella) capaz de realizar operaciones matemáticas de nivel escolar.
Según personas que hablaron con Reuters, algunos en OpenAI creen que esto podría ser un hito en la búsqueda de la compañía para construir una inteligencia artificial general, un concepto muy promocionado de un sistema de IA más inteligente que los humanos. La compañía declinó hacer comentarios sobre Q*.
Las redes sociales están llenas de especulaciones y exageraciones, así que llamé a algunos expertos para saber qué importante sería realmente cualquier avance en matemáticas e IA.
Durante años, los investigadores han intentado que los modelos de IA resuelvan problemas matemáticos. Modelos de lenguaje como ChatGPT y GPT-4 pueden hacer algo de matemáticas, pero no muy bien ni de manera confiable. Actualmente, no tenemos los algoritmos ni las arquitecturas adecuadas para resolver problemas matemáticos de manera confiable con IA, según Wenda Li, profesora de IA en la Universidad de Edimburgo. El aprendizaje profundo y los transformers (un tipo de red neural), que es lo que usan los modelos de lenguaje, son excelentes para reconocer patrones, pero eso solo no es suficiente, agrega Li.
Las matemáticas son un referente para el razonamiento, dice Li. Una máquina que pueda razonar sobre matemáticas podría, en teoría, aprender a realizar otras tareas que se basen en información existente, como escribir código informático o sacar conclusiones de un artículo de noticias. Las matemáticas son un desafío particularmente difícil porque requieren que los modelos de IA tengan la capacidad de razonar y comprender realmente con qué están tratando.
Un sistema de IA generativo que pueda hacer matemáticas de manera confiable necesitaría tener un conocimiento sólido de definiciones concretas de conceptos particulares que pueden volverse muy abstractos. Muchos problemas matemáticos también requieren algún nivel de planificación a lo largo de múltiples pasos, dice Katie Collins, una investigadora de doctorado en la Universidad de Cambridge especializada en matemáticas e IA. De hecho, Yann LeCun, científico jefe de IA de Meta, publicó en X e LinkedIn el fin de semana que cree que Q* probablemente sea «un intento de OpenAI de planificación».
Las personas preocupadas por si la inteligencia artificial representa un riesgo existencial para los humanos, una de las preocupaciones fundacionales de OpenAI, temen que tales capacidades puedan llevar a la aparición de IA no controlada. Preocupaciones sobre la seguridad podrían surgir si se permite que dichos sistemas de IA establezcan sus propios objetivos y comiencen a interactuar con un mundo real, ya sea físico o digital, de alguna manera, dice Collins.
Pero aunque la capacidad matemática podría acercarnos un paso más a sistemas de IA más potentes, resolver este tipo de problemas matemáticos no señala el nacimiento de una superinteligencia.
«No creo que nos lleve de inmediato a la AGI o situaciones aterradoras», dice Collins. También es muy importante subrayar qué tipo de problemas matemáticos está resolviendo la IA, agrega.
«Resolver problemas de matemáticas de la escuela primaria es muy, muy diferente de empujar los límites de las matemáticas al nivel de algo que puede hacer un medallista Fields», dice Collins, refiriéndose a un prestigioso premio en matemáticas.
La investigación en aprendizaje automático se ha centrado en resolver problemas de la escuela primaria, pero los sistemas de IA de vanguardia aún no han superado completamente este desafío. Algunos modelos de IA fallan en problemas de matemáticas muy simples, pero luego pueden destacar en problemas realmente difíciles, dice Collins. OpenAI, por ejemplo, ha desarrollado herramientas dedicadas que pueden resolver problemas desafiantes planteados en competiciones para los mejores estudiantes de matemáticas en la escuela secundaria, pero estos sistemas superan a los humanos solo ocasionalmente.
Sin embargo, construir un sistema de IA que pueda resolver ecuaciones matemáticas es un desarrollo interesante, si eso es realmente lo que Q* puede hacer. Un entendimiento más profundo de las matemáticas podría abrir aplicaciones para ayudar a la investigación científica e ingeniería, por ejemplo. La capacidad de generar respuestas matemáticas podría ayudarnos a desarrollar una tutoría personalizada mejor, o ayudar a los matemáticos a hacer álgebra más rápido o resolver problemas más complicados.
Esto tampoco es la primera vez que un nuevo modelo ha generado hype sobre la AGI. Justo el año pasado, los expertos tecnológicos decían las mismas cosas sobre Gato de Google DeepMind, un modelo de IA «generalista» que puede jugar videojuegos de Atari, describir imágenes, chatear y apilar bloques con un brazo robot real. En ese momento, algunos investigadores de IA afirmaban que DeepMind estaba «a punto» de lograr la AGI debido a la capacidad de Gato para hacer tantas cosas diferentes bastante bien. La misma máquina de hype, diferente laboratorio de IA.
Y aunque puede ser una excelente estrategia de relaciones públicas, estos ciclos de hype hacen más daño que bien para todo el campo, distrayendo a las personas de los problemas reales y tangibles en torno a la IA. Los rumores sobre un nuevo y potente modelo de IA también podrían ser un gran autogol para el sector tecnológico que evita la regulación. La UE, por ejemplo, está a punto de finalizar su amplia Ley de IA. Una de las mayores disputas actualmente entre los legisladores es si dar a las empresas tecnológicas más poder para regular modelos de IA de vanguardia por sí mismas.
La junta de OpenAI fue diseñada como el interruptor de apagado interno y el mecanismo de gobierno de la compañía para evitar el lanzamiento de tecnologías dañinas. El drama de la junta de la semana pasada ha demostrado que la línea de fondo siempre prevalecerá en estas empresas. También dificultará argumentar por qué deberían confiarse a sí mismas la autorregulación. Legisladores, tomen nota.