
Feldstein, Michael. «Who Is Winning the Generative AI Race? Nobody (Yet).» e-Literate, 31 de agosto de 2023. Ver completo: https://eliterate.us/who-is-winning-the-generative-ai-race-nobody-yet/.
OpenAI y ChatGPT establecieron muchas suposiciones y expectativas sobre la inteligencia artificial generativa, comenzando con la idea de que estos modelos deben ser enormes y costosos. Lo que, a su vez, significa que solo unas pocas grandes empresas tecnológicas pueden permitirse jugar.
En este momento, hay cinco gigantes ampliamente conocidos. (Bueno, en realidad, seis, pero llegaremos al contendiente sorpresa en un momento). ChatGPT de OpenAI y Claude de Anthropic son creaciones de empresas emergentes. OpenAI inició la locura de la inteligencia artificial generativa mostrando al mundo cuánto puede lograr cualquiera que pueda escribir en inglés con ChatGPT. Anthropic ha apostado por la «IA ética» con más protecciones contra resultados dañinos y algunas características diferenciadoras que son importantes para ciertas aplicaciones, pero de las que no voy a hablar aquí.
Luego están los tres grandes gigantes de hospedaje de SaaS (Software como Servicio). Microsoft ha estado muy ligado a OpenAI, de la cual posee una participación del 49%. Google, que ha sido un líder pionero en tecnologías de inteligencia artificial pero ha tenido problemas con sus plataformas y productos (como de costumbre), hasta hace poco se centraba en promocionar varios de sus propios modelos. Amazon, que se ha quedado atrás, tiene su propio modelo de inteligencia artificial generativa llamado Titan que casi nadie ha visto aún. Pero Amazon parece estar entrando en la carrera con una estrategia que enfatiza el hospedaje de un ecosistema de plataformas, incluyendo Anthropic y otras.
Hablemos un poco más sobre ese tema del ecosistema. Hace un tiempo, se filtró un documento interno de Google titulado «No tenemos un foso, y OpenAI tampoco». Este argumentaba que la innovación estaba ocurriendo tan rápidamente en la inteligencia artificial generativa de código abierto que los tesoros y tecnologías patentadas de estas grandes empresas no les darían ventaja sobre la rápida innovación de una gran comunidad de código abierto.
En primer lugar, resulta que las grandes empresas con mucho dinero y poder informático decidieron depender de estrategias que requerían mucho dinero y poder informático. No dedicaron mucho tiempo a pensar en cómo hacer que sus modelos fueran más pequeños y eficientes. Los equipos de código abierto con presupuestos mucho más limitados demostraron rápidamente que podían lograr grandes avances en eficiencia algorítmica. La barrera de entrada para construir un mejor modelo de lenguaje generativo, el dinero, está disminuyendo rápidamente.
Como complemento de esta primera estrategia, algunos equipos de código abierto trabajaron especialmente duro para mejorar la calidad de los datos, lo que requiere más trabajo humano duro y menos fuerza bruta informática. Resulta que el viejo adagio es cierto: lo que entra, sale. Incluso sistemas más pequeños entrenados en datos más cuidadosamente curados tienen menos probabilidades de alucinar y más probabilidades de ofrecer respuestas de alta calidad.
Y en tercer lugar, resulta que no siempre necesitamos modelos gigantes de propósito general. Escribir código de software es un buen ejemplo de una tarea de inteligencia artificial generativa especializada que se puede realizar de manera efectiva con un modelo mucho más pequeño y económico utilizando las técnicas descritas anteriormente.
El memorando interno de Google concluyó argumentando que «OpenAI no importa», mientras que la cooperación con el código abierto es vital.