El modelo de IA Gemini de Google parece estar listo para superar al modelo de IA de OpenAI al disponer de mucha más potencia de cálculo.

Gemini es un modelo de IA multimodal de nueva generación en el que están trabajando los investigadores de DeepMind, la división de IA de Google, y que se espera que vea la luz a finales de 2023. Es el esfuerzo más serio del gigante de las búsquedas para competir con el GPT-4 de OpenAI. Google Gemini multiplica por 5 la GPT-4, la GPU-Poors

Gemini pretende desafiar el dominio de ChatGPT en el espacio de la IA generativa. Este movimiento subraya el compromiso de Google con la innovación en IA y la competencia en el mercado de la IA generativa, en rápido crecimiento y con un valor previsto de 1,3 billones de dólares para 2032.

¿Qué es Google Gemini?

Gemini es un conjunto de grandes modelos lingüísticos (LLM) que combinan GPT-4 con técnicas de entrenamiento tomadas de AlphaGo, como el aprendizaje por refuerzo y la búsqueda, que tiene el potencial de desbancar a ChatGPT como la solución de IA generativa más dominante del planeta.

La noticia llega pocos meses después de que Google combinara sus laboratorios de IA Brain y DeepMind para crear un nuevo equipo de investigación llamado Google DeepMind, y pocos meses después del lanzamiento de Bard y su LLM PaLM 2 de nueva generación.

Teniendo en cuenta que los investigadores prevén que el mercado de la IA generativa alcanzará un valor de 1,3 billones de dólares en 2032, está claro que Google va a invertir en este campo para mantener su posición de líder en el desarrollo de la IA.

A primera vista, la capacidad de Gemini para generar texto e imágenes le da una seria ventaja sobre GPT4 en cuanto a la gama de contenidos que puede producir. El artículo, escrito por Dylan Patel y Daniel Nishball, de la empresa de investigación SemiAnalysis, sostiene que el modelo de IA Gemini de Google parece estar listo para superar al modelo de IA de OpenAI al disponer de mucha más potencia de cálculo.

Gran parte del análisis, que según Patel se basa en datos obtenidos de un proveedor de Google, se reduce a que Google tiene acceso a infinitamente más chips de primer nivel y a que su modelo supera a GPT-4 en una medida de rendimiento relacionada con los cálculos informáticos conocida como FLOPS.

Este modelo requería más de 14 veces los FLOPS de GPT-2 para entrenarse, pero esto era en gran medida irrelevante porque sólo unos meses más tarde OpenAI lanzó GPT-3, que tenía >65x más parámetros y >60x el recuento de tokens, >4.000x más FLOPS. La diferencia de rendimiento entre estos dos modelos era enorme.