El alto consumo energético de la IA y su impacto ambiental

Peters, Kyle Wiggers. «ChatGPT May Not Be as Power-Hungry as Once AssumedTechCrunch, 11 de febrero de 2025. https://techcrunch.com/2025/02/11/chatgpt-may-not-be-as-power-hungry-as-once-assumed/

Aunque el consumo energético de ChatGPT es menor de lo que se pensaba, el crecimiento y sofisticación de la inteligencia artificial siguen planteando desafíos en términos de sostenibilidad y demanda energética.

Un estudio reciente de Epoch AI ha analizado el consumo energético de ChatGPT y ha desmentido la creencia de que esta inteligencia artificial es excesivamente demandante en términos de electricidad. Un informe de Goldman Sachs reveló que una consulta en ChatGPT consume casi 10 veces más electricidad que una búsqueda en Google. Según el último informe de Epoch, una consulta típica en ChatGPT consume alrededor de 0.3 vatios-hora, una cifra significativamente menor que la estimación previa de 3 vatios-hora por consulta, que equivalía a diez veces el consumo de una búsqueda en Google.

Una estimación más precisa

El informe de Epoch AI señala que la cifra de 3 vatios-hora estaba basada en estudios anteriores que asumían que OpenAI utilizaba chips más antiguos y menos eficientes. En cambio, el nuevo análisis tomó como referencia GPT-4o, el modelo por defecto más reciente de ChatGPT, encontrando que su consumo energético es menor de lo que se creía. Según Joshua You, analista de datos de Epoch, el consumo energético de ChatGPT es insignificante en comparación con el de electrodomésticos comunes, la calefacción o refrigeración del hogar, e incluso el uso de un automóvil.

El impacto ambiental de la IA

El uso energético de la inteligencia artificial, en general, sigue siendo un tema de debate a medida que las empresas del sector expanden sus infraestructuras. Recientemente, más de 100 organizaciones firmaron una carta abierta pidiendo a la industria de la IA y a los reguladores que garanticen que los nuevos centros de datos no agoten los recursos naturales ni aumenten la dependencia de fuentes de energía no renovables.

Aunque la cifra de 0.3 vatios-hora es una mejora respecto a estimaciones previas, el informe reconoce que el consumo energético de la IA seguirá aumentando en el futuro. Modelos de IA más avanzados requerirán más energía para entrenarse y ejecutarse, y el creciente uso de estas tecnologías también contribuirá a una mayor demanda de infraestructura computacional.

El futuro: modelos de razonamiento más exigentes

OpenAI y otras empresas del sector están explorando modelos de razonamiento, que son capaces de realizar tareas más complejas pero requieren más tiempo de procesamiento y, por ende, mayor consumo energético. A diferencia de modelos como GPT-4o, que responden casi instantáneamente, los modelos de razonamiento pueden «pensar» durante varios segundos o incluso minutos antes de generar una respuesta, lo que incrementa significativamente su demanda energética.

Según el informe, en los próximos años, la expansión de centros de datos para soportar estos modelos podría llegar a consumir casi toda la capacidad eléctrica de California en 2022 (68 GW) y, para 2030, el entrenamiento de un solo modelo avanzado podría requerir la energía equivalente a la de ocho reactores nucleares (8 GW).

Alternativas para reducir el consumo

Para mitigar el impacto ambiental, OpenAI ha comenzado a desarrollar modelos más eficientes, como o3-mini, que consumen menos energía. Sin embargo, estos avances podrían no ser suficientes para compensar el aumento en el uso global de la IA.

El informe sugiere que quienes estén preocupados por su huella energética al usar IA pueden optar por modelos más pequeños y eficientes, como GPT-4o-mini, y limitar el uso de funciones que requieran un procesamiento intensivo, como la generación de imágenes o la carga de archivos largos.