
Sanjana B. (2025, junio). AI’s energy dilemma: Can GPUs keep up with the rising demand? BusinessLine
En un contexto donde el desarrollo de modelos de inteligencia artificial (IA) crece a un ritmo vertiginoso, el artículo de BusinessLine analiza el desafío energético que esto representa, centrándose en el uso intensivo de GPUs. Las unidades de procesamiento gráfico, que han sido forzadas a evolucionar para dar soporte a estos modelos complejos, operan normalmente entre 300 y 700 W cada una, generando enormes cantidades de calor y exigiendo mayores recursos para su refrigeración .
Se señala que los centros de datos dedicados al entrenamiento de IA ya demandan niveles de energía comparables a países pequeños, con la posibilidad de superar pronto a naciones como Japón si no se implementan mejoras sustanciales. Esta situación ha llevado a que responsables técnicos, incluidos altos directivos como el CEO de OpenAI, advirtieran que las GPUs están alcanzando temperaturas críticas, lo que incrementa el riesgo de fallos y eleva los costes operacionales
Frente a este panorama, el texto propone varias líneas de respuesta: por un lado, mejorar la eficiencia técnica mediante optimizaciones de software, como la poda de modelos o la cuantización, y el desarrollo de nuevos algoritmos y chips más eficientes; por otro, introducir mejoras en los sistemas de refrigeración, desde soluciones líquidas en centros muy exigidos hasta la adopción de IA directamente en dispositivos (on‑device AI), lo que reduce considerablemente la energía consumida por la transmisión de datos al ‘cloud’ .
A su vez, expertos advierten sobre los costes ambientales adicionales: la fabricación de GPUs involucra extracción de materiales escasos y procesos contaminantes, mientras que la energía —aún dependiente en gran parte de combustibles fósiles— aumenta la huella de carbono de estos centros de datos . Innovaciones como hardware neuromórfico podrían ofrecer eficiencia energética a gran escala, aunque aún no están maduras para el entorno comercial
Por último, el artículo resalta la necesidad de abordar el problema desde una perspectiva sistémica. No basta con aumentar el número de GPUs, pues sin infraestructuras eléctricas robustas y energía limpia la expansión de la IA será insostenible. Países como Singapur o Irlanda ya han limitado la construcción de nuevos centros de datos, y se espera que las regulaciones evolucionen para incluir métricas de eficiencia y emisiones.