Archivo de la etiqueta: Consumo

El verdadero desafío para escalar la inteligencia artificial a gran escala es la provisión masiva y eficiente de energía

Spencer, M. (2026, 10 de febrero). Why scaling AI is underestimated: Orbital datacenters & lunar energy capture. AI Supremacy. https://www.ai-supremacy.com/p/why-scaling-ai-is-underestimated-orbital-datacenters-lunar-energy-capture

Se plantea que el verdadero desafío para escalar la inteligencia artificial a gran escala no es únicamente mejorar chips o redes de datos tradicionales, sino la provisión masiva y eficiente de energía, algo que las infraestructuras terrestres actuales no pueden sostener.

El autor argumenta que el consumo energético de los centros de datos dedicados a IA está creciendo exponencialmente y que las soluciones existentes —como nuevas plantas de energía, redes de transmisión o renovables terrestres— enfrentan límites físicos, económicos y regulatorios. En este contexto, se presenta la idea de trasladar infraestructura de IA al espacio, aprovechando la energía solar continua y las condiciones únicas de los entornos orbitales y lunares para superar los cuellos de botella que la Tierra ya no puede resolver eficientemente.

Una pieza central del argumento es la previsión de que, en las próximas décadas, los centros de datos orbitales y las instalaciones lunares podrían actuar como fuentes de energía y cómputo de IA a una escala varias veces superior a la posible en tierra. El autor visualiza constelaciones de satélites que funcionan como centros de datos alimentados por paneles solares eficientemente expuestos al Sol sin las pérdidas asociadas a la atmósfera terrestre o ciclos día/noche. Asimismo, menciona conceptos como grandes anillos solares alrededor de la Luna (por ejemplo, la idea de Luna Ring de Shimizu Corporation) que podrían captar energía solar continua y transmitirla a la Tierra o a instalaciones espaciales, reduciendo la dependencia de la infraestructura energética terrestre y minimizando los cuellos de botella actuales en la generación y distribución de energía para cómputo intensivo de IA.

El texto también explora la geopolítica y economía de este posible futuro, sugiriendo que empresas espaciales y tecnológicas como SpaceX, Blue Origin y grandes proveedores de infraestructura de nube podrían competir para construir estas capacidades orbitales. Se alude a entrevistas con líderes como Elon Musk, destacando su visión de generar enormes cantidades de energía solar en el espacio para alimentar IA y posicionar a entidades como SpaceX como proveedores de cómputo a escala planetaria. Además, el autor señala que estos desarrollos no solo son técnicamente ambiciosos, sino también impulsados por la necesidad práctica de sortear limitaciones regulatorias —como largos permisos y cuellos de botella de conexión a redes eléctricas terrestres— que hacen inviable la expansión masiva de centros de datos en tierra.

Los centros de datos de la IA absorberán el 70 % de los chips de memoria y dispararán los precios de la tecnología

Tom’s Hardware. “Data centers will consume 70 percent of memory chips made in 2026 – supply shortfall will cause the chip shortage to spread to other segments.” Tom’s Hardware, 19 de enero de 2026. https://www.wsj.com/tech/ai/memory-ram-shortage-2026-f55324b0

Los centros de datos dedicados a la inteligencia artificial están proyectados para consumir hasta el 70 % de todos los chips de memoria producidos a nivel mundial en ese año

Un informe reciente de Tom’s Hardware pone de relieve un fenómeno crucial en la industria de los semiconductores para 2026: los centros de datos dedicados a la inteligencia artificial están proyectados para consumir hasta el 70 % de todos los chips de memoria producidos a nivel mundial en ese año. Este fenómeno no es un pico temporal, sino el resultado de una demanda explosiva de memoria de alto rendimiento (como HBM y DDR5) por parte de grandes infraestructuras de IA en computación en la nube y procesamiento de datos. Como consecuencia, la capacidad de producción global se está reorientando de forma permanente hacia estos segmentos avanzados, dejando a otros sectores tradicionales con un acceso cada vez más limitado a estos componentes esenciales.

La reasignación de la oferta tiene implicaciones profundas: la disminución de disponibilidad y el aumento de precios de chips de memoria no afectan solo a las PC de consumo, sino que se extienden a segmentos como automóviles, televisores, electrodomésticos inteligentes y dispositivos móviles. Tal como reporta Tom’s Hardware, muchos fabricantes han reducido o incluso descontinuado la producción de chips de memoria “legacy” (más comunes en productos tradicionales), porque priorizan la producción de memoria especializada para centros de datos. Esta escasez de suministro hace que la memoria —que antes representaba una fracción menor del coste de los dispositivos— pueda llegar a constituir hasta el 30 % del costo total de un smartphone, lo que presiona los precios al alza para los consumidores finales.

El impacto en las cadenas de suministro y en las previsiones de mercado también se está haciendo tangible en las expectativas de venta de dispositivos electrónicos. Consultoras como IDC ya han ajustado sus proyecciones para 2026, estimando una caída del 9 % en las ventas de PC y del 5 % en las de teléfonos inteligentes, atribuida en gran parte al encarecimiento de las memorias y a las dificultades para asegurar el abastecimiento de chips. Este tipo de repercusiones recuerda a las interrupciones globales de la era de la pandemia de COVID-19, aunque en este caso la causa principal es una reconfiguración estructural de la demanda tecnológica, no un fallo temporal en las cadenas de producción.

Además, esta concentración de la demanda por parte de los centros de datos ha llevado a una dinámica de mercado inédita: fabricantes como Samsung, SK Hynix y Micron están priorizando ventas y contratos a largo plazo con grandes compradores de infraestructura de IA, lo que deja menos espacio para las necesidades de los fabricantes de dispositivos de consumo y otros sectores. El resultado es una escasez más duradera de memoria, con advertencias de que estas tensiones podrían prolongarse hasta 2028 o más, incluso cuando nuevas fábricas y ampliaciones de capacidad lleguen a completarse. En conjunto, estos factores apuntan a una transformación profunda en la industria de semiconductores, en la cual la demanda vinculada a la inteligencia artificial redefine la disponibilidad global de componentes críticos y presiona a toda la economía digital.

Inteligencia artificial y huella ambiental

Crownhart, Casey. “In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, 21 ago. 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy/

Un análisis basado en un informe técnico de Google que desglosa, por primera vez con detalle, la huella ambiental de las consultas al sistema de inteligencia artificial Gemini.

Google reveló que una consulta de texto típica —evaluada por la mediana de uso, es decir, aquella que se sitúa en el centro de la distribución de todos los prompts— consume aproximadamente 0,24 vatios-hora (Wh) de electricidad, genera cerca de 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y requiere alrededor de 0,26 mililitros de agua, lo que equivale a unas cinco gotas. Para ponerlo en perspectiva cotidiana, la compañía equiparó esa cifra energética con la que emplea encender una televisión durante menos de nueve segundos. Estas métricas son parte de una metodología “full stack” desarrollada por Google, que intenta medir no solo el consumo directo de los procesadores de IA, sino también el uso de energía en sistemas auxiliares, memoria, infraestructura en reposo y refrigeración.

Google además destacó que la eficiencia de Gemini ha mejorado de forma dramática en el último año: desde mayo de 2024 hasta mayo de 2025, el consumo energético por consulta se redujo 33 veces y la huella de carbono se redujo 44 veces, mientras que, paralelamente, la calidad de las respuestas del modelo fue incrementándose. Estos avances se atribuyen a mejoras tanto de software —optimización de los modelos y algoritmos— como de hardware e infraestructura en los centros de datos de Google. La divulgación de estos datos se presenta como un paso hacia una mayor transparencia en el sector tecnológico, dada la creciente preocupación global por el impacto ambiental de los grandes modelos de IA y el uso masivo de energía de los centros de datos que los soportan.

Sin embargo, este enfoque también ha generado debate entre expertos ambientales. Algunos especialistas señalan que las cifras oficiales de Google, aunque impresionantes, pueden quedar cortas si no consideran factores indirectos más amplios, como la energía consumida por la generación eléctrica o el impacto del entrenamiento de los modelos a gran escala, que históricamente ha requerido volúmenes de energía y recursos muchísimo mayores que la inferencia diaria. Además, la extrapolación del consumo por prompt individual a escala global —con miles de millones de interacciones diarias— subraya que incluso pequeños valores por consulta pueden traducirse en una carga energética significativa cuando se multiplican por volumen de uso. Estas discusiones ponen de relieve la complejidad de medir con precisión el impacto ecológico de las tecnologías de IA y la necesidad de métricas estandarizadas en toda la industria.

La IA llegará a consumir hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

CNET. 2025. “AI Is the ‘Biggest Driver’ of Electricity Use in North America, a New Energy Report Shows.CNET, octubre 2025. https://www.cnet.com/tech/services-and-software/ai-is-the-biggest-driver-of-electricity-use-in-north-america-a-new-energy-report-shows/

La demanda de electricidad en Norteamérica está siendo impulsada de forma creciente por la expansión de centros de datos dedicados a la inteligencia artificial (IA). Según un nuevo informe citado por CNET, se proyecta que estos centros, por sí solos, puedan llegar a representar hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

Este aumento masivo del consumo no es casual: los algoritmos de IA requieren enormes recursos computacionales y un suministro constante de electricidad para alimentar GPUs de alto rendimiento, mantener servidores y sistemas de refrigeración, así como garantizar disponibilidad continua. Esa necesidad energética coloca a la IA como la “principal fuerza motriz” detrás del crecimiento de la demanda eléctrica en la región.

Esos centros de datos, que albergan miles de ordenadores para gestionar todo, desde el entrenamiento de modelos de IA hasta la respuesta a tus solicitudes de ChatGPT, Gemini y Sora, consumirán no solo megavatios de electricidad, sino también millones de galones de agua y miles de acres de tierra.

El impacto ya empieza a notarse en los sistemas energéticos: en Estados Unidos, los centros de datos representan una parte sustancial del crecimiento previsto en demanda eléctrica de aquí a 2030. Si continúa esta tendencia, la presión sobre la red eléctrica, la necesidad de más generación, infraestructura y inversiones energéticas será mayor. Eso plantea retos de sostenibilidad, pues buena parte de esta electricidad todavía proviene de fuentes fósiles, lo que implica un aumento de emisiones y de la huella ambiental ligada al “boom” de la IA.

En julio, la administración Trump publicó lo que denomina el Plan de Acción de IA de Estados Unidos, en el que insta a acelerar la construcción de centros de datos, dejando en segundo plano las cuestiones normativas. «El sistema de permisos medioambientales y otras normativas de Estados Unidos hacen que sea casi imposible construir esta infraestructura en el país con la rapidez necesaria».

Pero a pesar del rápido avance de la IA y del retroceso de la administración Trump en materia de regulaciones medioambientales en Estados Unidos, la empresa prevé que las emisiones globales se reducirán un 63 % para 2060. El informe estima que lo que está sucediendo en Estados Unidos tendrá un mayor efecto en el país, con un retraso de unos cinco años en la reducción de emisiones, y no tanto en los objetivos mundiales de energía limpia.

En definitiva —y según lo que denuncia el informe citado por CNET—, la expansión de la inteligencia artificial no es neutra en términos energéticos: su demanda creciente transforma la estructura del consumo eléctrico en Norteamérica, lo que pone en evidencia la necesidad de replantear políticas energéticas, promover el uso de energías renovables y diseñar una gobernanza de la IA que tenga en cuenta su impacto ambiental.

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

Google revela el costo ambiental de Gemini: menos energía por consulta, pero más emisiones globales

Crownhart, Casey. 2025.In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, August 21, 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy

Google ha publicado un informe técnico detallado sobre la huella ambiental de su modelo de IA Gemini, destacando métricas clave como energía, emisiones de carbono y consumo de agua por cada consulta de texto, algo poco común entre empresas del sector

Según este estudio, la consulta mediana de texto en Gemini utiliza aproximadamente 0,24 vatios-hora, una cifra equivalente a ver la televisión durante menos de nueve segundos. Además, la emisión de carbono por consulta es de 0,03 gramos de CO₂ equivalente, y el consumo de agua asciende a 0,26 ml, es decir, alrededor de cinco gotas.

Estos avances reflejan una mejora notable en eficiencia: en el último año, el consumo energético por consulta cayó 33 veces, mientras que la huella de carbono disminuyó 44 veces, todo esto mientras mejoraba la calidad de las respuestas de Gemini

Google atribuye estos logros a una estrategia integral que abarca desde el diseño de hardware y algoritmos más eficientes hasta mejoras en modelos y centro de datos alimentados por energías limpias .

No obstante, expertos han planteado críticas sobre el enfoque de Google, señalando que sus estimaciones podrían ser engañosas, ya que omiten impactos indirectos como el uso de agua adicional y una contabilización optimista de las emisiones de carbono (basada en el mercado).

Aun así, a pesar de la aparente eficiencia por consulta, el consumo total de energía y agua sigue siendo relevante, especialmente considerando la escala global del uso de IA

Finalmente, aunque la empresa ha avanzado en eficiencia y transparencia, su huella global de emisiones ha aumentado —un 51 % desde 2019— principalmente por la creciente demanda energética derivada del uso de IA y el crecimiento de sus centros de datos

La demanda de electricidad de los centros de datos por el auge de la inteligencia artificial (IA) se duplicará para 2030.

Melo, María Florencia. “La IA dispara el consumo energético global.Statista, 11 de abril de 2025. https://es.statista.com/grafico/34292/generacion-de-electricidad-para-abastecer-los-centros-de-datos-por-fuente-de-energia/.

Un informe reciente de la Agencia Internacional de la Energía (IEA) advierte que la demanda de electricidad de los centros de datos —especialmente por el auge de la inteligencia artificial (IA)— se duplicará para 2030. Se espera que casi la mitad de esta energía provenga de fuentes renovables como la solar, eólica e hidráulica, aunque el gas natural, el carbón y la energía nuclear seguirán teniendo un papel importante.

La revolución tecnológica liderada por la inteligencia artificial (IA) está generando transformaciones profundas en el ámbito energético. Según un informe publicado por la Agencia Internacional de la Energía (IEA) en abril de 2025, la demanda eléctrica de los centros de datos —infraestructuras esenciales para el funcionamiento de la IA, la computación en la nube, el almacenamiento de datos y los servicios digitales— se duplicará con creces en los próximos cinco años.

El aumento de la demanda no será uniforme a nivel global. En países como Estados Unidos, Japón o Malasia, se prevé que los centros de datos representen entre una quinta parte y más de la mitad del incremento total en el consumo eléctrico.

El gráfico de Statista muestra que a nivel global el consumo de electricidad de los centros de datos aumentará notablemente entre 2025 y 2035. China seguirá dependiendo del carbón más que Estados Unidos, que recurrirá más al gas natural y reducirá su uso de carbón. Ambos países aumentarán considerablemente su generación a partir de fuentes solares y eólicas.

El aumento en el uso de energía trae consigo una consecuencia directa: las emisiones de carbono. Actualmente, los centros de datos emiten unas 180 millones de toneladas de CO₂ indirectamente, lo que representa un 0,5 % de todas las emisiones globales relacionadas con la combustión. Esta cifra podría aumentar si no se adoptan medidas correctoras.

No obstante, la IEA subraya que la IA no es solo parte del problema, sino también parte de la solución. Si se aplica correctamente, puede contribuir a optimizar redes eléctricas, reducir el consumo en industrias clave y acelerar el desarrollo de tecnologías limpias como baterías de alta capacidad o sistemas solares más eficientes.

El consumo de energía de la inteligencia artificial se dispara junto con la huella climática

Metz, Cade. “Artificial Intelligence’s Energy Use Is Skyrocketing — Along with Its Climate Footprint.” MIT Technology Review, May 20, 2025. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/.

La inteligencia artificial está generando una demanda energética descomunal. A medida que los modelos se vuelven más grandes y se utilizan con mayor frecuencia, los centros de datos necesitan más electricidad que nunca.

En 2022, consumieron alrededor de 460 teravatios-hora (TWh), pero se estima que esa cifra superará los 1.000 TWh para 2026, lo cual equivale al consumo eléctrico anual de un país como Japón. En la actualidad, la IA representa ya hasta el 20 % del uso energético de los centros de datos, y se prevé que alcance el 50 % antes de que termine el año.

Además de la electricidad, el enfriamiento de los centros de datos exige enormes cantidades de agua. Muchos de ellos utilizan sistemas de refrigeración por evaporación que requieren cientos de miles de litros diarios. Se calcula que el uso de agua asociado a la IA podría ascender a entre 4.200 y 6.600 millones de metros cúbicos anuales para 2027, más que el consumo total del Reino Unido. En 2022, solo Google, Meta y Microsoft usaron en conjunto más de 2.200 millones de metros cúbicos de agua, a menudo en zonas propensas a la sequía.

El impacto climático también es preocupante. Entrenar grandes modelos de IA, como GPT-3, puede emitir tanto CO₂ como varios cientos de vuelos de larga distancia. Aunque las empresas tecnológicas han prometido usar fuentes renovables o incluso energía nuclear, las emisiones totales siguen aumentando. Por ejemplo, las emisiones de Google aumentaron un 48 % entre 2019 y 2023 debido en gran parte al crecimiento de la IA y de sus centros de datos.

Si bien se están logrando mejoras en la eficiencia de los chips y en la gestión de los centros de datos, existe el riesgo de un “efecto rebote”: si hacer cada tarea es más barato y rápido, se hacen muchas más, lo que termina aumentando el consumo global. Por otro lado, la IA también podría contribuir a combatir el cambio climático si se aplica a la optimización de redes eléctricas, energías renovables o captura de carbono. Sin embargo, estos beneficios podrían quedar neutralizados por los altos costes energéticos de su implementación.

Finalmente, tanto los gobiernos como las organizaciones internacionales están comenzando a exigir más transparencia sobre el uso de energía y agua por parte de los modelos de IA. Empresas como Microsoft están invirtiendo en energías alternativas, incluyendo reactores nucleares para alimentar sus centros de datos. Pero el artículo advierte que, sin regulación y prácticas sostenibles, el impacto ambiental de la IA podría eclipsar sus promesas tecnológicas.

¿Es sostenible el consumo energético de la inteligencia artificial?

Rajkumar, Radhika, y Sabrina Ortiz. «How Much Energy Does AI Really Use? The Answer Is Surprising — and a Little ComplicatedZDNet. Última modificación marzo 27, 2024. https://www.zdnet.com/article/how-much-energy-does-ai-really-use-the-answer-is-surprising-and-a-little-complicated/

La inteligencia artificial (IA) se ha consolidado como una tecnología esencial en múltiples sectores, pero su desarrollo y operación requieren un consumo energético considerable que plantea importantes retos ambientales. El gasto de energía asociado a la IA no es uniforme, sino que varía según las etapas de su ciclo de vida, principalmente el entrenamiento de modelos y la fase de inferencia o uso.

Durante el entrenamiento, que consiste en “enseñar” a los modelos de IA a partir de grandes cantidades de datos, se utiliza una enorme potencia computacional. Esta etapa es la más intensiva en consumo energético, ya que involucra grandes centros de procesamiento que pueden consumir decenas de megavatios durante días o semanas. Entrenar un solo modelo avanzado puede requerir tanta energía como la que consumen varias viviendas durante un año. Esto refleja la escala y complejidad del esfuerzo necesario para desarrollar IA de última generación.

Por otro lado, la fase de inferencia, en la que el modelo responde a consultas o realiza tareas específicas, consume mucha menos energía por operación individual. Sin embargo, dado el incremento exponencial en la demanda de estas herramientas, el consumo acumulado también es considerable. Además, la infraestructura de soporte, como los centros de datos que albergan los equipos y los sistemas de refrigeración, representa un porcentaje importante del gasto energético total.

Las proyecciones a futuro señalan que el consumo energético de la IA seguirá aumentando drásticamente. Para 2030, se estima que los centros de datos dedicados a IA podrían representar hasta el 17% del consumo eléctrico total de Estados Unidos, una cifra que subraya la necesidad urgente de soluciones para hacer más sostenible esta tecnología. Esta demanda creciente está impulsando la construcción y expansión de centros de datos, que requieren cada vez más fuentes de energía.

Como admitió recientemente en un artículo de opinión la doctora Sasha Luccioni, responsable de IA y clima en la plataforma de desarrollo Hugging Face, todavía no sabemos realmente cuánta energía consume la IA, porque muy pocas empresas publican datos sobre su uso. Sin embargo, varios estudios indican que el consumo de energía va en aumento, impulsado por la creciente demanda de IA. Un análisis de 2024 Berkeley Lab descubrió que el consumo de electricidad ha crecido exponencialmente a la par que la IA en los últimos años.

Los servidores acelerados por GPU -hardware utilizado específicamente para IA- se multiplicaron en 2017; un año después, los centros de datos representaban casi el 2% del consumo anual total de electricidad en Estados Unidos, y esa cifra crecía anualmente un 7%. En 2023, esa tasa de crecimiento se había disparado hasta el 18%, y se prevé que alcance el 27% en 2028. Aunque no podamos empalmar cuánta energía de los centros de datos se gasta en IA, la tendencia entre más consumo y expansión de la IA es clara. Boston Consulting Group estima que los centros de datos representarán el 7,5% de todo el consumo eléctrico de Estados Unidos en 2030, o el equivalente a 40 millones de hogares estadounidenses.

En respuesta a estos desafíos, la industria tecnológica está invirtiendo en mejorar la eficiencia energética mediante el desarrollo de hardware más eficiente y la optimización de los modelos de IA para reducir su necesidad computacional. Paralelamente, se promueve el uso de fuentes de energía renovables, como la solar y la eólica, e incluso la energía nuclear, para alimentar estas instalaciones con un menor impacto ambiental. Donald Trump anunció el Proyecto Stargate, una iniciativa de 500.000 millones de dólares apoyada por empresas como OpenAI, Softbank y Oracle para construir «colosales» centros de datos de 500.000 metros cuadrados. Estas empresas son conocidas como hiperescaladores, un grupo pequeño pero dominante de corporaciones como Microsoft, Google, Meta y AWS que están construyendo la mayor parte de la infraestructura.

Finalmente, el consumo energético de la IA no es solo un asunto técnico, sino también ético y social. Es imprescindible balancear la huella de carbono con los beneficios sociales y económicos que ofrece la inteligencia artificial. Asimismo, es fundamental fomentar la transparencia y la responsabilidad en el uso y desarrollo de estas tecnologías para asegurar que sean sostenibles y beneficiosas para la sociedad en su conjunto.

Datos clave sobre el consumo energético de la IA

  • Crecimiento acelerado:
    • En 2018, los centros de datos representaban casi el 2% del consumo eléctrico anual de EE. UU.
    • Para 2023, ese crecimiento se aceleró al 18% anual
    • Se proyecta que alcance hasta un 27% anual para 2028
  • Infraestructura intensiva:
    • La IA requiere chips potentes, múltiples GPUs y centros de datos masivos
    • Entrenar modelos de IA consume mucho más que tareas informáticas tradicionales
  • Impacto de una sola consulta:
    • Una simple pregunta a un chatbot puede consumir tanta energía como una bombilla LED encendida durante 45 minutos
  • El “cloud” no es etéreo:
    • Lo que llamamos “la nube” son en realidad centros físicos de datos que consumen grandes cantidades de electricidad para almacenar y procesar datos
  • Tendencia a la expansión:
    • A medida que la IA se vuelve más accesible y barata, la demanda de estos centros de datos crece exponencialmente

El consumo energético de los centros de datos a consecuencia del uso de IA se duplicará en cinco años

Zeff, Maxwell. «An Answer to AI’s Energy Addiction? More AI, Says the IEAThe Next Web, April 10, 2025. https://thenextweb.com/news/answer-to-ai-energy-consumption-is-more-ai-says-iea.

La Agencia Internacional de la Energía (AIE) ha publicado su primer gran informe sobre el impacto del auge de la inteligencia artificial en el consumo energético global, con resultados preocupantes y algo contradictorios.

Según el informe, el consumo energético de los centros de datos, especialmente por aplicaciones de IA, se duplicará en cinco años, alcanzando el 3% del uso energético mundial. La IA será responsable de más de la mitad de este crecimiento. Algunos centros consumen ya tanta electricidad como 100.000 hogares, y en el futuro podrían multiplicar por 20 ese número.

Aunque se espera que para 2030 los centros usen un 50% de energía renovable, el resto provendrá de carbón, gas natural y energía nuclear, lo que plantea serios retos climáticos. No obstante, la AIE ve una oportunidad en la IA: puede optimizar redes eléctricas, mejorar la predicción del clima, detectar fugas o descubrir nuevos materiales sostenibles. Pero advierte que estos beneficios serán marginales si no se crean condiciones adecuadas desde los gobiernos.

El informe ha generado controversia. Críticos como Alex de Vries creen que la AIE subestima el consumo energético de la IA, que podría comprometer los objetivos climáticos. Otros, como Claude Turmes, ministro de Energía de Luxemburgo, acusan a la AIE de presentar una visión demasiado optimista y de favorecer intereses políticos y corporativos.

Algunas soluciones sostenibles ya existen, como la refrigeración por inmersión o el reaprovechamiento del calor de los centros de datos, pero deben escalarse rápidamente. Y, sobre todo, será clave usar la capacidad informática con más criterio.