Archivo de la etiqueta: Consumo

La IA llegará a consumir hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

CNET. 2025. “AI Is the ‘Biggest Driver’ of Electricity Use in North America, a New Energy Report Shows.CNET, octubre 2025. https://www.cnet.com/tech/services-and-software/ai-is-the-biggest-driver-of-electricity-use-in-north-america-a-new-energy-report-shows/

La demanda de electricidad en Norteamérica está siendo impulsada de forma creciente por la expansión de centros de datos dedicados a la inteligencia artificial (IA). Según un nuevo informe citado por CNET, se proyecta que estos centros, por sí solos, puedan llegar a representar hasta el 12 % del consumo eléctrico total de Norteamérica hacia el 2040.

Este aumento masivo del consumo no es casual: los algoritmos de IA requieren enormes recursos computacionales y un suministro constante de electricidad para alimentar GPUs de alto rendimiento, mantener servidores y sistemas de refrigeración, así como garantizar disponibilidad continua. Esa necesidad energética coloca a la IA como la “principal fuerza motriz” detrás del crecimiento de la demanda eléctrica en la región.

Esos centros de datos, que albergan miles de ordenadores para gestionar todo, desde el entrenamiento de modelos de IA hasta la respuesta a tus solicitudes de ChatGPT, Gemini y Sora, consumirán no solo megavatios de electricidad, sino también millones de galones de agua y miles de acres de tierra.

El impacto ya empieza a notarse en los sistemas energéticos: en Estados Unidos, los centros de datos representan una parte sustancial del crecimiento previsto en demanda eléctrica de aquí a 2030. Si continúa esta tendencia, la presión sobre la red eléctrica, la necesidad de más generación, infraestructura y inversiones energéticas será mayor. Eso plantea retos de sostenibilidad, pues buena parte de esta electricidad todavía proviene de fuentes fósiles, lo que implica un aumento de emisiones y de la huella ambiental ligada al “boom” de la IA.

En julio, la administración Trump publicó lo que denomina el Plan de Acción de IA de Estados Unidos, en el que insta a acelerar la construcción de centros de datos, dejando en segundo plano las cuestiones normativas. «El sistema de permisos medioambientales y otras normativas de Estados Unidos hacen que sea casi imposible construir esta infraestructura en el país con la rapidez necesaria».

Pero a pesar del rápido avance de la IA y del retroceso de la administración Trump en materia de regulaciones medioambientales en Estados Unidos, la empresa prevé que las emisiones globales se reducirán un 63 % para 2060. El informe estima que lo que está sucediendo en Estados Unidos tendrá un mayor efecto en el país, con un retraso de unos cinco años en la reducción de emisiones, y no tanto en los objetivos mundiales de energía limpia.

En definitiva —y según lo que denuncia el informe citado por CNET—, la expansión de la inteligencia artificial no es neutra en términos energéticos: su demanda creciente transforma la estructura del consumo eléctrico en Norteamérica, lo que pone en evidencia la necesidad de replantear políticas energéticas, promover el uso de energías renovables y diseñar una gobernanza de la IA que tenga en cuenta su impacto ambiental.

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

Google revela el costo ambiental de Gemini: menos energía por consulta, pero más emisiones globales

Crownhart, Casey. 2025.In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, August 21, 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy

Google ha publicado un informe técnico detallado sobre la huella ambiental de su modelo de IA Gemini, destacando métricas clave como energía, emisiones de carbono y consumo de agua por cada consulta de texto, algo poco común entre empresas del sector

Según este estudio, la consulta mediana de texto en Gemini utiliza aproximadamente 0,24 vatios-hora, una cifra equivalente a ver la televisión durante menos de nueve segundos. Además, la emisión de carbono por consulta es de 0,03 gramos de CO₂ equivalente, y el consumo de agua asciende a 0,26 ml, es decir, alrededor de cinco gotas.

Estos avances reflejan una mejora notable en eficiencia: en el último año, el consumo energético por consulta cayó 33 veces, mientras que la huella de carbono disminuyó 44 veces, todo esto mientras mejoraba la calidad de las respuestas de Gemini

Google atribuye estos logros a una estrategia integral que abarca desde el diseño de hardware y algoritmos más eficientes hasta mejoras en modelos y centro de datos alimentados por energías limpias .

No obstante, expertos han planteado críticas sobre el enfoque de Google, señalando que sus estimaciones podrían ser engañosas, ya que omiten impactos indirectos como el uso de agua adicional y una contabilización optimista de las emisiones de carbono (basada en el mercado).

Aun así, a pesar de la aparente eficiencia por consulta, el consumo total de energía y agua sigue siendo relevante, especialmente considerando la escala global del uso de IA

Finalmente, aunque la empresa ha avanzado en eficiencia y transparencia, su huella global de emisiones ha aumentado —un 51 % desde 2019— principalmente por la creciente demanda energética derivada del uso de IA y el crecimiento de sus centros de datos

La demanda de electricidad de los centros de datos por el auge de la inteligencia artificial (IA) se duplicará para 2030.

Melo, María Florencia. “La IA dispara el consumo energético global.Statista, 11 de abril de 2025. https://es.statista.com/grafico/34292/generacion-de-electricidad-para-abastecer-los-centros-de-datos-por-fuente-de-energia/.

Un informe reciente de la Agencia Internacional de la Energía (IEA) advierte que la demanda de electricidad de los centros de datos —especialmente por el auge de la inteligencia artificial (IA)— se duplicará para 2030. Se espera que casi la mitad de esta energía provenga de fuentes renovables como la solar, eólica e hidráulica, aunque el gas natural, el carbón y la energía nuclear seguirán teniendo un papel importante.

La revolución tecnológica liderada por la inteligencia artificial (IA) está generando transformaciones profundas en el ámbito energético. Según un informe publicado por la Agencia Internacional de la Energía (IEA) en abril de 2025, la demanda eléctrica de los centros de datos —infraestructuras esenciales para el funcionamiento de la IA, la computación en la nube, el almacenamiento de datos y los servicios digitales— se duplicará con creces en los próximos cinco años.

El aumento de la demanda no será uniforme a nivel global. En países como Estados Unidos, Japón o Malasia, se prevé que los centros de datos representen entre una quinta parte y más de la mitad del incremento total en el consumo eléctrico.

El gráfico de Statista muestra que a nivel global el consumo de electricidad de los centros de datos aumentará notablemente entre 2025 y 2035. China seguirá dependiendo del carbón más que Estados Unidos, que recurrirá más al gas natural y reducirá su uso de carbón. Ambos países aumentarán considerablemente su generación a partir de fuentes solares y eólicas.

El aumento en el uso de energía trae consigo una consecuencia directa: las emisiones de carbono. Actualmente, los centros de datos emiten unas 180 millones de toneladas de CO₂ indirectamente, lo que representa un 0,5 % de todas las emisiones globales relacionadas con la combustión. Esta cifra podría aumentar si no se adoptan medidas correctoras.

No obstante, la IEA subraya que la IA no es solo parte del problema, sino también parte de la solución. Si se aplica correctamente, puede contribuir a optimizar redes eléctricas, reducir el consumo en industrias clave y acelerar el desarrollo de tecnologías limpias como baterías de alta capacidad o sistemas solares más eficientes.

El consumo de energía de la inteligencia artificial se dispara junto con la huella climática

Metz, Cade. “Artificial Intelligence’s Energy Use Is Skyrocketing — Along with Its Climate Footprint.” MIT Technology Review, May 20, 2025. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/.

La inteligencia artificial está generando una demanda energética descomunal. A medida que los modelos se vuelven más grandes y se utilizan con mayor frecuencia, los centros de datos necesitan más electricidad que nunca.

En 2022, consumieron alrededor de 460 teravatios-hora (TWh), pero se estima que esa cifra superará los 1.000 TWh para 2026, lo cual equivale al consumo eléctrico anual de un país como Japón. En la actualidad, la IA representa ya hasta el 20 % del uso energético de los centros de datos, y se prevé que alcance el 50 % antes de que termine el año.

Además de la electricidad, el enfriamiento de los centros de datos exige enormes cantidades de agua. Muchos de ellos utilizan sistemas de refrigeración por evaporación que requieren cientos de miles de litros diarios. Se calcula que el uso de agua asociado a la IA podría ascender a entre 4.200 y 6.600 millones de metros cúbicos anuales para 2027, más que el consumo total del Reino Unido. En 2022, solo Google, Meta y Microsoft usaron en conjunto más de 2.200 millones de metros cúbicos de agua, a menudo en zonas propensas a la sequía.

El impacto climático también es preocupante. Entrenar grandes modelos de IA, como GPT-3, puede emitir tanto CO₂ como varios cientos de vuelos de larga distancia. Aunque las empresas tecnológicas han prometido usar fuentes renovables o incluso energía nuclear, las emisiones totales siguen aumentando. Por ejemplo, las emisiones de Google aumentaron un 48 % entre 2019 y 2023 debido en gran parte al crecimiento de la IA y de sus centros de datos.

Si bien se están logrando mejoras en la eficiencia de los chips y en la gestión de los centros de datos, existe el riesgo de un “efecto rebote”: si hacer cada tarea es más barato y rápido, se hacen muchas más, lo que termina aumentando el consumo global. Por otro lado, la IA también podría contribuir a combatir el cambio climático si se aplica a la optimización de redes eléctricas, energías renovables o captura de carbono. Sin embargo, estos beneficios podrían quedar neutralizados por los altos costes energéticos de su implementación.

Finalmente, tanto los gobiernos como las organizaciones internacionales están comenzando a exigir más transparencia sobre el uso de energía y agua por parte de los modelos de IA. Empresas como Microsoft están invirtiendo en energías alternativas, incluyendo reactores nucleares para alimentar sus centros de datos. Pero el artículo advierte que, sin regulación y prácticas sostenibles, el impacto ambiental de la IA podría eclipsar sus promesas tecnológicas.

¿Es sostenible el consumo energético de la inteligencia artificial?

Rajkumar, Radhika, y Sabrina Ortiz. «How Much Energy Does AI Really Use? The Answer Is Surprising — and a Little ComplicatedZDNet. Última modificación marzo 27, 2024. https://www.zdnet.com/article/how-much-energy-does-ai-really-use-the-answer-is-surprising-and-a-little-complicated/

La inteligencia artificial (IA) se ha consolidado como una tecnología esencial en múltiples sectores, pero su desarrollo y operación requieren un consumo energético considerable que plantea importantes retos ambientales. El gasto de energía asociado a la IA no es uniforme, sino que varía según las etapas de su ciclo de vida, principalmente el entrenamiento de modelos y la fase de inferencia o uso.

Durante el entrenamiento, que consiste en “enseñar” a los modelos de IA a partir de grandes cantidades de datos, se utiliza una enorme potencia computacional. Esta etapa es la más intensiva en consumo energético, ya que involucra grandes centros de procesamiento que pueden consumir decenas de megavatios durante días o semanas. Entrenar un solo modelo avanzado puede requerir tanta energía como la que consumen varias viviendas durante un año. Esto refleja la escala y complejidad del esfuerzo necesario para desarrollar IA de última generación.

Por otro lado, la fase de inferencia, en la que el modelo responde a consultas o realiza tareas específicas, consume mucha menos energía por operación individual. Sin embargo, dado el incremento exponencial en la demanda de estas herramientas, el consumo acumulado también es considerable. Además, la infraestructura de soporte, como los centros de datos que albergan los equipos y los sistemas de refrigeración, representa un porcentaje importante del gasto energético total.

Las proyecciones a futuro señalan que el consumo energético de la IA seguirá aumentando drásticamente. Para 2030, se estima que los centros de datos dedicados a IA podrían representar hasta el 17% del consumo eléctrico total de Estados Unidos, una cifra que subraya la necesidad urgente de soluciones para hacer más sostenible esta tecnología. Esta demanda creciente está impulsando la construcción y expansión de centros de datos, que requieren cada vez más fuentes de energía.

Como admitió recientemente en un artículo de opinión la doctora Sasha Luccioni, responsable de IA y clima en la plataforma de desarrollo Hugging Face, todavía no sabemos realmente cuánta energía consume la IA, porque muy pocas empresas publican datos sobre su uso. Sin embargo, varios estudios indican que el consumo de energía va en aumento, impulsado por la creciente demanda de IA. Un análisis de 2024 Berkeley Lab descubrió que el consumo de electricidad ha crecido exponencialmente a la par que la IA en los últimos años.

Los servidores acelerados por GPU -hardware utilizado específicamente para IA- se multiplicaron en 2017; un año después, los centros de datos representaban casi el 2% del consumo anual total de electricidad en Estados Unidos, y esa cifra crecía anualmente un 7%. En 2023, esa tasa de crecimiento se había disparado hasta el 18%, y se prevé que alcance el 27% en 2028. Aunque no podamos empalmar cuánta energía de los centros de datos se gasta en IA, la tendencia entre más consumo y expansión de la IA es clara. Boston Consulting Group estima que los centros de datos representarán el 7,5% de todo el consumo eléctrico de Estados Unidos en 2030, o el equivalente a 40 millones de hogares estadounidenses.

En respuesta a estos desafíos, la industria tecnológica está invirtiendo en mejorar la eficiencia energética mediante el desarrollo de hardware más eficiente y la optimización de los modelos de IA para reducir su necesidad computacional. Paralelamente, se promueve el uso de fuentes de energía renovables, como la solar y la eólica, e incluso la energía nuclear, para alimentar estas instalaciones con un menor impacto ambiental. Donald Trump anunció el Proyecto Stargate, una iniciativa de 500.000 millones de dólares apoyada por empresas como OpenAI, Softbank y Oracle para construir «colosales» centros de datos de 500.000 metros cuadrados. Estas empresas son conocidas como hiperescaladores, un grupo pequeño pero dominante de corporaciones como Microsoft, Google, Meta y AWS que están construyendo la mayor parte de la infraestructura.

Finalmente, el consumo energético de la IA no es solo un asunto técnico, sino también ético y social. Es imprescindible balancear la huella de carbono con los beneficios sociales y económicos que ofrece la inteligencia artificial. Asimismo, es fundamental fomentar la transparencia y la responsabilidad en el uso y desarrollo de estas tecnologías para asegurar que sean sostenibles y beneficiosas para la sociedad en su conjunto.

Datos clave sobre el consumo energético de la IA

  • Crecimiento acelerado:
    • En 2018, los centros de datos representaban casi el 2% del consumo eléctrico anual de EE. UU.
    • Para 2023, ese crecimiento se aceleró al 18% anual
    • Se proyecta que alcance hasta un 27% anual para 2028
  • Infraestructura intensiva:
    • La IA requiere chips potentes, múltiples GPUs y centros de datos masivos
    • Entrenar modelos de IA consume mucho más que tareas informáticas tradicionales
  • Impacto de una sola consulta:
    • Una simple pregunta a un chatbot puede consumir tanta energía como una bombilla LED encendida durante 45 minutos
  • El “cloud” no es etéreo:
    • Lo que llamamos “la nube” son en realidad centros físicos de datos que consumen grandes cantidades de electricidad para almacenar y procesar datos
  • Tendencia a la expansión:
    • A medida que la IA se vuelve más accesible y barata, la demanda de estos centros de datos crece exponencialmente

El consumo energético de los centros de datos a consecuencia del uso de IA se duplicará en cinco años

Zeff, Maxwell. «An Answer to AI’s Energy Addiction? More AI, Says the IEAThe Next Web, April 10, 2025. https://thenextweb.com/news/answer-to-ai-energy-consumption-is-more-ai-says-iea.

La Agencia Internacional de la Energía (AIE) ha publicado su primer gran informe sobre el impacto del auge de la inteligencia artificial en el consumo energético global, con resultados preocupantes y algo contradictorios.

Según el informe, el consumo energético de los centros de datos, especialmente por aplicaciones de IA, se duplicará en cinco años, alcanzando el 3% del uso energético mundial. La IA será responsable de más de la mitad de este crecimiento. Algunos centros consumen ya tanta electricidad como 100.000 hogares, y en el futuro podrían multiplicar por 20 ese número.

Aunque se espera que para 2030 los centros usen un 50% de energía renovable, el resto provendrá de carbón, gas natural y energía nuclear, lo que plantea serios retos climáticos. No obstante, la AIE ve una oportunidad en la IA: puede optimizar redes eléctricas, mejorar la predicción del clima, detectar fugas o descubrir nuevos materiales sostenibles. Pero advierte que estos beneficios serán marginales si no se crean condiciones adecuadas desde los gobiernos.

El informe ha generado controversia. Críticos como Alex de Vries creen que la AIE subestima el consumo energético de la IA, que podría comprometer los objetivos climáticos. Otros, como Claude Turmes, ministro de Energía de Luxemburgo, acusan a la AIE de presentar una visión demasiado optimista y de favorecer intereses políticos y corporativos.

Algunas soluciones sostenibles ya existen, como la refrigeración por inmersión o el reaprovechamiento del calor de los centros de datos, pero deben escalarse rápidamente. Y, sobre todo, será clave usar la capacidad informática con más criterio.

Reducir la inteligencia artificial: muchos modelos de inteligencia artificial son caros y consumen mucha energía

«A tinyML chip: Cutting AI down to sizeScience, 20 de febrero de 2025. https://www.science.org/content/article/what-s-tinyml-global-south-s-alternative-power-hungry-pricey-ai.

Muchos modelos de inteligencia artificial son caros y consumen mucha energía. Los investigadores del Sur Global están adoptando cada vez más alternativas de bajo coste y bajo consumo. TinyML es una subdisciplina del aprendizaje automático (Machine Learning, ML) que se enfoca en ejecutar modelos de aprendizaje automático directamente en dispositivos de bajo consumo y recursos limitados, como microcontroladores, sensores y otros dispositivos integrados.

El artículo de Science titulado «What’s TinyML? Global South’s Alternative to Power-Hungry, Pricey AI» pone de manifiesto cómo la tecnología TinyML está emergiendo como una alternativa innovadora y accesible a las soluciones de inteligencia artificial (IA) tradicionales, que suelen depender de infraestructuras costosas y un alto consumo de energía. Este avance está ganando especial relevancia en el Sur Global, es decir, en regiones del mundo que enfrentan desafíos relacionados con recursos limitados, infraestructura insuficiente y conectividad inestable.

TinyML es una tecnología que permite ejecutar modelos de aprendizaje automático (machine learning) en dispositivos de muy bajo consumo energético, como sensores, microcontroladores o dispositivos portátiles, sin necesidad de conectarlos a servidores poderosos en la nube. Esto se logra a través de la optimización de algoritmos de IA, que pueden ser ejecutados directamente en el hardware del dispositivo con una eficiencia energética mucho mayor que los enfoques tradicionales que dependen de grandes centros de datos.

Entre los principales beneficios de TinyML destacan la latencia reducida, ya que al procesar los datos directamente en el dispositivo, se elimina el retraso asociado con la transferencia de datos a servidores. Además, los dispositivos de bajo consumo como microcontroladores permiten que funcione durante largos períodos sin necesidad de recargarse. Otro beneficio importante es la reducción del uso de ancho de banda, ya que los dispositivos con esta tecnología no requieren transferir grandes cantidades de datos a servidores. Por último, la privacidad de los datos se ve reforzada, ya que los datos no se envían a servidores externos y son procesados localmente en el dispositivo.

TinyML está siendo utilizado en diversas áreas, especialmente en industrias que dependen de dispositivos conectados a Internet de las Cosas (IoT). Algunas de sus aplicaciones incluyen el monitoreo en tiempo real de cultivos y ganado utilizando dispositivos para gestionar de manera eficiente estos recursos en la agricultura. También se aplica en el mantenimiento predictivo industrial, donde los dispositivos TinyML pueden detectar fallas en máquinas antes de que ocurran, ayudando a reducir los costos asociados con el mantenimiento de equipos. Además, permite personalizar las interacciones con los usuarios en tiempo real, mejorando la publicidad dirigida y la comprensión del comportamiento del consumidor en la experiencia del cliente.

Esta tecnología está ganando popularidad gracias a su capacidad para integrar inteligencia artificial en dispositivos con recursos limitados, sin depender de conexión constante a internet o infraestructura costosa. Esta tecnología tiene el potencial de revolucionar áreas como el IoT, la agricultura, el mantenimiento industrial y la personalización de la experiencia del usuario.

El alto consumo energético de la IA y su impacto ambiental

Peters, Kyle Wiggers. «ChatGPT May Not Be as Power-Hungry as Once AssumedTechCrunch, 11 de febrero de 2025. https://techcrunch.com/2025/02/11/chatgpt-may-not-be-as-power-hungry-as-once-assumed/

Aunque el consumo energético de ChatGPT es menor de lo que se pensaba, el crecimiento y sofisticación de la inteligencia artificial siguen planteando desafíos en términos de sostenibilidad y demanda energética.

Un estudio reciente de Epoch AI ha analizado el consumo energético de ChatGPT y ha desmentido la creencia de que esta inteligencia artificial es excesivamente demandante en términos de electricidad. Un informe de Goldman Sachs reveló que una consulta en ChatGPT consume casi 10 veces más electricidad que una búsqueda en Google. Según el último informe de Epoch, una consulta típica en ChatGPT consume alrededor de 0.3 vatios-hora, una cifra significativamente menor que la estimación previa de 3 vatios-hora por consulta, que equivalía a diez veces el consumo de una búsqueda en Google.

Una estimación más precisa

El informe de Epoch AI señala que la cifra de 3 vatios-hora estaba basada en estudios anteriores que asumían que OpenAI utilizaba chips más antiguos y menos eficientes. En cambio, el nuevo análisis tomó como referencia GPT-4o, el modelo por defecto más reciente de ChatGPT, encontrando que su consumo energético es menor de lo que se creía. Según Joshua You, analista de datos de Epoch, el consumo energético de ChatGPT es insignificante en comparación con el de electrodomésticos comunes, la calefacción o refrigeración del hogar, e incluso el uso de un automóvil.

El impacto ambiental de la IA

El uso energético de la inteligencia artificial, en general, sigue siendo un tema de debate a medida que las empresas del sector expanden sus infraestructuras. Recientemente, más de 100 organizaciones firmaron una carta abierta pidiendo a la industria de la IA y a los reguladores que garanticen que los nuevos centros de datos no agoten los recursos naturales ni aumenten la dependencia de fuentes de energía no renovables.

Aunque la cifra de 0.3 vatios-hora es una mejora respecto a estimaciones previas, el informe reconoce que el consumo energético de la IA seguirá aumentando en el futuro. Modelos de IA más avanzados requerirán más energía para entrenarse y ejecutarse, y el creciente uso de estas tecnologías también contribuirá a una mayor demanda de infraestructura computacional.

El futuro: modelos de razonamiento más exigentes

OpenAI y otras empresas del sector están explorando modelos de razonamiento, que son capaces de realizar tareas más complejas pero requieren más tiempo de procesamiento y, por ende, mayor consumo energético. A diferencia de modelos como GPT-4o, que responden casi instantáneamente, los modelos de razonamiento pueden «pensar» durante varios segundos o incluso minutos antes de generar una respuesta, lo que incrementa significativamente su demanda energética.

Según el informe, en los próximos años, la expansión de centros de datos para soportar estos modelos podría llegar a consumir casi toda la capacidad eléctrica de California en 2022 (68 GW) y, para 2030, el entrenamiento de un solo modelo avanzado podría requerir la energía equivalente a la de ocho reactores nucleares (8 GW).

Alternativas para reducir el consumo

Para mitigar el impacto ambiental, OpenAI ha comenzado a desarrollar modelos más eficientes, como o3-mini, que consumen menos energía. Sin embargo, estos avances podrían no ser suficientes para compensar el aumento en el uso global de la IA.

El informe sugiere que quienes estén preocupados por su huella energética al usar IA pueden optar por modelos más pequeños y eficientes, como GPT-4o-mini, y limitar el uso de funciones que requieran un procesamiento intensivo, como la generación de imágenes o la carga de archivos largos.

En el Reino Unido se espera que la IA consuma un 500% más de energía en la próxima década

«AI’s Insatiable Need for Energy Is Straining Global Power Grids». Accedido 24 de junio de 2024. https://www.bloomberg.com/graphics/2024-ai-data-centers-power-grids/.



En el Reino Unido, se espera que la IA consuma un 500% más de energía en la próxima década. Y en los EE. UU., se proyecta que los centros de datos utilicen el 8% del total de energía para 2030, en comparación con el 3% en 2022, según Goldman Sachs, que lo describió como «el tipo de crecimiento en el consumo de electricidad que no se ha visto en una generación».

Loudoun County, en el norte de Virginia, anteriormente conocido por sus granjas de caballos y sitios de batallas de la Guerra Civil, ha sido transformado en los últimos 15 años. Sus campos y bosques se han despejado para construir centros de datos, esenciales para nuestras vidas digitales. El auge de la inteligencia artificial (IA) está acelerando la demanda de centros de datos más grandes, cambiando aún más el paisaje y sobrecargando las redes eléctricas de la región.

Esta primavera, una nueva instalación de 200,000 pies cuadrados estaba casi terminada. Una vez operativa, podría consumir tanta energía como 30,000 hogares en EE.UU. DataBank, el proveedor de centros de datos que posee la instalación, tiene un cliente «grande de tecnología» que ya ha instalado servidores antes de que DataBank tenga electricidad disponible para ellos.

James Mathes, quien administra algunas instalaciones de DataBank, comentó que la IA necesita mucha energía y la demanda es inmediata una vez disponible. El aumento repentino en la demanda eléctrica de los centros de datos supera la oferta en muchas partes del mundo, lo que genera largas esperas para acceder a la red, preocupaciones por cortes de energía y aumentos de precios en los mercados de centros de datos más densos.

El aumento dramático en la demanda de energía debido al enfoque de crecimiento a cualquier costo de Silicon Valley para la IA también amenaza los planes de transición energética de países enteros y los objetivos de energía limpia de las compañías tecnológicas multimillonarias. En algunos países, como Arabia Saudita, Irlanda y Malasia, la energía requerida para operar todos los centros de datos planificados excede la oferta disponible de energía renovable.

En Suecia, la demanda de energía de los centros de datos podría duplicarse en esta década y volver a duplicarse para 2040. En el Reino Unido, se espera que la IA consuma un 500% más de energía en la próxima década. En EE.UU., se proyecta que los centros de datos utilicen el 8% del total de energía para 2030, frente al 3% en 2022, según Goldman Sachs, que lo describió como “el tipo de crecimiento en el consumo de electricidad que no se ha visto en una generación”.