Archivo de la etiqueta: Energia

Reducir la inteligencia artificial: muchos modelos de inteligencia artificial son caros y consumen mucha energía

«A tinyML chip: Cutting AI down to sizeScience, 20 de febrero de 2025. https://www.science.org/content/article/what-s-tinyml-global-south-s-alternative-power-hungry-pricey-ai.

Muchos modelos de inteligencia artificial son caros y consumen mucha energía. Los investigadores del Sur Global están adoptando cada vez más alternativas de bajo coste y bajo consumo. TinyML es una subdisciplina del aprendizaje automático (Machine Learning, ML) que se enfoca en ejecutar modelos de aprendizaje automático directamente en dispositivos de bajo consumo y recursos limitados, como microcontroladores, sensores y otros dispositivos integrados.

El artículo de Science titulado «What’s TinyML? Global South’s Alternative to Power-Hungry, Pricey AI» pone de manifiesto cómo la tecnología TinyML está emergiendo como una alternativa innovadora y accesible a las soluciones de inteligencia artificial (IA) tradicionales, que suelen depender de infraestructuras costosas y un alto consumo de energía. Este avance está ganando especial relevancia en el Sur Global, es decir, en regiones del mundo que enfrentan desafíos relacionados con recursos limitados, infraestructura insuficiente y conectividad inestable.

TinyML es una tecnología que permite ejecutar modelos de aprendizaje automático (machine learning) en dispositivos de muy bajo consumo energético, como sensores, microcontroladores o dispositivos portátiles, sin necesidad de conectarlos a servidores poderosos en la nube. Esto se logra a través de la optimización de algoritmos de IA, que pueden ser ejecutados directamente en el hardware del dispositivo con una eficiencia energética mucho mayor que los enfoques tradicionales que dependen de grandes centros de datos.

Entre los principales beneficios de TinyML destacan la latencia reducida, ya que al procesar los datos directamente en el dispositivo, se elimina el retraso asociado con la transferencia de datos a servidores. Además, los dispositivos de bajo consumo como microcontroladores permiten que funcione durante largos períodos sin necesidad de recargarse. Otro beneficio importante es la reducción del uso de ancho de banda, ya que los dispositivos con esta tecnología no requieren transferir grandes cantidades de datos a servidores. Por último, la privacidad de los datos se ve reforzada, ya que los datos no se envían a servidores externos y son procesados localmente en el dispositivo.

TinyML está siendo utilizado en diversas áreas, especialmente en industrias que dependen de dispositivos conectados a Internet de las Cosas (IoT). Algunas de sus aplicaciones incluyen el monitoreo en tiempo real de cultivos y ganado utilizando dispositivos para gestionar de manera eficiente estos recursos en la agricultura. También se aplica en el mantenimiento predictivo industrial, donde los dispositivos TinyML pueden detectar fallas en máquinas antes de que ocurran, ayudando a reducir los costos asociados con el mantenimiento de equipos. Además, permite personalizar las interacciones con los usuarios en tiempo real, mejorando la publicidad dirigida y la comprensión del comportamiento del consumidor en la experiencia del cliente.

Esta tecnología está ganando popularidad gracias a su capacidad para integrar inteligencia artificial en dispositivos con recursos limitados, sin depender de conexión constante a internet o infraestructura costosa. Esta tecnología tiene el potencial de revolucionar áreas como el IoT, la agricultura, el mantenimiento industrial y la personalización de la experiencia del usuario.

El alto consumo energético de la IA y su impacto ambiental

Peters, Kyle Wiggers. «ChatGPT May Not Be as Power-Hungry as Once AssumedTechCrunch, 11 de febrero de 2025. https://techcrunch.com/2025/02/11/chatgpt-may-not-be-as-power-hungry-as-once-assumed/

Aunque el consumo energético de ChatGPT es menor de lo que se pensaba, el crecimiento y sofisticación de la inteligencia artificial siguen planteando desafíos en términos de sostenibilidad y demanda energética.

Un estudio reciente de Epoch AI ha analizado el consumo energético de ChatGPT y ha desmentido la creencia de que esta inteligencia artificial es excesivamente demandante en términos de electricidad. Un informe de Goldman Sachs reveló que una consulta en ChatGPT consume casi 10 veces más electricidad que una búsqueda en Google. Según el último informe de Epoch, una consulta típica en ChatGPT consume alrededor de 0.3 vatios-hora, una cifra significativamente menor que la estimación previa de 3 vatios-hora por consulta, que equivalía a diez veces el consumo de una búsqueda en Google.

Una estimación más precisa

El informe de Epoch AI señala que la cifra de 3 vatios-hora estaba basada en estudios anteriores que asumían que OpenAI utilizaba chips más antiguos y menos eficientes. En cambio, el nuevo análisis tomó como referencia GPT-4o, el modelo por defecto más reciente de ChatGPT, encontrando que su consumo energético es menor de lo que se creía. Según Joshua You, analista de datos de Epoch, el consumo energético de ChatGPT es insignificante en comparación con el de electrodomésticos comunes, la calefacción o refrigeración del hogar, e incluso el uso de un automóvil.

El impacto ambiental de la IA

El uso energético de la inteligencia artificial, en general, sigue siendo un tema de debate a medida que las empresas del sector expanden sus infraestructuras. Recientemente, más de 100 organizaciones firmaron una carta abierta pidiendo a la industria de la IA y a los reguladores que garanticen que los nuevos centros de datos no agoten los recursos naturales ni aumenten la dependencia de fuentes de energía no renovables.

Aunque la cifra de 0.3 vatios-hora es una mejora respecto a estimaciones previas, el informe reconoce que el consumo energético de la IA seguirá aumentando en el futuro. Modelos de IA más avanzados requerirán más energía para entrenarse y ejecutarse, y el creciente uso de estas tecnologías también contribuirá a una mayor demanda de infraestructura computacional.

El futuro: modelos de razonamiento más exigentes

OpenAI y otras empresas del sector están explorando modelos de razonamiento, que son capaces de realizar tareas más complejas pero requieren más tiempo de procesamiento y, por ende, mayor consumo energético. A diferencia de modelos como GPT-4o, que responden casi instantáneamente, los modelos de razonamiento pueden «pensar» durante varios segundos o incluso minutos antes de generar una respuesta, lo que incrementa significativamente su demanda energética.

Según el informe, en los próximos años, la expansión de centros de datos para soportar estos modelos podría llegar a consumir casi toda la capacidad eléctrica de California en 2022 (68 GW) y, para 2030, el entrenamiento de un solo modelo avanzado podría requerir la energía equivalente a la de ocho reactores nucleares (8 GW).

Alternativas para reducir el consumo

Para mitigar el impacto ambiental, OpenAI ha comenzado a desarrollar modelos más eficientes, como o3-mini, que consumen menos energía. Sin embargo, estos avances podrían no ser suficientes para compensar el aumento en el uso global de la IA.

El informe sugiere que quienes estén preocupados por su huella energética al usar IA pueden optar por modelos más pequeños y eficientes, como GPT-4o-mini, y limitar el uso de funciones que requieran un procesamiento intensivo, como la generación de imágenes o la carga de archivos largos.

La obscena demanda energética de la inteligencia artificial

Kolbert, E. (2024, marzo 9). The Obscene Energy Demands of A.I. The New Yorker. https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai

En 2016, Alex de Vries leyó en algún lugar que una transacción de bitcoin consume tanta energía como la que utiliza en un día un hogar estadounidense promedio. En ese momento, de Vries, trabajaba en una firma de consultoría. En su tiempo libre, escribía un blog llamado Digiconomist, donde abordaba los riesgos de invertir en criptomonedas. La cifra del consumo de energía le pareció perturbadora.

“Me dije: ‘Esto es una cantidad enorme, ¿por qué nadie está hablando de ello?’”, me dijo recientemente en una videollamada por Zoom. “Traté de buscar datos, pero no encontré mucho”. De Vries, que entonces tenía veintisiete años, decidió que tendría que recopilar la información por sí mismo. Creó lo que llamó el Índice de Consumo de Energía de Bitcoin y lo publicó en Digiconomist. Según las últimas cifras del índice, la minería de bitcoin ahora consume ciento cuarenta y cinco mil millones de kilovatios-hora de electricidad al año, más de lo que utiliza toda la nación de los Países Bajos. Además, la producción de esa electricidad genera ochenta y un millones de toneladas de CO2, más que las emisiones anuales de un país como Marruecos. De Vries también comenzó a rastrear los residuos electrónicos producidos por la minería de bitcoin (equivalentes al valor de un iPhone por cada transacción) y su consumo de agua (alrededor de dos billones de litros al año). (El agua se utiliza para enfriar los servidores utilizados en la minería, y los residuos electrónicos provienen de servidores obsoletos).

El año pasado, de Vries se preocupó por otro devorador de energía: la inteligencia artificial (IA). «Vi que tiene una capacidad similar y también el potencial de tener una trayectoria de crecimiento similar en los próximos años.

La inteligencia artificial requiere mucha energía por la misma razón. El tipo de aprendizaje automático que produjo ChatGPT se basa en modelos que procesan cantidades fantásticas de información, y cada bit de procesamiento requiere energía. Cuando ChatGPT escupe información (o escribe la redacción del bachillerato de alguien), también requiere mucho procesamiento. Se calcula que ChatGPT responde a unos doscientos millones de peticiones al día y, al hacerlo, consume más de medio millón de kilovatios-hora de electricidad. (A modo de comparación, un hogar medio estadounidense consume veintinueve kilovatios-hora al día).

La inteligencia artificial podría servir para paliar algunos de los problemas que está agravando. Por ejemplo, podría utilizarse para mejorar la eficiencia de los sistemas de energía renovable, lo que podría reducir las emisiones de las granjas de servidores. Pero parece improbable que estos avances vayan a la par de la creciente demanda de electricidad de la inteligencia artificial.