Archivo de la etiqueta: Tecnologías de la información

Cómo previeron los expertos la vida digital en 2025 hace 10 años. ¿Se cumplieron las previsiones?

Rainie, Lee. “More than a Decade Ago: How Experts Forecast Digital Life in 2025.” Elon University, Imagining the Digital Future Center, July 2, 2025. https://www.elon.edu/imagine-digital-future/2025/07/02/more-than-a-decade-ago-how-experts-forecast-digital-life-in-2025/.

Hace más de una década, para celebrar el 25 aniversario de la creación de la World Wide Web, la Universidad Elon y el Pew Research Center recopilaron más de 1.500 respuestas de expertos sobre cómo sería la vida digital en 2025. Lo notable es que muchas de sus predicciones fueron acertadas, resumiéndose en la idea de que internet se convertiría en algo tan omnipresente y esencial como la electricidad, invisible pero profundamente integrado en la vida cotidiana, con efectos tanto positivos como negativos.

Los expertos identificaron cuatro megatendencias que moldearían la realidad digital en 2025: un entorno global y conectado basado en el Internet de las Cosas (IoT) con sensores, cámaras y grandes bases de datos; mejoras en la realidad aumentada mediante dispositivos portátiles o implantables; la disrupción de modelos de negocio tradicionales, especialmente en finanzas, entretenimiento, publicaciones y educación; y la capacidad de etiquetar, almacenar y analizar de manera inteligente el mundo físico y social.

El análisis reveló ocho desarrollos generalmente positivos y siete negativos. Entre las preocupaciones destacaron las amenazas a la privacidad por la vigilancia corporativa y estatal, el aumento de la desigualdad económica y la posibilidad de que el internet global se fragmentara en “internets” que beneficiaran más a los poderosos que a los vulnerables. También hubo opiniones divididas sobre cómo afectaría la democracia y el activismo ciudadano.

Resulta curioso que, hace diez años, conceptos clave hoy en día como “inteligencia artificial” o “generativa” apenas se mencionaran, y términos como “desinformación” o “misinformation” fueran escasos en sus respuestas. Redes sociales como Facebook o Twitter y figuras como “billionaire” ni siquiera fueron relevantes en aquel entonces.

Entre las predicciones más relevantes, Nishant Shah destacó que las tecnologías digitales transformarían de forma estructural nuestra comprensión de lo humano, social y político, generando un cambio de paradigma que desestabiliza las estructuras existentes y obliga a crear un nuevo orden mundial. Brian Behlendorf anticipó que los dispositivos digitales personales serían percibidos como una extensión del cerebro y el sistema nervioso humano, un “nuevo sentido” comparable a la vista o el oído, lo que provocaría debates sobre derechos, identidad humana y personalidad legal.

Finalmente, el informe también menciona pruebas recientes de la empresa Anthropic con modelos de lenguaje (LLMs) que revelan comportamientos problemáticos cuando estos sistemas actúan como agentes autónomos, mostrando posibles riesgos si se les niega el control, aunque no se han observado estos comportamientos en despliegues reales.

El usuario actual prefiere las respuestas directas integradas de los modelos IA en lugar de navegar por múltiples enlaces

Daoudi, Mehdi. “AI and the Future of Search: How We Broke the Web and What Comes Next.” Forbes Technology Council, 2 de abril de 2025.

Fuente

Se analiza cómo la adopción masiva de buscadores basados en IA —como ChatGPT, Perplexity o los «AI Overviews» de Google— está transformando profundamente la estructura y el funcionamiento tradicionales de la web. Según Daoudi, el usuario actual prefiere respuestas integradas directamente en los resultados en lugar de navegar entre múltiples enlaces; sin embargo, esta tendencia puede generar una crisis de transparencia en la información, ya que no siempre se sabe cómo se priorizan las fuentes o cuáles se están utilizando .

El autor advierte sobre el riesgo de que estas plataformas “rompan” la web al consolidar respuestas sin referencia clara a las fuentes originales. Frente a este desafío, subraya la pérdida de control del usuario sobre la veracidad y el contexto, a medida que el sistema se comporta como una «caja negra» que fusiona múltiples contenidos inconsistentes o sesgados. Se plantea la pregunta crítica: ¿quién decide qué información se muestra y en qué orden? .

Daoudi propone que el futuro de la búsqueda debe evolucionar hacia una estructura híbrida que combine lo mejor del modelo tradicional (enlaces y rastreo) con la inteligencia contextual de la IA. Sugiere que los portales de búsqueda necesitan ofrecer:

  • Transparencia: mostrar claramente las fuentes utilizadas, y cómo la IA seleccionó y sintetizó la información.
  • Control del usuario: brindar opciones para que los usuarios exploren más en profundidad (por ejemplo, desgloses fuente por fuente).
  • Retroalimentación activa: permitir al usuario participar en la mejora continua del sistema, señalando errores o preferencias.

El artículo también sitúa este fenómeno dentro de un contexto más amplio: la economía web está siendo redefinida por el desplazamiento de clics y tráfico hacia respuestas directas de IA, lo que ha provocado preocupación entre editores y creadores de contenido por los impactos en ingresos publicitarios y visibilidad. Además, la dependencia creciente de agentes generativos plantea interrogantes legales ligados a derechos de autor, compensación justa y transparencia algorítmica.

Se advierte que la revolución de la búsqueda potenciada por IA tiene un enorme potencial para mejorar la experiencia de usuario, pero también conlleva riesgos significativos: desinformación, pérdida de visibilidad para creadores de contenido y opacidad en los procesos de decisión. Por ello, propone una evolución hacia sistemas híbridos que integren fiabilidad, trazabilidad, participación activa del usuario y regulación informada.

Cómo las bibliotecas pueden apoyar a los jóvenes en la era de la IA

Tanzi, Nick. 2025. “Building a Future‑Ready Generation: How Libraries Can Support Youth in the Age of AI.” LinkedIn, May 21, 2025. Publicado en The Digital Librarian. https://www.linkedin.com/pulse/building-future-ready-generation-how-libraries-can-support-nick-tanzi-mviye/

Tanzi subraya que la IA está integrada en casi todos los aspectos de la vida de los niños: desde recomendaciones de YouTube Kids, asistentes de escritorio como CoPilot, sistemas móviles como Apple Intelligence o Gemini, hasta redes sociales con Meta AI. Cita un informe de Common Sense Education según el cual el 70 % de los adolescentes ha usado algún tipo de IA generativa; sin embargo, solo el 37 % de los padres era consciente de ello. Además, el 60 % de los estudiantes dice que su escuela no tiene normas sobre IA, o no las conocen.

Se advierte que el acceso generalizado sin regulación ni comprensión adecuada genera riesgos: chatbots han sido asociados a autolesiones, dependencia y consejos de salud peligrosos. Según el informe “Off Task” de 2023, el 45 % de estudiantes de secundaria ha recurrido a IA generativa para cuestiones personales o de salud mental

Tanzi sostiene que es responsabilidad de las bibliotecas “llenar los vacíos de conocimiento” mediante la construcción de una alfabetización en IA—es decir, “habilidades que permitan entender, evaluar y usar críticamente sistemas de IA en un mundo digital”. Es clave involucrar a padres y cuidadores, demistificar la IA, promover seguridad digital y enseñar a identificar y analizar outputs generados por IA. También recomienda curar recursos didácticos para programas o referencias, mencionando sitios como Common Sense y News Literacy Project

Por ello el personal bibliotecario debe colaborar activamente con los distritos escolares. Es importante entender si existen políticas formales sobre IA (por ejemplo, Northport-East Northport o Downingtown), qué herramientas están aprobadas académicamente, y si se exige que los estudiantes revelen el uso de IA. Esta colaboración permite a las bibliotecas apoyar eficazmente la investigación y enseñar técnicas de búsqueda y «prompting», respetando las regulaciones y la posible necesidad de consentimiento paterno

¿Qué es la generación de imágenes basada en autorregresión y cómo afectará al fraude documental?

Flook, Rebecca. 2025. «What Is Autoregression-Based Image Generation and How Will It Impact Document Fraud?» Artificial Intelligence, mayo 23, 2025. https://nationalcentreforai.jiscinvolve.org/wp/2025/05/23/what-is-autoregression-based-image-generation-and-how-will-it-impact-document-fraud-2/

En el artículo se explora el papel emergente de los modelos de IA autorregresivos en la generación de imágenes y sus implicaciones en el fraude documental.

Los modelos autoregresivos generan imágenes prediciendo píxel por píxel en una secuencia, basándose en los píxeles anteriores. Esta técnica permite una creación detallada y controlada de imágenes, lo que la hace útil para tareas que requieren precisión y coherencia visual. En pocas palabras, tiene que ver con la utilización de la autorregresión. No se trata de un concepto nuevo en la IA Generativa, ya que los modelos autorregresivos se utilizan principalmente para generar texto. También se ha utilizado anteriormente en la generación de imágenes, pero no con el nivel de multimodalidad que estamos presenciando ahora, que se ha incorporado a GPT-4o y está disponible para los usuarios de ChatGPT. Así, cuando un usuario pide una imagen al modelo de IA Generativa, éste utiliza esta metodología aprendida, convirtiendo una distribución de datos de puro ruido en una imagen basada en una indicación del usuario, con diversos grados de éxito.

Desde la introducción de esta nueva metodología, se ha observado que el modelo posee una capacidad preocupante para crear documentos falsificados, como distintos tipos de identificaciones. Muchos procesos de autenticación en la vida diaria dependen de la verificación de imágenes, y la inteligencia artificial está nuevamente facilitando el acceso a actores malintencionados para generar recursos fraudulentos. Los generadores de imágenes por IA intentan asegurar que los usuarios conozcan el origen de una imagen incluyendo marcas de agua o una firma en los metadatos. Aunque esto representa un obstáculo para los actores malintencionados, no es una solución infalible. Estos datos de procedencia pueden ser eliminados o modificados para imitar autenticidad.

Para contrarrestar estos riesgos, el artículo subraya la importancia de desarrollar mecanismos sólidos de detección y protocolos de verificación. También destaca la necesidad de mantener la investigación activa y fomentar la colaboración entre las partes implicadas para anticiparse a posibles usos fraudulentos.

El impacto transformador de la inteligencia artificial en la medicina

Walker-Wawrzycki, Alexandra. 2025. “From Data to Diagnosis – How AI Is Changing the World of Medicine.” Cosmos Magazine, May 7, 2025. https://cosmosmagazine.com/technology/ai/ai-in-medicine-data-diagnosis

La inteligencia artificial (IA) está revolucionando el ámbito de la medicina al automatizar procesos repetitivos y complejos, lo que permite a los profesionales sanitarios centrarse más en la atención directa al paciente.

Entre las aplicaciones actuales más destacadas se encuentra el uso de escribas digitales, programas que transcriben automáticamente las observaciones del médico en tiempo real durante la consulta. Estos sistemas, como Lyrebird, eliminan la grabación y el texto después de ser descargados, garantizando así la privacidad del paciente. Según un estudio de la Universidad de Pensilvania, su uso incrementa en un 20 % el tiempo cara a cara con los pacientes y reduce en un 30 % el tiempo extra dedicado a papeleo.

Otro uso relevante es el análisis de imágenes médicas, como radiografías, tomografías y resonancias magnéticas. Mediante algoritmos entrenados con miles de imágenes normales y patológicas, la IA puede detectar anomalías con gran precisión. No obstante, la calidad del entrenamiento depende en gran medida de la diversidad y representatividad de los datos. Investigadores de la Universidad de Lovaina advierten que errores o sesgos en los datos pueden afectar directamente al rendimiento clínico del modelo, con consecuencias graves, como desigualdades de género o raciales.

También se destaca el análisis de biomarcadores, donde la IA examina grandes volúmenes de datos de pacientes para identificar patrones y predecir enfermedades, reacciones adversas o respuestas a medicamentos. Estos sistemas usan modelos predictivos para anticipar riesgos de forma proactiva.

Se presentan ejemplos concretos, como el programa SWIFT en el hospital Lyell McEwin de Adelaida, que utiliza notas médicas y datos clínicos (frecuencia cardíaca, análisis de sangre) para predecir si un paciente puede ser dado de alta en las siguientes 48 horas. El sistema emplea dos algoritmos: uno analiza texto clínico y el otro traduce variables numéricas en una puntuación de alta, conocida como Adelaide Score.

Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), como los que utiliza ChatGPT, también están empezando a aplicarse en la medicina. Estos modelos convierten información en secuencias numéricas y predicen la siguiente entrada más probable, que luego se traduce en lenguaje natural. Son especialmente útiles para gestionar registros electrónicos o incluso para escribir informes clínicos.

En cuanto a la seguridad, se subraya la preocupación por el manejo de datos sensibles. En Australia del Sur, por ejemplo, las leyes impiden que los datos sanitarios se compartan con redes internacionales, obligando a que todo el procesamiento ocurra localmente. Esto limita la exposición y asegura que los datos no se utilicen para entrenar otros modelos, a diferencia de servicios comerciales como ChatGPT.

Paradójicamente, la IA también refuerza la ciberseguridad. Gracias a su capacidad de análisis, puede detectar comportamientos anómalos en redes, identificar accesos sospechosos y actuar preventivamente. Además, analiza patrones de uso y detecta si una cuenta ha sido usada por alguien que no es su usuario habitual.

Sin embargo, persisten preguntas éticas sobre la responsabilidad legal: si un sistema de IA comete un error que afecta al paciente, ¿quién es el responsable? Por ahora, estos sistemas siguen siendo supervisados por profesionales humanos que toman la última decisión, y por tanto, también asumen la responsabilidad.

En el campo emergente de la medicina de precisión, la IA ya predice fallos técnicos antes de que ocurran, lo que permite realizar mantenimientos preventivos y garantiza un funcionamiento seguro del equipamiento médico.

En conclusión, la IA tiene el potencial de hacer la sanidad más económica y accesible, al asumir tareas administrativas previas a la consulta y liberar tiempo para la atención médica directa. Esto podría reducir la necesidad de personal sin sacrificar calidad, mejorar la eficiencia y aumentar la satisfacción profesional del personal sanitario.

Microsoft ha cerrado oficialmente Skype

Carter, Rob Beschizza. 2025. “Microsoft Shuts down Skype after 22 Years of Service.” Boing Boing, May 6, 2025. https://boingboing.net/2025/05/06/microsoft-shuts-down-skype-after-22-years-of-service.html

Microsoft ha cerrado oficialmente Skype el 5 de mayo de 2025, poniendo fin a más de dos décadas de servicio de esta emblemática plataforma de comunicación por voz y video. Lanzada en 2003 por ingenieros estonios, Skype revolucionó las llamadas por Internet mediante la tecnología VoIP, permitiendo a millones de usuarios comunicarse globalmente sin necesidad de líneas telefónicas tradicionales

Microsoft adquirió Skype en 2011 por 8.500 millones de dólares, con la intención de integrarla en su ecosistema de servicios. Sin embargo, con el paso del tiempo, la plataforma perdió relevancia frente a competidores como Zoom, WhatsApp, FaceTime y, especialmente, Microsoft Teams, lanzado en 2017. La creciente demanda de herramientas de colaboración durante la pandemia de COVID-19 aceleró la transición hacia plataformas más modernas y versátiles

Microsoft ha facilitado la migración de usuarios a Microsoft Teams. A partir de marzo de 2025, los usuarios pudieron iniciar sesión en Teams con sus credenciales de Skype, encontrando sus chats y contactos disponibles. Esta opción estará vigente hasta enero de 2026, fecha límite para exportar manualmente los datos desde un enlace proporcionado por Microsoft. Después de esa fecha, la información será eliminada definitivamente.

Teams se presenta como la alternativa principal a Skype, ofreciendo funciones de mensajería, videollamadas, reuniones y comunidades. Aunque su versión gratuita no incluye llamadas telefónicas tradicionales, sí permite una comunicación efectiva y colaborativa, especialmente en entornos laborales y educativos.

Para quienes buscan otras opciones, existen plataformas como Zoom, Viber, Google Voice y servicios de VoIP como Hushed o CallCentric. Estas alternativas ofrecen diversas funcionalidades, desde llamadas internacionales hasta mensajería y videoconferencias, adaptándose a diferentes necesidades y preferencias .

La tecnología en los procesos de enseñanza aprendizaje

García Ramírez, Ma. Teresa, coord. La tecnología en los procesos de enseñanza aprendizaje. México: Editorial Transdigital, 2022.

Texto completo

Durante las últimas tres décadas, las TIC han cobrado gran relevancia en la sociedad, intensificándose su uso durante la pandemia de COVID-19, especialmente en el ámbito educativo. La necesidad de adaptación repentina a la educación en línea evidenció la falta de alfabetización digital de docentes y estudiantes. Este libro surge como respuesta a esa situación, con aportaciones de expertos en tecnología educativa que abordan modelos y estrategias para mejorar el proceso de enseñanza-aprendizaje mediante las TIC.

Entre los temas destacados se encuentran el desarrollo de habilidades del siglo XXI como el pensamiento crítico, la autorregulación y el trabajo colaborativo, promovidas a través de herramientas como la robótica educativa, la gamificación y el pensamiento computacional. También se abordan modelos como el aula invertida y el aprendizaje ubicuo, facilitado por dispositivos móviles y redes inalámbricas.

Además, se analiza el potencial de los MOOC y las redes sociales en la creación de entornos educativos personalizados, así como la importancia de capacitar a los docentes en la producción de contenidos digitales. El libro resalta también la utilidad de la analítica del aprendizaje y los sistemas de gestión del conocimiento institucional para mejorar la toma de decisiones y fomentar la innovación.

Encuesta sobre Tecnología Bibliotecaria de SCONUL

«SCONUL Publishes Its Library Technology Landscape Report.» SCONUL.Publicado el 5 de marzo de 2025. Accedido el 6 de marzo de 2025.

Informe

Datos

Cuestionario

La SCONUL (Society of College, National and University Libraries) ha publicado los resultados de su primera Encuesta sobre Tecnología Bibliotecaria, que ofrece un análisis exhaustivo del panorama tecnológico en bibliotecas académicas y de investigación. El informe cubre 26 áreas funcionales relacionadas con la tecnología en bibliotecas e incluye perfiles detallados de los productos y servicios utilizados, además de evaluaciones sobre su funcionalidad y relación calidad-precio.

SCONUL (Society of College, National and University Libraries) presenta los resultados de su primera Encuesta de Tecnología Bibliotecaria, que ofrece un análisis detallado del panorama tecnológico en las bibliotecas académicas y de investigación del Reino Unido e Irlanda. El informe abarca 26 áreas funcionales de tecnología bibliotecaria, con perfiles exhaustivos sobre productos y servicios utilizados, junto con valoraciones de su funcionalidad y relación calidad-precio.

El objetivo principal de este estudio es servir como una guía de referencia para que las bibliotecas puedan planificar la adopción de nuevos sistemas con un conocimiento claro del mercado. SCONUL anima a sus miembros a proporcionar sugerencias de mejora para futuras ediciones, con la próxima prevista para el otoño de 2026.

El informe revela un ecosistema tecnológico complejo, donde los sistemas interoperables son complementados por servicios adicionales. Esta visión global ofrece información útil no solo para las bibliotecas, sino también para organizaciones como SCONUL, los consorcios de compras universitarios y Jisc, ayudando a identificar sectores con falta de competencia, afectando al rendimiento y a la percepción del valor económico.

Entre los hallazgos más destacados:

  • El mercado de los Sistemas Integrados de Gestión Bibliotecaria (LMS) muestra escasa competencia y niveles de insatisfacción respecto al coste y desempeño.
  • Existe un uso generalizado de servicios complementarios como herramientas de gestión de revistas, plataformas de libros electrónicos y libros de texto digitales, lo que genera dudas sobre su adecuada provisión.
  • Los paneles de editoriales reciben bajas puntuaciones tanto en valor como en funcionalidad, a pesar de su uso extendido.
  • Los resultados permiten al sector bibliotecario influir en el mercado, planteando demandas a proveedores poco eficientes, promoviendo la entrada de nuevos actores, y colaborando en la definición de necesidades emergentes.

Además, el informe ofrece base para debatir sobre el desarrollo de plataformas compartidas y otros servicios comunes, detectando qué proveedores son más utilizados y evaluados por las instituciones.

El estudio también destaca prácticas innovadoras que serán analizadas para compartirlas con toda la comunidad. Por ejemplo, se observa una disminución en el uso de herramientas de descubrimiento por parte de los usuarios, mientras que un 81% de las instituciones utiliza más de un producto para mejorar estas búsquedas. Esto plantea la necesidad de evaluar si realmente estas soluciones satisfacen las expectativas de los usuarios y abre la puerta a considerar tecnologías como la inteligencia artificial generativa como posible solución transformadora.

La encuesta se gestó tras un largo proceso de pruebas y ajustes, incluyendo un piloto a gran escala en 2023, antes de su lanzamiento definitivo en 2024.

Más de la mitad de los adolescentes desconfía de que las grandes empresas tecnológicas de Inteligencia Artificial tomen decisiones éticas y responsables

Common Sense Media. “Research Reveals Teens’ Distrust in Tech Companies and AI-Generated Content.Common Sense Media, January 31, 2025.

Texto completo

El informe Teens, Trust, and Technology in the Age of AI, publicado por Common Sense Media, revela una brecha de confianza entre los adolescentes y las empresas tecnológicas. Basado en una encuesta representativa a nivel nacional de 1.045 adolescentes de entre 13 y 18 años, el estudio muestra que casi dos tercios de los encuestados (64%) no confían en que las compañías tecnológicas se preocupen por su bienestar, y un 62% duda de que prioricen la seguridad del usuario sobre las ganancias.

Este informe proporciona información crucial para padres, educadores y legisladores sobre el impacto de la tecnología en los jóvenes y cómo proteger su bienestar en un mundo cada vez más digitalizado.

Hallazgos clave:

  • Desconfianza generalizada: Más de la mitad de los adolescentes encuestados desconfía de que las grandes empresas tecnológicas tomen decisiones éticas y responsables en el diseño de sus productos (53%), protejan su información personal (52%) o sean inclusivas y justas con diferentes tipos de usuarios (51%).
  • Uso de IA y preocupaciones éticas: El 47% tiene poca o ninguna confianza en que las empresas tecnológicas tomen decisiones responsables sobre el uso de inteligencia artificial en sus productos.
  • Errores en la IA generativa: Un 39% de los adolescentes que han utilizado IA generativa para tareas escolares han detectado errores en sus resultados.
  • Regulación y transparencia: Aproximadamente el 70% de los encuestados apoya medidas de privacidad y transparencia en los sistemas de IA.
  • Etiquetado de contenido generado por IA: Un 73% considera importante que el contenido creado por inteligencia artificial esté claramente identificado o marcado con una marca de agua.
  • El estudio subraya la necesidad de regulaciones más estrictas y de una mayor responsabilidad por parte de las empresas tecnológicas para garantizar un entorno digital más seguro y confiable para los jóvenes.

El impacto ambiental de la IA generativa

MIT News. «Explained: Generative AI’s Environmental ImpactMIT Computer Science and Artificial Intelligence Laboratory (CSAIL). Última modificación en 2024. https://www.csail.mit.edu/news/explained-generative-ais-environmental-impact.

MIT News examina las implicaciones ambientales y de sostenibilidad de las tecnologías de IA generativa en una serie de dos partes. En este artículo, se analiza por qué esta tecnología consume tantos recursos. La segunda parte abordará las estrategias para reducir la huella de carbono de la IA generativa.

MIT News ha investigado el impacto ambiental de las tecnologías de inteligencia artificial generativa, que incluyen modelos como GPT-4 de OpenAI, destacando que estas tecnologías, a pesar de sus numerosos beneficios, son intensivas en recursos y tienen consecuencias ambientales significativas.

La IA generativa, como GPT-4 de OpenAI, requiere una enorme potencia computacional, demandando grandes cantidades de electricidad y aumentando las emisiones de CO₂. Además, el enfriamiento del hardware consume grandes volúmenes de agua, afectando los ecosistemas locales. La fabricación y transporte del hardware también generan impactos ambientales indirectos.

El entrenamiento de modelos de IA generativa, que a menudo tienen miles de millones de parámetros, requiere una enorme potencia computacional. Esto lleva a un consumo masivo de electricidad, aumentando las emisiones de dióxido de carbono y ejerciendo presión sobre las redes eléctricas.

Los centros de datos, esenciales para entrenar y ejecutar modelos de IA, son grandes consumidores de electricidad. El uso de modelos de IA generativa, como ChatGPT, consume más energía que búsquedas web simples, lo que incrementa aún más la demanda de electricidad y agua para enfriamiento.

El enfriamiento del hardware en los centros de datos, esenciales para la IA generativa, utiliza grandes cantidades de agua, lo que puede tensar los suministros municipales y afectar los ecosistemas locales. Se estima que por cada kilovatio-hora de energía consumida por un centro de datos, se necesitan dos litros de agua para el enfriamiento.

El impacto ambiental no se detiene después del entrenamiento de los modelos. Cada vez que se utiliza un modelo de IA generativa, como al hacer una consulta en ChatGPT, se consume energía. Las consultas a ChatGPT requieren aproximadamente cinco veces más electricidad que una búsqueda web estándar.

La fabricación de hardware especializado, como las GPUs, implica procesos complejos y una considerable huella de carbono. El mercado de GPUs para centros de datos ha crecido rápidamente, lo que apunta a un camino insostenible.

Elsa A. Olivetti, profesora en el Departamento de Ciencia de Materiales e Ingeniería del MIT, y Noman Bashir, investigador postdoctoral, subrayan la necesidad de un enfoque integral para entender y mitigar el impacto ambiental de la IA generativa, promoviendo un desarrollo responsable que considere tanto los costos como los beneficios.