Archivo de la categoría: Tecnologías de la información

Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas

LOPEZOSA, Carlos. Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas. Informe. Universitat de Barcelona, 2026. Consulta del 12 de enero de 2026. https://hdl.handle.net/2445/225202

Texto completo

Se analiza cómo la inteligencia artificial (IA) está transformando y puede seguir transformando los procesos técnicos dentro de las bibliotecas y centros de documentación. El estudio se centra en profundizar en los fundamentos conceptuales de la IA, sus aplicaciones principales y los desafíos que plantea su adopción responsable en contextos bibliotecarios.

El informe analiza el impacto creciente de la inteligencia artificial en las bibliotecas, centrándose especialmente en los procesos técnicos tradicionales. Parte de la idea de que la IA, y en particular los modelos de lenguaje de gran tamaño, ya forman parte del ecosistema informacional y están modificando de manera profunda la forma en que se gestionan, describen y organizan los recursos documentales. El texto ofrece una aproximación clara a los fundamentos conceptuales de la IA, explicando su funcionamiento general y su relevancia para el ámbito bibliotecario y documental.

A lo largo del trabajo se examinan las principales aplicaciones prácticas de la inteligencia artificial en tareas como la catalogación, la gestión y normalización de metadatos y el enriquecimiento semántico de los registros bibliográficos. El autor muestra cómo estas tecnologías permiten automatizar procesos repetitivos, detectar inconsistencias y mejorar la calidad descriptiva de los fondos, lo que repercute directamente en una mejor recuperación de la información. No obstante, se insiste en que la IA debe entenderse como una herramienta de apoyo y no como un sustituto del criterio profesional del personal bibliotecario.

El documento también aborda la integración de la IA en los flujos de trabajo técnicos, destacando su utilidad como sistema de asistencia avanzada para el análisis de datos, la generación de informes y la toma de decisiones técnicas. Desde esta perspectiva, la inteligencia artificial se presenta como un recurso estratégico que puede aumentar la eficiencia y liberar tiempo para tareas de mayor valor intelectual, siempre que exista una supervisión humana adecuada.

Un apartado relevante del estudio está dedicado a los retos éticos, legales y organizativos que plantea el uso de la IA en bibliotecas. Se analizan cuestiones como la protección de datos personales, la seguridad de la información y el riesgo de sesgos algorítmicos, subrayando la necesidad de una evaluación crítica y continua de estas herramientas. El texto advierte sobre los peligros de una dependencia tecnológica excesiva y reclama políticas claras que garanticen un uso responsable, transparente y alineado con los valores profesionales de la biblioteconomía.

Como conclusión, el informe propone un modelo de adopción híbrida de la inteligencia artificial, en el que la tecnología complementa el trabajo humano sin sustituirlo. Se defiende una incorporación progresiva y reflexiva de la IA en los procesos técnicos bibliotecarios, basada en la formación del personal, la supervisión ética y la adaptación a las necesidades reales de cada institución. De este modo, la IA se concibe como un instrumento para mejorar la calidad del servicio bibliotecario y reforzar su papel en la gestión del conocimiento en la era digital.

Inteligencia artificial generativa: buenas prácticas docentes en educación superior

Vivas Urias, María Dolores, y María Auxiliadora Ruiz Rosillo, eds. Inteligencia artificial generativa: Buenas prácticas docentes en educación superior. Barcelona: Octaedro, 2025. ISBN 978‑84‑10282‑57‑5.

Texto completo

El libro ofrece una visión amplia y práctica de cómo la inteligencia artificial generativa (IAG) está transformando la educación superior, mostrando experiencias reales de innovación docente desarrolladas en la Universidad Alfonso X el Sabio durante el curso 2023‑2024. A través de múltiples aportes, el texto examina la manera en que estas herramientas no solo apoyan la creación de contenidos educativos, sino que también replantean la pedagogía y la evaluación.

El primer bloque del libro se centra en el papel de la IAG en la alfabetización digital y en el diseño pedagógico, explorando cómo los docentes pueden integrar estas tecnologías para potenciar la enseñanza y reducir incertidumbres en proyectos complejos como trabajos de fin de estudios. Se analizan ejemplos concretos como concursos de creación artística o generación automática de materiales de autoevaluación, destacando tanto oportunidades como desafíos éticos.

Otros capítulos muestran casos de uso específicos en materias como ciencias sociales, biotecnología o farmacología, donde la generación de contenidos y la gamificación asistida por IA facilitan procesos de enseñanza más dinámicos y adaptados a los estudiantes. Además, se aborda la evaluación de competencias con rúbricas enriquecidas por IA y estrategias para fomentar el pensamiento crítico en los futuros profesionales.

Finalmente, la obra no se limita a presentar herramientas, sino que también reflexiona sobre el uso ético y responsable de la IAG por parte de la comunidad educativa. Pone de relieve la necesidad de formación docente, la adaptación de metodologías y la convivencia entre creatividad humana y automatización inteligente, con el objetivo de maximizar el aprendizaje sin perder de vista valores formativos esenciales.

El impacto de la IA en la comunicación académica, informes sobre la aparición de «revistas imaginarias» hasta el punto de crear revistas y citas fantásticas

Linacre, Simon. 2026. “Land of Make Believe.” Cabells Blog, 7 de enero de 2026. https://blog.cabells.com/2026/01/07/land-of-make-believe/

A finales de 2025 empezaron a surgir informes sobre algo que han llamado revistas imaginarias. La IA generativa puede “alucinar”, es decir, inventar hechos o datos presentándolos como reales, pero que llegue al punto de generar títulos de revistas y citas que no existen en absoluto ha sorprendido a muchos.

Se han detectado referencias a publicaciones que nunca han existido en trabajos académicos. Estamos acostumbrados a las revistas falsas o depredadoras, pero estos nuevos títulos sólo aparecen en bibliografías generadas por IA, sin rastro real de su existencia.

Además, también se han encontrado artículos atribuidos a autores que no existen. Incluso algunos de estos textos se han presentado a revistas legítimas. Esto podría formar parte de pruebas para evaluar sistemas de revisión o detección de plagio, aunque también podría responder a fines más oscuros.

Aunque suene sorprendente, la aparición de artículos completamente generados por IA está alterando las normas tradicionales de la investigación y la publicación académica. Muchos repositorios de preprints han tenido que restringir envíos ante el aumento de trabajos de baja calidad generados por IA.

El impacto podría ser serio: si se difunden investigaciones inventadas y otros investigadores las citan o usan como referencia, el daño se propaga rápidamente. Incluso se han visto casos en los que artículos falsos han sido citados decenas de veces, sin que los autores supieran que su nombre aparecía en esos documentos.

Frente a esta situación, las fuentes verificadas de publicaciones científicas se vuelven más importantes a medida que el uso de IA se expande. Las fronteras entre investigación humana, híbrida o generada exclusivamente por IA se están desdibujando, con implicaciones profundas para editores, autores, instituciones y financiadores.

Prioridades de la comunidad global para la IA agencial en la investigación

Research Data Alliance, “Global community priorities for agentic AI in research: Consultation results available,” Research Data Alliance, Jan. 8, 2026. [Online]. Available:

Texto completo

Research Data Alliance (RDA) ha publicado los resultados de una consulta global dirigida a identificar las prioridades de la comunidad investigadora respecto al uso de la IA agente —es decir, sistemas de inteligencia artificial capaces de operar con un alto grado de autonomía y mínima supervisión humana— a lo largo del ciclo de la investigación científica.

Esta consulta, abierta desde noviembre de 2025 y sin requerir experiencia previa en IA, combinó cuatro sesiones informativas online con una encuesta anónima de 15 minutos en la que participaron 83 personas de diversos perfiles y regiones. La iniciativa buscaba comprender cómo se está utilizando actualmente la IA agente en la investigación y qué herramientas autónomas podrían aportar más valor en tareas como planificación, búsqueda de información, gestión de datos, financiación, publicación e impacto.

De los 11 posibles agentes inteligentes propuestos, tres herramientas surgieron como prioridades claras para la comunidad global de investigación.

  1. Literature Librarian, se plantea como un asistente capaz de buscar literatura científica mediante consultas en lenguaje natural integradas con suscripciones de bibliotecas, facilitando y acelerando la revisión de antecedentes y la exploración bibliográfica.
  2. Data Director obtuvo alta valoración por su potencial para apoyar la preparación y el intercambio de datos de investigación conforme a los principios FAIR (Findable, Accessible, Interoperable, Reusable), lo que podría mejorar la calidad, disponibilidad y reutilización de los datos científicos.
  3. Funding Finder, propone una herramienta que identifique oportunidades de financiación relevantes y apoye la preparación de solicitudes, ayudando a investigadores y equipos a acceder a recursos financieros con mayor eficiencia.

Estos tres agentes se destacaron de manera consistente tanto en análisis por región como por tipo de participante.. Más allá de las prioridades concretas, los participantes expresaron una visión matizada y ambivalente sobre el futuro de la IA agente en la investigación, reconociendo tanto sus beneficios potenciales como los retos éticos, organizativos y técnicos que supone su adopción generalizada. Los resultados de la consulta serán utilizados por la RDA como base para avanzar en 2026 en el desarrollo colaborativo de un marco de referencia abierto y tecnológicamente agnóstico para al menos una herramienta prioritaria de IA agente, asegurando que este trabajo futuro se alinee con los principios y el marco de actuación de la organización y refleje las necesidades de la comunidad investigadora global.

La IA y el problema de la retractación de artículos científicos

Worlock, David. 2026. AI and the Issue of Science Article Retraction.” DavidWorlock.com, 6 de enero de 2026. https://www.davidworlock.com/2026/01/ai-and-the-issue-of-science-article-retraction/

Se ofrece una reflexión crítica sobre los desafíos que la inteligencia artificial (IA) plantea al sistema de publicación científica, especialmente en lo referente a la integridad del registro científico y el proceso de retractación de artículos académicos.

Worlock parte de una observación fundamental: aunque la IA está transformando profundamente la creación, difusión y análisis de conocimiento, muchos de los problemas estructurales que afectan a la ciencia —como la proliferación de artículos defectuosos, revisiones por pares ineficaces o la falta de mecanismos eficaces para gestionar retractaciones— no se resolverán simplemente mediante la automatización o la adopción de nuevas herramientas tecnológicas.

El autor contextualiza el tema en un contexto más amplio de crisis de confianza en las publicaciones científicas. Señala que la incapacidad del sistema para proporcionar estándares claros y verificables de calidad y autenticidad ha permitido que proliferan trabajos de mala calidad o incluso fraudulentos, muchos de los cuales permanecen en la literatura científica sin una retractación adecuada. Este problema no se limita a casos aislados, sino que forma parte de un sistema que continúa replicando y amplificando errores debido a la presión por publicar y a la ausencia de una infraestructura de retractación centralizada y transparente.

Worlock también examina el rol de la IA en este contexto. Aunque los sistemas de IA tienen la capacidad de procesar grandes volúmenes de información, Worlock advierte que la IA no sustituye la evaluación crítica humana y que los algoritmos pueden incluso exacerbar algunos de los problemas existentes si se utilizan sin criterio. Por ejemplo, las IA pueden integrar contenido repleto de errores metodológicos o datos falsos como si fuera válido, ya que carecen de un juicio epistemológico real para discernir la calidad científica, un reto que otros expertos han también identificado recientemente como un riesgo serio para la confianza en la literatura científica automatizada.

Además, el artículo subraya la importancia de reforzar los mecanismos de retractación. Worlock plantea que la mera existencia de retractaciones no basta si estas no son accesibles, claras y eficientemente comunicadas, algo que muchos investigadores experimentan cuando intentan rastrear qué artículos han sido retirados y por qué. El problema, según él y otros especialistas, radica en que las retractaciones a menudo no están bien etiquetadas ni se integran en los flujos de datos primarios que usan los motores de búsqueda, las bases de datos académicas y los propios sistemas de entrenamiento de modelos de IA.

Una vez que se introducen datos en el modelo de formación de un LLM, no se pueden eliminar. No quiero escribir aquí sobre los actos de piratería cometidos por los actores de la IA de Silicon Valley al retirar masivamente artículos académicos de sitios web a menudo pirateados e ilegales. Sin duda, esos datos incluían artículos retractados que nunca se habían eliminado ni etiquetado como retractados en línea. De hecho, en el mundo anterior a la IA, una de las quejas sobre la búsqueda de artículos académicos era que los artículos retractados rara vez eran evidentes. Solo en épocas más recientes, Retraction Watch y Open Alex comenzaron a señalar qué datos no eran confiables en las bases de datos académicas. En otras palabras, fue la comunidad académica y sin fines de lucro la que acudió al rescate, no el sector editorial con fines de lucro. Se podría considerar cómo podríamos construir modelos más efectivos y precisos en el futuro y cómo podríamos asegurarnos de que el material retractado no se incluya en ellos.

En esencia, Worlock llama a una reforma profunda del ecosistema de publicación científica, donde la IA se utilice no como sustituto de la evaluación humana, sino como complemento que apoye una mayor transparencia, responsabilidad y calidad en la ciencia publicada. Su análisis enfatiza que los avances tecnológicos deben ir acompañados de estructuras éticas y metodológicas que preserven la integridad del registro científico y protejan la confianza pública en la investigación académica.

Cómo utiliza la gente la IA generativa en 2025

Eliot, Lance. “HBR’s Top 10 Uses of AI Puts Therapy and Companionship at the No. 1 Spot.Forbes, May 14, 2025. https://www.forbes.com/sites/lanceeliot/2025/05/14/top-ten-uses-of-ai-puts-therapy-and-companionship-at-the-1-spot/?utm_source=chatgpt.com

El infirme visualiza los principales usos que las personas están dando a la inteligencia artificial generativa en 2025, según un análisis de miles de publicaciones en foros recogido por Harvard Business Review y presentado por Marc Zao-Sanders. La IA generativa experimenta un giro hacia usos más centrados en las personas.

Las tareas tradicionales como generar ideas o búsquedas específicas han sido desplazadas por usos más personales y orientados al bienestar, destacando que la primera posición la ocupa “Therapy & Companionship” (terapia y compañía). Esto indica que muchas personas están recurriendo a la IA no solo como herramienta productiva, sino como apoyo emocional o interlocución constante.

En los nuevos rankings aparecen casos de uso inéditos como “Organize Life” (organizar la vida) y “Find Purpose” (encontrar propósito), posicionándose en segundo y tercer lugar, respectivamente. Estas categorías reflejan que la IA se está integrando en aspectos cotidianos y existenciales de la vida de las personas, ayudando en planificación, reflexión y toma de decisiones personales.

Además, otros usos como “Enhance Learning” (mejorar el aprendizaje) han subido posiciones, lo que sugiere una mayor adopción de la IA para profundizar en comprensión y educación. Usos técnicos como generar código también siguen presentes, aunque más abajo, y categorías lúdicas o creativas como fun & nonsense (diversión y tonterías) siguen teniendo relevancia.

En conjunto, estas tendencias reflejan una evolución desde aplicaciones centradas en tareas específicas o de productividad hacia aplicaciones de bienestar, auto-gestión y apoyo emocional, lo que tiene implicaciones tanto para educadores como para diseñadores de tecnología y políticas públicas.

La IA en 2026: predicciones de analistas y consultoras

Grothaus, Michael. «What Will AI Look Like in 2026? Deloitte, Gartner, Perplexity, and OpenAI Weigh In.» Fast Company, 10 de diciembre de 2024. https://www.fastcompany.com/91454789/2026-ai-deloitte-gartner-perplexity-chatgpt.

En 2025, la inteligencia artificial (IA) —especialmente modelos como ChatGPT y herramientas como Perplexity y Google Gemini— atravesó una etapa de adopción masiva, con cientos de millones de usuarios interactuando semanalmente con sistemas de generación de texto y respuestas. Con 2026 apenas comenzando, expertos de la industria y firmas consultoras han compartido sus previsiones sobre cómo evolucionará la influencia de la IA en tecnología, negocios y sociedad en general.

Uno de los puntos optimistas viene de analistas como Dan Ives de Wedbush, quien afirma que las preocupaciones sobre una “burbuja de IA” están exageradas. Según él, la revolución de la IA apenas empieza y se espera que continúe impulsando el crecimiento del mercado tecnológico durante toda la década, especialmente con la expansión de la automatización y los robots, así como con la adopción empresarial y global de estas soluciones. En su opinión, 2026 será solo el tercer año de un ciclo de diez años de desarrollo y crecimiento sostenido.

No todas las proyecciones son igualmente entusiastas. Gartner advierte sobre un efecto secundario cultural de la creciente dependencia en chatbots y sistemas de IA: una posible “atrofia del pensamiento crítico”. La firma predice que muchas organizaciones podrían confiar demasiado en las respuestas generadas automáticamente por IA, reduciendo la capacidad de evaluar información de forma independiente. Con esta preocupación, Gartner sugiere que hasta la mitad de las organizaciones puedan introducir evaluaciones de habilidades sin IA para contrarrestar esta tendencia.

Otro cambio significativo que se anticipa es la integración más profunda de la IA generativa en herramientas cotidianas, especialmente los motores de búsqueda. Según Deloitte, el uso de IA incrustada directamente en buscadores o aplicaciones populares será mucho más común que el acceso a chatbots independientes. Se proyecta que, a medida que los motores de búsqueda incorporen capacidades de síntesis de lenguaje natural, estas funciones integradas serán utilizadas al menos tres veces más que plataformas de IA aisladas como sitios web de chatbots. Esto podría transformar cómo las personas buscan y procesan información digital en su vida diaria.

En conjunto, estas perspectivas indican que 2026 será un año de consolidación y expansión para la IA, con impactos importantes en mercados financieros, habilidades laborales, comportamiento de los usuarios y arquitectura de las herramientas digitales. La IA no solo seguirá siendo un tema dominante en tecnología, sino que también planteará nuevos desafíos sociales y culturales sobre cómo interactuamos con la información y las máquinas.

Reimaginar los flujos de trabajo de la publicación académica en la era de la inteligencia artificial

Zhou, Hong. “Reimagining Scholarly Publishing Workflow: A High-Level Map of What Changes Next.The Scholarly Kitchen, November 20, 2025. https://scholarlykitchen.sspnet.org/2025/11/20/reimagining-scholarly-publishing-workflow-a-high-level-map-of-what-changes-next/

Se presenta una hoja de ruta estratégica para que la publicación académica se adapte a un entorno acelerado, colaborativo y tecnológicamente complejo, buscando un equilibrio entre automatización inteligente y juicio humano, para producir ciencia más accesible, verificable y relevante tanto para personas como para sistemas automatizados.

Se ofrece una visión panorámica de cómo los flujos de trabajo en la publicación académica deben transformarse ante los desafíos actuales y futuros, destacando que los métodos tradicionales están bajo presión por el aumento exponencial de artículos, limitaciones en la revisión por pares y la creciente complejidad de mantener la integridad científica en un entorno saturado de IA y publicaciones de baja calidad. El autor subraya que la oportunidad real no está en añadir funcionalidades de IA a sistemas antiguos, sino en reimaginar los procesos de forma que la colaboración humano-IA mejore la eficiencia, la calidad y la transparencia. Esto implica repensar estrategias, cultura y tecnología para hacer que los procesos editoriales y de revisión sean más ágiles, basados en datos y sostenibles para una comunidad científica global cada vez más activa.

Una de las primeras transformaciones que plantea el artículo es la evolución del papel de los preprints. En lugar de limitarse a repositorios pasivos, propone que estos se conviertan en aceleradores de investigación: espacios donde se enriquece, verifica y hace descubrible la ciencia antes de su publicación formal. Esto incluye mecanismos automatizados de calidad, traducción y resúmenes generados con IA, así como herramientas que faciliten la participación comunitaria en evaluaciones de novedad, reproducibilidad y comentarios ligeros. El objetivo es acelerar la “tríaje” editorial y reducir la carga de trabajo de editores y revisores, al tiempo que se respalda la ciencia abierta y colaborativa.

A continuación, el autor aborda cómo deberían evolucionar los sistemas de presentación de manuscritos y control de calidad desde la etapa inicial, sugiriendo asistentes inteligentes que orienten a los investigadores en la preparación de sus textos, verifiquen el cumplimiento de directrices éticas y de estilo, y automaticen tareas administrativas como la elegibilidad de acuerdos transformativos o la transferencia entre revistas. Esto redunda en mejoras tanto para autores, al recibir retroalimentación temprana, como para editores, quienes reciben documentos con mayor calidad estructural y documental.

El texto también propone un cambio de paradigma en los procesos de verificación de integridad y revisión por pares, pasando de modelos reactivos que simplemente detectan problemas, a enfoques proactivos centrados en asegurar cumplimiento de políticas claras, trazabilidad de la procedencia y herramientas automatizadas que prevengan errores antes de que lleguen a etapas avanzadas. Según el autor, esto incluye el uso de marcos y estándares compartidos para clasificar situaciones de integridad, y sistemas predictivos que prioricen verificaciones basadas en patrones de riesgo identificados por IA.

En los procesos de producción editorial, se destaca que la IA puede automatizar buena parte de las tareas repetitivas —como edición de estilo, maquetación y pruebas tipográficas—, dejando a los humanos el control de las decisiones que implican juicio contextual o la preservación de la voz del autor. El modelo ideal combina eficiencia de IA con supervisión humana cuidadosa, posibilitando desde publicaciones multilingües y accesibles hasta producciones enriquecidas con resúmenes para audiencias amplias y formatos adaptados.

Por último, el artículo explora cómo los sitios de publicación y la difusión de contenidos deben evolucionar hacia modelos “machine-first” que no solo atiendan a lectores humanos sino que también faciliten el acceso y procesamiento por parte de herramientas de IA. Esto incluye APIs como fuente única de verdad, identificadores duraderos para versiones y retractaciones, y métricas que valoren la capacidad de un artículo para ser interpretado por máquinas y asistentes inteligentes, por encima de indicadores tradicionales como clics o visitas. Esta transición supone un cambio cultural que redefine el papel de editores, autores y plataformas en una economía de visibilidad informada por IA.

¿Qué está pasando con la lectura? Para muchas personas la IA podría estar poniendo fin a la era del texto tradicional.

Rothman, Joshua. “What’s Happening to Reading?The New Yorker, junio, 2025. https://www.newyorker.com/culture/open-questions/whats-happening-to-reading

El ensayo reflexiona sobre cómo ha cambiado radicalmente la experiencia de la lectura en la era digital. Durante décadas, leer un libro —práctica sostenida y profunda— era una actividad relativamente constante. Sin embargo, la omnipresencia de los teléfonos inteligentes, la diversidad de contenidos y la velocidad de la información han fragmentado ese acto. La lectura intensa, entendida como el seguimiento paciente y reflexivo de un texto, ya no es lo habitual; en su lugar, predomina una lectura dispersa, alternando entre distintos formatos, plataformas y dispositivos.

Hoy, leer implica interactuar con múltiples medios: libros impresos o digitales, audiolibros, blogs, redes sociales y mensajes breves. Este cambio ha creado una lectura que es a la vez dispersa y concentrada: difusa en su distribución, pero intensamente personalizada en su consumo. La competencia de otros entretenimientos —series, videojuegos, podcasts o videos— reduce la disponibilidad de tiempo y concentración para la lectura profunda, modificando la manera en que los lectores se relacionan con los textos.

El ensayo también aborda el impacto de la inteligencia artificial. Con herramientas capaces de resumir, condensar o reformular textos, la lectura se convierte en una experiencia modular y pragmática. Muchos lectores podrían depender de versiones abreviadas o reinterpretadas generadas por máquinas, lo que podría desplazar el hábito de enfrentarse directamente a la obra original. Esto redefine lo que significa leer, privilegiando la eficiencia y la utilidad sobre la comprensión profunda y sostenida.

Finalmente, se reflexiona sobre las consecuencias culturales de estos cambios. La lectura tradicional podría convertirse en una práctica minoritaria, apreciada por unos pocos, mientras que la mayoría interactúa con textos a través de formatos asistidos por IA o simplificados. La lectura no desaparece, pero su naturaleza y propósito se transforman: deja de ser un ejercicio de concentración y pensamiento crítico para convertirse en una práctica más flexible, inmediata y mediada por la tecnología.

Inteligencia artificial y huella ambiental

Crownhart, Casey. “In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, 21 ago. 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy/

Un análisis basado en un informe técnico de Google que desglosa, por primera vez con detalle, la huella ambiental de las consultas al sistema de inteligencia artificial Gemini.

Google reveló que una consulta de texto típica —evaluada por la mediana de uso, es decir, aquella que se sitúa en el centro de la distribución de todos los prompts— consume aproximadamente 0,24 vatios-hora (Wh) de electricidad, genera cerca de 0,03 gramos de dióxido de carbono equivalente (gCO₂e) y requiere alrededor de 0,26 mililitros de agua, lo que equivale a unas cinco gotas. Para ponerlo en perspectiva cotidiana, la compañía equiparó esa cifra energética con la que emplea encender una televisión durante menos de nueve segundos. Estas métricas son parte de una metodología “full stack” desarrollada por Google, que intenta medir no solo el consumo directo de los procesadores de IA, sino también el uso de energía en sistemas auxiliares, memoria, infraestructura en reposo y refrigeración.

Google además destacó que la eficiencia de Gemini ha mejorado de forma dramática en el último año: desde mayo de 2024 hasta mayo de 2025, el consumo energético por consulta se redujo 33 veces y la huella de carbono se redujo 44 veces, mientras que, paralelamente, la calidad de las respuestas del modelo fue incrementándose. Estos avances se atribuyen a mejoras tanto de software —optimización de los modelos y algoritmos— como de hardware e infraestructura en los centros de datos de Google. La divulgación de estos datos se presenta como un paso hacia una mayor transparencia en el sector tecnológico, dada la creciente preocupación global por el impacto ambiental de los grandes modelos de IA y el uso masivo de energía de los centros de datos que los soportan.

Sin embargo, este enfoque también ha generado debate entre expertos ambientales. Algunos especialistas señalan que las cifras oficiales de Google, aunque impresionantes, pueden quedar cortas si no consideran factores indirectos más amplios, como la energía consumida por la generación eléctrica o el impacto del entrenamiento de los modelos a gran escala, que históricamente ha requerido volúmenes de energía y recursos muchísimo mayores que la inferencia diaria. Además, la extrapolación del consumo por prompt individual a escala global —con miles de millones de interacciones diarias— subraya que incluso pequeños valores por consulta pueden traducirse en una carga energética significativa cuando se multiplican por volumen de uso. Estas discusiones ponen de relieve la complejidad de medir con precisión el impacto ecológico de las tecnologías de IA y la necesidad de métricas estandarizadas en toda la industria.