Archivo de la categoría: Tecnologías de la información

Los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba

METR. «Measuring AI Ability to Complete Long TasksMETR, March 19, 2025. https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/?utm_source=superhuman&utm_medium=newsletter&utm_campaign=claude-finally-gets-search&_bhlid=a3d8e301d66bd7aba2dd5de5253b42c092fb3f57

Este enfoque destaca la necesidad de medir la capacidad de la IA no solo en términos de sus habilidades de predicción o conocimiento, sino también en la capacidad para realizar tareas complejas a lo largo del tiempo. Los resultados de este estudio tienen implicaciones significativas tanto para las predicciones sobre el futuro de la IA como para la gestión de riesgos asociados a su adopción.

Un estudio reciente ha revelado que los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba. El grupo de investigación METR ha descubierto que el tiempo que los Modelos de Lenguaje Grande (LLMs) pueden abordar tareas parece duplicarse cada siete meses, lo que es incluso más rápido que la Ley de Moore, que establece que la capacidad de los chips se duplica aproximadamente cada dos años.

Para ponerlo en perspectiva, el modelo Claude Sonnet 3.7 ahora puede realizar tareas que a los humanos les tomarían una hora, mientras que modelos como el GPT-4 de 2023 solo podían realizar tareas de cinco minutos, como buscar un hecho específico en la web. Modelos anteriores como el GPT-3.5 de 2022 solo podían hacer tareas que nos tomarían menos de un minuto, como recordar algo previamente conocido.

Si esta tendencia continúa, en uno o dos años los modelos de IA podrían ser capaces de realizar tareas de cuatro horas. Se espera que para 2029 la IA sea capaz de realizar tareas que le tomarían a los humanos un mes entero, como iniciar un negocio o hacer un nuevo descubrimiento científico. Sin embargo, dado que los LLMs son relativamente nuevos, solo se dispone de cuatro o cinco años de datos, por lo que estos resultados deben tomarse con cautela.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

La transformación inminente de la investigación: enfrentando el iceberg de la inteligencia artificial

Daley, Mark. «What We Really Need Is a ‘Deck Chair Configuration’ Committee… Facing the Uncomfortable AI Research Iceberg Noetic Engines, February 11, 2025. https://noeticengines.substack.com/p/what-we-really-need-is-a-deck-chair

Se aborda de manera crítica la tendencia actual en la investigación sobre la inteligencia artificial (IA), que se ha centrado en adoptar la IA de forma incremental, mejorando herramientas existentes, como la corrección de textos o la gestión de referencias. Aunque estas mejoras son útiles, Daley argumenta que estas pequeñas modificaciones son apenas la punta del iceberg de lo que la IA puede ofrecer en el ámbito de la investigación, y que en realidad estamos al borde de una transformación mucho más profunda.

Daley menciona el estudio Wiley ExplanAItions, que concluye que en un par de años, la IA ayudará a los investigadores a realizar tareas como resumir artículos más rápidamente o generar citas más precisas. Sin embargo, esta visión de la IA se queda corta al no considerar los avances que ya están ocurriendo. Según el autor, la verdadera revolución no está solo en mejorar las herramientas actuales, sino en que la IA está avanzando hacia un futuro en el que será capaz de ejecutar todo el proceso de investigación de manera autónoma en ciertos campos. Esto incluye la capacidad de generar nuevas hipótesis, diseñar y realizar experimentos complejos, analizar los datos y generar conclusiones escritas que podrían ser sometidas a una revisión por pares.

El autor resalta que este cambio ya es una realidad, mencionando ejemplos concretos, como el uso de la IA o1-pro en la investigación económica, que permitió a un investigador realizar un trabajo con suficiente novedad y mérito para ser publicado en una revista científica. Además, se menciona cómo otras aplicaciones de IA ya están escribiendo tesis de doctorado, lo que implica que las herramientas de IA no solo están mejorando la eficiencia de los investigadores, sino que están comenzando a reemplazar ciertas habilidades humanas clave en el proceso de investigación.

Daley advierte que centrarse únicamente en soluciones a corto plazo, como la mejora de la corrección de citas, sin tener en cuenta el potencial transformador de la IA, es comparable a centrarse en la mejora de un establo de caballos cuando los automóviles están a punto de hacer obsoleta esa industria. En su opinión, la IA está avanzando rápidamente más allá de tareas secundarias y está comenzando a asumir tareas que históricamente solo podían ser realizadas por seres humanos, como la formulación de hipótesis y el diseño de experimentos.

En cuanto a las implicaciones éticas, el artículo menciona la necesidad de replantear la forma en que la academia aborda la IA. Aunque los investigadores y líderes académicos a menudo subestiman la velocidad y el impacto de estos cambios, Daley subraya que esperar hasta que la IA esté realizando investigaciones completas será un error, ya que para ese momento podría ser demasiado tarde para desarrollar políticas y estructuras adecuadas que garanticen la integridad académica y la calidad de la investigación.

Finalmente, Daley hace una llamada a la acción por parte de la academia. En lugar de conformarse con pequeños avances y adaptaciones, el autor insta a los académicos a prepararse para una transformación profunda de la investigación científica. Esto no significa que los investigadores humanos desaparezcan, sino que deberán adaptarse y trabajar junto con la IA de una manera más integral. La clave será anticiparse a los cambios y reestructurar cómo se lleva a cabo, se evalúa y se recompensa la investigación en este nuevo ecosistema impulsado por la IA.

AI Index 2025: impacto creciente de la inteligencia artificial en la sociedad, la economía, la educación y la ciencia

Stanford Institute for Human-Centered Artificial Intelligence (HAI). 2025. The AI Index Report 2025. Stanford University, 2025

Texto completo

El informe AI Index 2025 analiza el impacto creciente de la inteligencia artificial en la sociedad, la economía, la educación y la ciencia, ofreciendo datos objetivos para informar a líderes políticos, empresas y ciudadanos.

La influencia de la inteligencia artificial (IA) en la sociedad nunca ha sido tan pronunciada. En el Stanford HAI, se considera que la IA está destinada a ser la tecnología más transformadora del siglo XXI. Sin embargo, sus beneficios no se distribuirán de manera equitativa a menos que se guíe su desarrollo de manera reflexiva. El AI Index ofrece una de las visiones más completas y basadas en datos de la inteligencia artificial. Reconocido como un recurso confiable por medios globales, gobiernos y empresas líderes, el AI Index proporciona a los responsables políticos, líderes empresariales y al público en general información rigurosa y objetiva sobre el progreso técnico de la IA, su influencia económica y su impacto social.

  1. Mejoras destacadas en el rendimiento
    Los sistemas de IA superaron significativamente los nuevos estándares de evaluación como MMMU, GPQA y SWE-bench. En programación, algunos modelos superaron a los humanos en un tiempo limitado.
  2. Aumenta la integración en la vida cotidiana
    La IA se utiliza cada vez más en sectores como la sanidad y el transporte. La FDA aprobó 223 dispositivos médicos con IA en 2023. Waymo ofrece más de 150.000 viajes autónomos semanales y Baidu amplía su flota de robotaxis en China.
  3. El auge empresarial de la IA
    Inversión privada en IA en EE.UU. UU. alcanzó los 109.100 millones de dólares, muy por encima de China y Reino Unido. El 78% de las organizaciones utilizarán IA en 2024, en comparación con el 55% en 2023. Hay un impacto positivo en la productividad y la reducción de las brechas de habilidades.
  4. Liderazgo en EE. UU. y el ascenso de China
    EE. UU. Produzco 40 modelos destacados en 2024, en comparación con 15 en China. Sin embargo, China está cerrando rápidamente la brecha de calidad, además de liderar en publicaciones y patentes.
  5. Avances desiguales en la IA responsable
    A medida que aumentan los incidentes relacionados con la IA, pocos desarrolladores aplican evaluaciones estandarizadas. Nuevos hitos como HELM Safety y AIR-Bench ayudan, pero las acciones concretas en las empresas siguen siendo limitadas. Por el contrario, los gobiernos están intensificando su regulación.
  6. Optimismo global desigual
    Países asiáticos como China (83%) e Indonesia (80%) ven la IA como algo positivo, mientras que en EE. UU. UU. y Canadá sólo el 39-40%. Como resultado, la percepción está mejorando en países anteriormente escépticos como Alemania y Francia.
  7. Mayor eficiencia y accesibilidad
    El costo de inferencia de modelos como GPT-3.5 ha disminuido más de 280 veces a lo largo de los años. También reduce los costos de hardware y mejora la eficiencia energética. Los modelos de código abierto se están acercando en rendimiento a los cerrados.
  8. Regulación e inversión estatal
    EE. UU. emitió 59 regulaciones sobre IA en 2024, más del doble que en 2023. Otros países también están intensificando fuertemente: China (47.500 millones de dólares), Arabia Saudita (100.000 millones de dólares), Francia (109.000 millones de euros), entre otros.
  9. La educación en IA se está expandiendo, pero con brechas
    El 66% de los países ofrecen o planean ofrecer educación informática primaria/secundaria, con avances importantes en África y América Latina. Sin embargo, persisten problemas de infraestructura y de formación docente.
  10. La industria domina el desarrollo de modelos
    El 90% de los modelos destacados provienen del sector industrial. A medida que las universidades continúan liderando la investigación, la competencia en el desarrollo de modelos se intensifica.
  11. Reconocimiento científico
    La IA ha sido galardonada con el Premio Nobel (física y química) y un Premio Turing, en reconocimiento a su impacto en áreas como el aprendizaje profundo y el procesamiento de proteínas.
  12. Limitaciones del razonamiento comprensivo
    A pesar de los avances, los modelos de IA aún fallan en tareas de lógica compleja y razonamiento estructurado, lo que limita su aplicación en contextos críticos donde la precisión es vital.

Anthropic anuncia que Claude ya puede acceder a Gmail, Google Calendar y Google Docs

Zeff, Maxwell. 2025. “Anthropic’s Claude Can Now Read Your Gmail.TechCrunch, April 15, 2025. https://techcrunch.com/2025/04/15/anthropics-claude-now-read-your-gmail/

Anthropic informó que su chatbot de inteligencia artificial, Claude, ahora se integra con Google Workspace, permitiéndole acceder a correos electrónicos en Gmail, eventos programados en Google Calendar y documentos en Google Docs.

Esta funcionalidad está en fase beta y está disponible para los suscriptores de los planes Max, Team, Enterprise y Pro. Para las cuentas corporativas, será necesario que los administradores activen previamente la integración.

Con esta nueva herramienta, Claude se posiciona como uno de los primeros chatbots de terceros que se conectan profundamente con el ecosistema de productividad de Google, en competencia directa con Gemini de Google DeepMind y ChatGPT de OpenAI (este último ya permite acceso a archivos de Google Drive).

La integración busca ofrecer respuestas personalizadas sin necesidad de que el usuario suba archivos o escriba indicaciones complejas. Claude podrá escanear correos y calendarios, por ejemplo, para ayudar a padres a identificar compromisos importantes y buscar información relevante como calendarios escolares, eventos comunitarios o pronósticos del tiempo.

Uno de los aspectos más destacados es que Claude ofrecerá citas en línea (inline citations), mostrando al usuario la fuente precisa de la información que utiliza desde Google Workspace.

Sin embargo, esta funcionalidad también ha generado preocupaciones sobre la privacidad y seguridad de los datos, ya que no está completamente claro el alcance de la búsqueda que Claude puede realizar en los contenidos del usuario. Por ejemplo, no se especifica si Claude necesita instrucciones explícitas para acceder a ciertos correos o si puede consultar datos sensibles automáticamente. Tampoco se ha aclarado si el usuario puede restringir el acceso a determinados archivos.

En respuesta a estas inquietudes, un portavoz de Anthropic aseguró que la empresa no utiliza los datos de los usuarios para entrenar sus modelos, y que ha implementado mecanismos rigurosos de autenticación y control de acceso. Cada conexión con servicios externos está ligada exclusivamente al usuario o institución correspondiente y Claude no puede compartir información entre cuentas.

Además de esta integración, Anthropic lanzó también una nueva función llamada Claude Research, un sistema de búsqueda profunda que realiza múltiples consultas web para ofrecer respuestas detalladas. Esta herramienta compite directamente con los agentes de investigación avanzados de OpenAI y Google, y promete un equilibrio óptimo entre velocidad y exhaustividad. Según la compañía, las búsquedas de Claude Research tardan menos de un minuto en completarse.

Claude Research está disponible inicialmente en Estados Unidos, Japón y Brasil para usuarios de los planes Max, Team y Enterprise, y llegará próximamente a los suscriptores del plan Pro.

Ambas novedades se enmarcan en la estrategia de Anthropic para atraer nuevos usuarios a sus planes de suscripción. Aunque Claude ha ganado popularidad —con 3,3 millones de usuarios web en marzo de 2025—, su base de usuarios aún es considerablemente más pequeña que la de ChatGPT.

El consumo energético de los centros de datos a consecuencia del uso de IA se duplicará en cinco años

Zeff, Maxwell. «An Answer to AI’s Energy Addiction? More AI, Says the IEAThe Next Web, April 10, 2025. https://thenextweb.com/news/answer-to-ai-energy-consumption-is-more-ai-says-iea.

La Agencia Internacional de la Energía (AIE) ha publicado su primer gran informe sobre el impacto del auge de la inteligencia artificial en el consumo energético global, con resultados preocupantes y algo contradictorios.

Según el informe, el consumo energético de los centros de datos, especialmente por aplicaciones de IA, se duplicará en cinco años, alcanzando el 3% del uso energético mundial. La IA será responsable de más de la mitad de este crecimiento. Algunos centros consumen ya tanta electricidad como 100.000 hogares, y en el futuro podrían multiplicar por 20 ese número.

Aunque se espera que para 2030 los centros usen un 50% de energía renovable, el resto provendrá de carbón, gas natural y energía nuclear, lo que plantea serios retos climáticos. No obstante, la AIE ve una oportunidad en la IA: puede optimizar redes eléctricas, mejorar la predicción del clima, detectar fugas o descubrir nuevos materiales sostenibles. Pero advierte que estos beneficios serán marginales si no se crean condiciones adecuadas desde los gobiernos.

El informe ha generado controversia. Críticos como Alex de Vries creen que la AIE subestima el consumo energético de la IA, que podría comprometer los objetivos climáticos. Otros, como Claude Turmes, ministro de Energía de Luxemburgo, acusan a la AIE de presentar una visión demasiado optimista y de favorecer intereses políticos y corporativos.

Algunas soluciones sostenibles ya existen, como la refrigeración por inmersión o el reaprovechamiento del calor de los centros de datos, pero deben escalarse rápidamente. Y, sobre todo, será clave usar la capacidad informática con más criterio.

Chatbots de IA y catalogación por materias: una prueba de rendimiento

​Dobreski, Brian, and Christopher Hastings. «AI Chatbots and Subject Cataloging: A Performance Test.» Library Resources & Technical Services 69, no. 2 (2025): https://doi.org/10.5860/lrts.69n2.8440

Se analiza el uso de chatbots basados en inteligencia artificial (IA) para realizar tareas de catalogación temática en bibliotecas. En un contexto donde las tecnologías basadas en modelos de lenguaje están en expansión, y las bibliotecas exploran nuevas formas de integrar herramientas digitales para optimizar sus flujos de trabajo, este estudio aporta evidencia empírica al debate sobre si los chatbots gratuitos como ChatGPT, Gemini y Copilot pueden asumir tareas complejas de catalogación, en particular la asignación de encabezamientos de materia y números de clasificación.

Los autores enmarcan su investigación en el creciente interés que ha despertado la IA en el mundo bibliotecario. Numerosos profesionales han empezado a experimentar con estas herramientas en áreas como servicios de referencia, gestión de colecciones y asesoría a lectores. Sin embargo, en el área específica de la catalogación temática, persisten dudas significativas sobre la precisión, fiabilidad y utilidad de los chatbots. La catalogación por materias implica analizar el contenido intelectual de los recursos para identificar su “aboutness” o tema central, y luego representar ese contenido mediante sistemas normativos como el Library of Congress Subject Headings (LCSH), el Library of Congress Classification (LCC) y el Dewey Decimal Classification (DDC). Estos sistemas son altamente estructurados, complejos y requieren formación especializada para ser utilizados con precisión.

Para poner a prueba las capacidades de los chatbots, los investigadores diseñaron un experimento basado en el libro didáctico Essential Classification de Vanda Broughton, una obra ampliamente reconocida en el ámbito de la catalogación. De este libro se extrajeron una serie de ejercicios reales de catalogación que fueron transformados en 98 preguntas, diseñadas para ser comprensibles incluso para estudiantes principiantes. Estas preguntas fueron clasificadas en tres categorías: 50 sobre LCSH, 25 sobre LCC y 23 sobre DDC. Las preguntas fueron presentadas directamente a los chatbots en su versión gratuita, sin uso de ingeniería de prompts ni ajustes en la formulación, con el objetivo de simular una interacción básica y accesible para cualquier bibliotecario sin experiencia técnica avanzada.

Las respuestas obtenidas por los tres chatbots fueron evaluadas minuciosamente y comparadas con las soluciones propuestas por el texto de Broughton. Para determinar su calidad, se tomaron en cuenta criterios como exactitud, validez dentro del sistema de clasificación, adecuación al tema y presencia de errores evidentes o alucinaciones (es decir, invenciones de términos o números inexistentes). Los resultados fueron reveladores. En el caso de los ejercicios de clasificación Dewey (DDC), el desempeño general fue bajo en todos los modelos. ChatGPT logró la puntuación más alta con un 26% de respuestas correctas o aceptables, mientras que Gemini obtuvo un 17% y Copilot apenas un 9%. Los errores comunes incluyeron el uso de números demasiado amplios, números correspondientes a temas incorrectos y, en algunos casos, números inexistentes.

El panorama fue aún más desalentador en la asignación de números de clasificación de la Biblioteca del Congreso (LCC). Gemini mostró un rendimiento particularmente deficiente, con una tasa de éxito del 4%, frente al 20% de ChatGPT y el 24% de Copilot. En esta categoría, los errores fueron más graves: se detectaron alucinaciones frecuentes de números inexistentes, uso incorrecto de clases generales, y asignaciones sin fundamento temático adecuado. Además, las herramientas mostraron una preocupante tendencia a reutilizar códigos ya vistos en preguntas anteriores para temas completamente diferentes, un comportamiento que pone en duda la capacidad de los chatbots para mantener consistencia temática.

En cuanto a la asignación de encabezamientos de materia LCSH, los resultados mostraron diferencias más marcadas entre los modelos. ChatGPT destacó en esta categoría, alcanzando un 54% de aciertos entre respuestas correctas, cercanas o aceptables. Gemini quedó atrás con un 26%, y Copilot tuvo el rendimiento más bajo con un 10%. Aunque la mayoría de las respuestas contenían múltiples encabezamientos sugeridos, los investigadores evaluaron el mejor de cada caso para determinar la puntuación final. ChatGPT no solo generó una mayor cantidad de encabezamientos por pregunta (promedio de 6), sino que también mostró una tasa más alta de validez semántica y estructural (63% de todos los encabezamientos sugeridos eran válidos según el sistema LCSH). Sin embargo, también cometió errores notables, como omitir subdivisiones esenciales o proponer encabezamientos demasiado generales.

Un hallazgo interesante fue la divergencia en los tipos de errores cometidos por cada chatbot. Por ejemplo, Gemini tendía a agregar subdivisiones innecesarias o inventadas, muchas veces encerradas entre corchetes, lo que indicaba inseguridad en la elección de términos. Copilot, por otro lado, proponía encabezamientos muy generales o usaba una estrategia facetada sin combinarlos en una sola cadena coherente, lo que podría hacerlo más apto para sistemas como FAST en lugar de LCSH. ChatGPT, aunque más preciso, también incurría en errores típicos de omisión o simplificación excesiva.

Los autores argumentan que, aunque ningún chatbot fue capaz de reemplazar el juicio experto del catalogador, ChatGPT mostró un nivel de rendimiento que sugiere un potencial moderado como herramienta de apoyo, especialmente en la generación de encabezamientos de materia. Sin embargo, recalcan que la intervención humana sigue siendo indispensable para verificar la existencia y pertinencia de los términos propuestos, así como para ajustar los resultados a las reglas específicas de cada sistema. De hecho, la utilidad real de estas herramientas podría residir más en su capacidad para ofrecer un punto de partida que en su aptitud para realizar tareas completas de forma autónoma.

El estudio no estuvo exento de limitaciones importantes, como el uso exclusivo de versiones gratuitas de los chatbots, la falta de interacción iterativa o de re-prompting, y el hecho de evaluar solo una respuesta por pregunta, lo cual puede dar una imagen más positiva de la real capacidad de estas herramientas. Además, los ejercicios seleccionados estaban diseñados para formar estudiantes en proceso de aprendizaje, y no necesariamente para ser evaluados bajo criterios estrictos de rendimiento profesional.

A modo de cierre, los autores señalan varias líneas prometedoras para futuras investigaciones. Entre ellas se incluyen la repetición del estudio con versiones futuras o de pago de los chatbots, la incorporación de ingeniería de prompts más compleja, y la comparación del rendimiento entre chatbots, catalogadores novatos y catalogadores que utilizan IA como apoyo. También sugieren explorar el uso de chatbots con otros sistemas de clasificación más simples o especializados, como FAST o MeSH, que podrían ser más compatibles con las limitaciones de las herramientas actuales.

En conclusión, este estudio ofrece una valiosa contribución al debate sobre el uso de IA en bibliotecas, evidenciando que aunque los chatbots no están listos para asumir tareas de catalogación temática de forma autónoma, podrían desempeñar un papel útil si son usados con criterio profesional. La clave está en combinar el potencial de la IA con el conocimiento experto del personal bibliotecario, así como en fomentar una alfabetización en IA que permita a los profesionales utilizar estas herramientas de manera crítica, efectiva y ética en el contexto de la gestión de la información.

La demanda energética de los centros de datos de IA se cuadruplicará para 2030

International Energy Agency (IEA). Energy and AI. 2025. https://www.iea.org/reports/energy-and-ai.

Un informe de la Agencia Internacional de Energía (AIE) prevé que la demanda energética de los centros de datos de IA se cuadruplicará para 2030, lo que podría superar a la demanda de industrias como la fabricación de acero. Aunque el impacto ambiental de la IA ha sido exagerado, el uso de IA puede optimizar sistemas energéticos y mejorar la eficiencia industrial. Sin embargo, el rápido crecimiento de la IA podría dañar los avances hacia la sostenibilidad sin una regulación adecuada.

​La creciente adopción de la inteligencia artificial (IA) está generando preocupaciones sobre su impacto ambiental, especialmente en términos de consumo energético y emisiones de carbono. Los centros de datos dedicados a la IA son los principales impulsores de este aumento en la demanda energética. Se prevé que el consumo eléctrico global de estos centros se duplique para 2030, con una cuadruplicación en los centros dedicados exclusivamente a IA. En Estados Unidos, se estima que el procesamiento de datos para IA consumirá más electricidad que la fabricación combinada de acero, cemento, productos químicos y otros bienes intensivos en energía. ​

Además del consumo eléctrico, los centros de datos requieren grandes cantidades de agua para su refrigeración. Un estudio sugiere que la IA podría representar hasta 6.600 millones de metros cúbicos de uso de agua para 2027, casi dos tercios del consumo anual de Inglaterra.

Sin embargo, algunos expertos argumentan que los temores sobre el impacto climático de la IA pueden estar exagerados. La Agencia Internacional de Energía (AIE) señala que, aunque la adopción de IA aumentará la demanda energética, también ofrece oportunidades para mejorar la eficiencia energética en otros sectores, lo que podría contrarrestar parcialmente el aumento en el consumo. Además, la AIE destaca que la IA podría facilitar el diseño de redes eléctricas más integradas con fuentes de energía renovable y mejorar la eficiencia en procesos industriales, contribuyendo a reducir las emisiones de gases de efecto invernadero.

Gemini permite convertir tus documentos de Google Docs en podcast, mejorar la escritura y generar gráficos

Google ha integrado nuevas funciones de su asistente de inteligencia artificial, Gemini, en Google Workspace. Una de las más destacadas es la capacidad de convertir documentos de Google Docs en podcasts. Ahora, al generar un informe o artículo, puedes obtener un resumen en audio con dos voces de IA que conversan sobre los puntos clave del texto. Esto facilita la revisión auditiva de tu trabajo y lo hace más accesible, especialmente para personas con discapacidades visuales o de lectura.

Además, Gemini introduce la función «Ayúdame a mejorar» en Google Docs, un editor virtual que sugiere mejoras en la redacción y estructura del texto. Esta herramienta estará disponible próximamente. También se está desarrollando una función para Google Sheets llamada «Ayúdame a analizar», que utiliza Gemini para analizar datos y generar gráficos, facilitando la interpretación de hojas de cálculo sin necesidad de ser un experto.

Aunque la idea de que una IA lea o resuma tu trabajo puede parecer extraña, estas funciones están diseñadas para complementar y amplificar nuestras capacidades, no para reemplazarnos. Con estas herramientas, el futuro del trabajo y la educación podría incluir resúmenes dinámicos de textos y análisis de datos más accesibles y rápidos.

Dune de Frank Herbert y la inteligencia artificial: la verdadera amenaza no son las máquinas, sino quienes las controlan

«Una vez los hombres entregaron su pensamiento a las máquinas con la esperanza de que esto les liberaría. Pero eso sólo permitió que otros hombres con máquinas los esclavizaran».

Frank Herbert, Dune

Frank Herbert, autor de Dune, ofrece en su obra una advertencia que trasciende los tópicos habituales de la ciencia ficción sobre inteligencia artificial. En lugar de imaginar máquinas autoconscientes que se rebelan contra la humanidad —como ocurre en Terminator o con HAL 9000 en 2001: Odisea del espacio—, Herbert sitúa el verdadero peligro no en la IA en sí, sino en los seres humanos que la crean y la controlan. En una frase clave que aparece en la Biblia Católica Naranja, Paul Atreides recuerda: «Hubo un tiempo en que los hombres entregaron su pensamiento a las máquinas con la esperanza de que eso los liberara. Pero eso solo permitió que otros hombres, con máquinas, los esclavizaran.» (Dune, pág. 14). Esta línea condensa una advertencia profundamente política, filosófica y atemporal.

Herbert denuncia el acto de renunciar al pensamiento propio, de delegar en sistemas automáticos lo que debería seguir siendo responsabilidad humana: el juicio, la reflexión y la toma de decisiones. El problema, según él, no es que las máquinas adquieran conciencia o se vuelvan más inteligentes que nosotros, sino que permitimos que nos reemplacen en funciones esenciales para nuestra autonomía. En ese sentido, Dune no plantea un problema de control técnico de la IA, sino un dilema existencial y ético: al dejar de pensar por nosotros mismos, quedamos a merced de quienes programan, gestionan o se benefician de esos sistemas.

Esta crítica se hace visible en el universo de Dune a través de su solución radical: después de una guerra apocalíptica contra las máquinas pensantes (la Yihad Butleriana), la humanidad renuncia por completo al desarrollo de inteligencias artificiales. En su lugar, decide potenciar al máximo las capacidades humanas, dando lugar a figuras como los Mentats (calculadores lógicos), las Bene Gesserit (entrenadas en el autocontrol y la manipulación mental) y los Navegantes de la Cofradía (capaces de prever rutas del espacio-tiempo). Todo esto responde a una visión en la que la evolución humana debe basarse en la interioridad, no en la externalización tecnológica.

Mientras otros autores de ciencia ficción, como Isaac Asimov, proponían leyes para controlar a los robots, o mostraban futuros donde la IA se descontrola, Herbert plantea que la verdadera esclavitud surge cuando dejamos que otros piensen por nosotros, aunque sea a través de máquinas muy eficientes. Su mensaje sigue teniendo una vigencia asombrosa: en plena era de algoritmos que condicionan nuestras elecciones, desde lo que compramos hasta lo que votamos, el peligro no está en la inteligencia de la IA, sino en la pasividad de los usuarios y en el poder acumulado por quienes la manejan.

Lejos de ser un tecnófobo, Herbert fue un visionario que supo ver que el mayor riesgo no es la rebelión de las máquinas, sino la rendición del pensamiento humano. Su obra es una llamada a no entregar nuestras decisiones más importantes —ni nuestra libertad— a sistemas que prometen eficiencia a costa de autonomía. En ese sentido, Dune ofrece una advertencia más relevante que nunca en la era de la inteligencia artificial.