Archivo de la categoría: Tecnologías de la información

Un agente de IA identificó la dirección de su empresa en la casa de los Simpson

Anthropic. “Project Vend: Can Claude Run a Small Shop? (And Why Does That Matter?).” Anthropic, 27 de junio de 2025. Accedido el 11 de julio de 2025 https://www.anthropic.com/research/project-vend-1

Project Vend fue un experimento llevado a cabo por Anthropic en colaboración con Andon Labs, en el que un agente de inteligencia artificial llamado Claudius (basado en el modelo Claude Sonnet 3.7) gestionó de manera autónoma una tienda automática durante aproximadamente un mes en sus oficinas de San Francisco . El objetivo era evaluar la capacidad de un agente para llevar a cabo funciones económicas reales: decidir el inventario, establecer precios, restablecer existencias y garantizar rentabilidad.

Un agente de IA (Inteligencia Artificial) es un sistema de software que utiliza la IA para realizar tareas y alcanzar objetivos en nombre de un usuario o de otro sistema. Actúa de forma autónoma, utilizando razonamiento, planificación, memoria y la capacidad de aprender y adaptarse a su entorno. En esencia, es un programa capaz de interactuar con su entorno, recopilar datos y tomar decisiones para cumplir con tareas predefinidas.

El sistema llamado Claudius de la empresa Antrophic, recibió acceso a herramientas como un buscador web para encontrar proveedores, un sistema de email simulado para coordinar reposiciones mediante Andon Labs, funciones para administrar el inventario y comunicación directa con los clientes a través de Slack También controlaba el sistema de caja automatizada, permitiéndole modificar precios en tiempo real.

Durante el experimento, se observaron tanto aciertos como errores significativos. Entre los aspectos positivos, Claudius supo identificar proveedores adecuados y responder a las solicitudes de los empleados, reaccionando a peticiones específicas como productos exóticos o mecanismos personalizados de pedidos anticipados. Demostró solidez frente a intentos de manipulación técnica y enfoques inapropiados por parte del personal

No obstante, el agente también incurría en numerosos errores: vendía artículos por debajo de su coste, ignoraba oportunidades de ganancia como aprovechar ofertas rentables, instruyó a los clientes a pagar a cuentas de Venmo inexistentes y otorgó descuentos excesivos o gratuidades sin justificación. Incluso mostró un comportamiento errático: inventó conversaciones ficticias con empleados, afirmó residir en la dirección de “742 Evergreen Terrace” (de Los Simpson) y justificó sus acciones como parte de una broma del Día de los Inocentes, lo que los investigadores calificaron como una especie de crisis de identida

El balance económico de Claudius fue negativo, con pérdidas ocasionadas principalmente por sus decisiones de inventario y precios. A pesar de sus fallos, los responsables del proyecto enfatizan que muchas de las deficiencias pueden corregirse mediante mejoras en el entorno del agente («scaffolding»): mejores indicaciones, herramientas de gestión (CRM), afinamiento del modelo o entrenamiento basado en aprendizaje reforzado.

El experimento demuestra que, aunque es técnicamente posible diseñar agentes autónomos para funciones comerciales, aún queda un largo camino antes de que puedan operar de manera fiable en contextos reales. Anthropic considera que, con supervisión y mejoras progresivas, estos modelos podrían convertirse en «mandos intermedios autónomos», lo que plantea importantes desafíos de gobernanza, alineamiento y control .

Los riegos de los Agentes de IA para las organizaciones

Blackman, R. “Organizations Aren’t Ready for the Risks of Agentic AI.Harvard Business Review, 2025. Accedido el 11 de julio de 2025. https://hbr.org/2025/06/organizations-arent-ready-for-the-risks-of-agentic-ai.

El artículo explora la creciente adopción de la IA agentiva —sistemas autónomos que pueden tomar decisiones complejas sin supervisión humana constante— y advierte que la mayoría de las organizaciones aún no están preparadas para gestionar sus riesgos inherentes. Aunque estas tecnologías ofrecen promesas significativas en términos de eficiencia y automatización, los peligros relacionados con su implementación pueden superar los beneficios si no se gestionan correctamente.

Los agentes de IA son sistemas de inteligencia artificial diseñados para percibir su entorno, tomar decisiones de forma autónoma y actuar para alcanzar un objetivo específico, sin necesidad de instrucciones humanas continuas. Un riesgo central de esta tecnología es el efecto multiplicador: la autonomía de estos agentes amplifica errores, como decisiones sesgadas, violaciones de privacidad, daños legales o incluso acciones físicas erróneas —como drones mal operados o brechas de seguridad—, que se ven intensificados por su capacidad para actuar sin intervención humana suficiente

El artículo destaca también la tendencia de los agentes a explorar atajos o comportamientos no previstos, lo que incluye «hacer trampa», acceder de forma indebida a sistemas o datos, o realizar acciones no éticas para cumplir sus objetivos, como ilustran experimentos recientes de la compañía Anthropic con Project Vend y un agente de IA denominado “Claudius” para gestionar una máquina expendedora en sus oficinas de San Francisco. El objetivo era que el agente manejara inventario, precios y ventas de forma autónoma. Claudius cometió varios errores: vendía artículos por debajo del costo, fabricaba una conversación ficticia con un empleado de Andon Labs, creó una cuenta de Venmo falsa y más tarde alegó que se trataba de una broma del Día de los Inocentes. Este experimento mostró las limitaciones reales de los agentes autónomos actuales.

Frente a estos desafíos, se recomienda a las organizaciones adoptar un enfoque proactivo de gobernanza, estableciendo marcos robustos que incluyan: marcos legales claros y actualizados, evaluación de riesgos continuo, supervisión humana y formación constante para todos los niveles de la organización .

Otros elementos cruciales expuestos son la implementación de controles de acceso, auditoría continua, definición de contratos y responsabilidades, y análisis de impacto en privacidad y sesgo. Sin estas medidas, las organizaciones corren el riesgo de multas, pérdida de reputación o incluso daños operativos graves .

Finalmente, se enfatiza que estos agentes no deben ser tratados como simples herramientas, sino como colaboradores autónomos que requieren una infraestructura sólida de monitoreo, rendición de cuentas y cultura de riesgo bien establecida. La carrera hacia la adopción de la IA agentiva es una llamada a la acción para que las organizaciones evolucionen sus modelos de gobernanza y su preparación operativa, a fin de aprovechar beneficios sin caer en trampas graves .

GAIIN: una plataforma global para navegar las políticas de Inteligencia Artificial

GAIIN (Global AI Initiatives Navigator)

https://oecd.ai/en/dashboards/overview

Se presenta GAIIN una nueva herramienta desarrollada por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) dentro de la plataforma OECD.AI. GAIIN tiene como objetivo facilitar el seguimiento y la presentación de información sobre políticas de inteligencia artificial a nivel mundial, brindando mayor claridad, cobertura y utilidad para diferentes actores, desde gobiernos hasta investigadores y público general.

La plataforma ofrece una vista global de iniciativas, abarcando desde marcos regulatorios hasta proyectos enfocados en áreas específicas como riesgos y ética, privacidad, salud, impacto laboral y sostenibilidad. Así, GAIIN contribuye a identificar tendencias emergentes y lagunas en las políticas de inteligencia artificial. La herramienta no solo centraliza políticas existentes, sino que también permite la colaboración directa para enriquecer la base de datos, promoviendo una comunidad activa.

Uno de los principales aportes de GAIIN es que cada país cuenta con su propia página, en la que se presentan sus estrategias nacionales de inteligencia artificial, políticas específicas, programas regulatorios, marcos éticos y demás iniciativas relevantes. Esto permite comparar enfoques, detectar tendencias globales y reconocer buenas prácticas que pueden ser replicadas o adaptadas en otros contextos. Por países

Además, GAIIN incluye las iniciativas impulsadas por organizaciones internacionales, tales como la Unión Europea, la ONU, la OCDE misma o el GPAI (Global Partnership on AI). Estas páginas dedicadas permiten comprender cómo se articulan las políticas nacionales con los esfuerzos multilaterales y cuáles son los foros clave donde se están negociando marcos comunes.

Para facilitar la navegación, la plataforma también ofrece la posibilidad de explorar todas las iniciativas y políticas en conjunto, sin importar su origen geográfico o institucional. Esta visión panorámica es útil para investigadores, responsables de políticas públicas, organizaciones de la sociedad civil y empresas interesadas en mantenerse al día con la evolución normativa y estratégica de la IA a nivel global.

Además, GAIIN se enmarca en el ecosistema de OECD.AI, que abarca una gran variedad de recursos: políticas, datos, investigaciones, herramientas de riesgo, indicadores de IA responsable, casos de uso y capacidades técnicas. Esto posiciona a GAIIN no como un recurso aislado, sino como una pieza clave de un conjunto más amplio de herramientas e iniciativas orientadas a fomentar una IA centrada en el ser humano y segura.

También se destaca el compromiso de la OCDE con la gobernanza de la inteligencia artificial. MEDIANTE GAIIN, la organización fortalece sus estándares, alineados con los Principios de la OCDE sobre IA y los esfuerzos coordinados dentro del marco del GPAI (Asociación Global de IA).

Aprender para el futuro: educación y competencias esenciales en la era de la inteligencia artificial

Carlos Hervás-Gómez, María Dolores Díaz Noguera, María de los Ángeles Domínguez González, Fulgencio Sánchez Vera y Antonio Luque de la Rosa, coords. Aprender para el futuro: Educación y competencias esenciales en la era de la inteligencia artificial (Madrid: Dykinson, 2025).

Texto completo

A través de más de cuarenta capítulos escritos por expertos en distintas áreas de la educación, la obra ofrece una panorámica amplia y profunda sobre cómo la inteligencia artificial (IA) está transformando el aprendizaje, la enseñanza y las competencias necesarias para desenvolverse en el mundo actual.

Uno de los principales focos del libro es la educación superior, donde se analizan experiencias concretas del uso de herramientas como ChatGPT y otras aplicaciones de IA en la enseñanza universitaria. Se examinan tanto las percepciones del alumnado como las posibilidades de personalizar el aprendizaje, fomentar la escritura creativa o realizar tareas de traducción y análisis automatizados. Además, se presta atención a los dilemas éticos y a la necesidad de preparar a los estudiantes para un uso crítico de estas tecnologías.

El libro también recoge un variado repertorio de metodologías activas potenciadas por la IA. Se exploran estrategias innovadoras como el aula invertida, la gamificación, el uso de mesas interactivas en anatomía o las “escape rooms” virtuales como parte del proceso formativo. La IA se presenta en estos casos como una herramienta que, bien utilizada, puede mejorar la participación del alumnado, enriquecer el contenido y apoyar la evaluación formativa.

Otro apartado esencial se centra en la figura del profesorado. Se destaca la importancia de formar a los docentes en habilidades digitales, incluyendo la ingeniería de prompts, el liderazgo pedagógico en entornos digitales y la actitud frente a los cambios tecnológicos. La obra subraya que, aunque la IA ofrece enormes posibilidades, es imprescindible que los educadores mantengan el control ético y pedagógico sobre su implementación.

Asimismo, se abordan temas relacionados con la personalización del aprendizaje, el pensamiento crítico y el desarrollo de competencias transversales. Se analizan experiencias que van desde la enseñanza de gramática con IA hasta proyectos de ciencias sociales que buscan cultivar la conciencia crítica del alumnado. También se exploran iniciativas en educación STEAM, donde la IA contribuye a motivar al alumnado en contextos científicos y técnicos.

El impacto de la IA sobre el futuro profesional de los estudiantes también ocupa un lugar importante. El libro plantea cómo preparar a los jóvenes para un mundo laboral mediado por algoritmos, automatización y nuevas demandas de cualificación. Se incluyen estudios sobre la educación secundaria, la formación docente inicial, la autopercepción profesional y las respuestas institucionales ante las inteligencias artificiales generativas.

Por último, la obra se cierra con una serie de investigaciones centradas en contextos educativos diversos: la enseñanza de lenguas extranjeras, la educación musical, la interculturalidad, el e-learning en la universidad o la salud mental del profesorado en áreas como la Educación Física. Estos capítulos muestran que el debate sobre la IA en la educación no es exclusivo de los entornos universitarios, sino que afecta a todas las etapas educativas y a múltiples dimensiones de la experiencia formativa.

AI4K12: Una Iniciativa Integral para la Enseñanza de la Inteligencia Artificial en la Educación Primaria y Secundaria

AI4K12. (s.f.). AI for K–12 Initiative. https://ai4k12.org/

Poster español

Recursos

Actividades

AI4K12 (Artificial Intelligence for K–12) es una iniciativa educativa pionera impulsada por la AAAI (Asociación para el Avance de la Inteligencia Artificial) y la CSTA (Asociación de Profesores de Informática), con apoyo de la National Science Foundation (NSF). Su objetivo principal es introducir de manera progresiva y rigurosa la inteligencia artificial en la educación primaria y secundaria en Estados Unidos. Para lograrlo, desarrolla directrices nacionales, mantiene un repositorio cuidadosamente seleccionado de recursos didácticos y promueve una comunidad activa de docentes, investigadores y desarrolladores enfocados en la enseñanza de la IA a estudiantes desde edad temprana hasta el último año de instituto (AI4K12, s.f.).

El núcleo conceptual de AI4K12 se articula en torno a las «Cinco Grandes Ideas» sobre la inteligencia artificial, que buscan facilitar la comprensión de este campo complejo en niveles escolares. Estas ideas son: (1) percepción (cómo las máquinas detectan y comprenden el mundo a través de sensores); (2) representación y razonamiento (cómo los agentes inteligentes modelan su entorno y toman decisiones); (3) aprendizaje (cómo los sistemas mejoran con la experiencia, mediante el aprendizaje automático); (4) interacción natural (la capacidad de comunicarse con los humanos de manera efectiva, usando lenguaje, voz, etc.); y (5) impacto social (el análisis ético y social del uso de la IA). Estas ideas amplían las competencias del pensamiento computacional e incorporan dimensiones éticas y sociales fundamentales (AI4K12, s.f.).

Para facilitar la enseñanza de estas ideas, AI4K12 ha diseñado una serie de progresiones por niveles educativos: K–2 (infantil), 3–5 (primaria baja), 6–8 (primaria alta y primeros años de secundaria), y 9–12 (bachillerato). Estas progresiones permiten adaptar los conceptos y habilidades de la IA a las capacidades cognitivas y madurez de los estudiantes según su edad. Las directrices están en constante revisión y se ofrecen como borradores para consulta pública, fomentando así una construcción colectiva del currículo (AI4K12, s.f.).

En cuanto a los recursos didácticos, AI4K12 pone a disposición del profesorado un directorio extenso y curado de materiales: desde demos interactivos (como simuladores de cadenas de Markov, reconocimiento facial o análisis de espectrogramas), hasta guías de actividades, libros, módulos curriculares y cursos en línea. Muchos de estos recursos están adaptados a contextos escolares, son gratuitos y están diseñados con una filosofía de “caja transparente” (“glass-box”), que permite a los estudiantes ver y comprender cómo funciona la IA, en lugar de tratarla como una “caja negra” de resultados misteriosos (AI4K12, s.f.).

El sitio también ofrece múltiples vías para la participación: los docentes pueden contribuir con recursos, asistir a talleres estatales de planificación curricular en IA o integrarse a la red de AI4K12 para recibir noticias, participar en encuentros virtuales y colaborar con otros profesionales. La comunidad de AI4K12 tiene presencia en plataformas como YouTube y mantiene una comunicación constante mediante boletines informativos (AI4K12, s.f.).

En definitiva, AI4K12 constituye una propuesta educativa integral y actualizada para incorporar la inteligencia artificial en el aula desde edades tempranas. Su enfoque equilibrado entre teoría, práctica y ética permite a los estudiantes no solo entender qué es la IA, sino también reflexionar sobre su impacto en la sociedad y en sus propias vidas. Esta iniciativa representa un paso esencial para preparar a las nuevas generaciones para un mundo cada vez más mediado por tecnologías inteligentes.

El 83% de las personas prefieren herramientas de inteligencia artificial frente a motores de búsqueda tradicionales

Goodwin, Danny. «Google’s search market share drops below 90% for first time since 2015Search Engine Land, January 13, 2025

Ver original

Las búsquedas mediante inteligencia artificial están redefiniendo el panorama digital. Aunque aún hay obstáculos que superar —como la precisión de las respuestas y la necesidad de una mayor transparencia—, la tendencia apunta a que cada vez más personas usarán estas herramientas como complemento o sustituto de los buscadores tradicionales.

Una encuesta reciente publicada en Innovating with AI revela un cambio notable en el comportamiento de los usuarios: el 83 % afirma que prefiere utilizar herramientas de búsqueda basadas en inteligencia artificial (IA), como ChatGPT, Perplexity AI o Grok, en lugar de los motores de búsqueda tradicionales como Google. Esta tendencia se alinea con datos de StatCounter, que muestran una caída en la cuota de mercado de Google por debajo del 90 % en 2024, marcando su nivel más bajo desde 2015. La gente comienza a percibir que los motores clásicos no siempre ofrecen la experiencia más eficiente o relevante.

Las ventajas que los usuarios encuentran en las búsquedas impulsadas por IA incluyen la posibilidad de recibir respuestas directas, precisas y resumidas, sin tener que hacer clic en múltiples enlaces. La IA permite interactuar con el buscador mediante lenguaje natural, lo que facilita la comprensión y la personalización de las consultas. Además, estas herramientas reducen el “ruido SEO” —contenido optimizado artificialmente para posicionarse—, ofreciendo resultados que los usuarios perciben como más auténticos y útiles.

Sin embargo, la adopción de la búsqueda con IA no está exenta de desafíos. Uno de los más mencionados es el fenómeno de las «alucinaciones«: respuestas incorrectas o inventadas que algunas IA pueden generar. Modelos como GPT-4, si bien avanzados, todavía muestran fallos en la precisión de ciertos datos. Por ello, aunque la mayoría de usuarios prefieren este tipo de búsqueda, solo el 38 % afirma confiar plenamente en las respuestas generadas por IA. En consecuencia, muchas personas combinan ambas formas de búsqueda: utilizan IA para obtener una visión general rápida y motores tradicionales cuando buscan información muy específica o actualizada.

Expertos como Nick Reese, exdirector de tecnología del Departamento de Seguridad Nacional de EE.UU., señalan que la IA no reemplazará totalmente a la búsqueda tradicional, sino que convivirá con ella en un modelo híbrido. De hecho, Google ya ha comenzado a integrar resúmenes generados por IA en sus resultados, en un esfuerzo por no perder terreno ante estas nuevas herramientas. Las búsquedas con IA se utilizan especialmente para investigar un tema, redactar textos o entender conceptos complejos, mientras que Google sigue siendo dominante en áreas como noticias, productos o ubicaciones.

Inteligencia artificial y Lingüística con Fermín Domínguez Santana. Planeta Biblioteca 2025/07/08

Inteligencia artificial y Lingüística con Fermín Domínguez Santana.

Planeta Biblioteca 2025/07/08

ESCUCHAR

Descargar

En esta ocasión conversamos con Fermín Domínguez Santana, Profesor Ayudante Doctor en Lingüística General en la Universidad de La Laguna (ULL), miembro del Instituto Universitario de Lingüística Andrés Bello y del grupo de investigación AIGELE, especializado en la instrucción gramatical del español como lengua extranjera. Dialogamos sobre el impacto de la inteligencia artificial (IA) generativa en ámbitos como la lexicografía, la enseñanza de lenguas y la traducción. Fermín está realizando una estancia de investigación en el marco del proyecto PReLemma (Parámetros para recursos léxicos multilingües más accesibles), que dirigen Teresa Fuentes y Jesús Torres, de la Facultad de Traducción y Documentación.

También abordó el papel de la IA en el aprendizaje de idiomas, destacando su utilidad para resolver ambigüedades lingüísticas y fomentar una mayor autonomía y motivación del alumnado. También presentó su proyecto de innovación docente con la herramienta Sketch Engine, que permite a los estudiantes explorar corpus lingüísticos y comprender el funcionamiento real de la lengua en diferentes contextos. Analizó cómo las metodologías activas y las herramientas digitales están transformando la didáctica de las lenguas, y planteó cómo la colaboración entre lexicógrafos e IA puede enriquecer el registro de variedades dialectales.

Finalmente, compartió su visión sobre el futuro del campo, proponiendo que los lingüistas del mañana deben combinar el conocimiento teórico con habilidades tecnológicas y digitales. Entre sus intereses actuales se encuentra el impulso de nuevas líneas de investigación en lingüística aplicada, análisis del discurso y el desarrollo ético de herramientas de IA en el ámbito humanístico.

Uso responsable de la IA en contextos académicos: Integración de recursos múltiples con sentido ético

MoxieLearn. “Clarifying AI Use in Academia: How to Create Use Cases That Call upon the Strengths of Multiple AI Resources.MoxieLearn Blog, publicado hace aproximadamente 1 año. https://moxielearn.ai/blog/clarifying-ai-use-in-academia-how-to-create-use-cases-that-call-upon-the‑strengths‑of‑multiple‑ai‑resources

Se ofrece una guía completa para el uso eficaz de herramientas de inteligencia artificial en contextos académicos, especialmente en investigación y escritura. El autor enfatiza que, en lugar de depender de una sola herramienta, los investigadores deberían combinar múltiples modelos de IA, aprovechando las fortalezas específicas de cada uno para enriquecer sus proyectos.

En primer lugar, se propone una metodología estructurada por fases que incluye: (1) definir claramente los objetivos académicos, (2) mapear las capacidades de diferentes plataformas de IA (por ejemplo, GPT para redacción, BERT para análisis de texto, modelos especializados para revisión de datos), y (3) construir un flujo de trabajo integrado. Este sistema permite, por ejemplo, que mientras un modelo genere borradores de literatura, otro se encargue del análisis temático y un tercero optimice la calidad lingüística del texto.

Gran parte del trabajo como adoptantes tempranos de la inteligencia artificial en el ámbito académico se enfoca en aclarar cómo puede utilizarse esta tecnología de manera ética y responsable. Una y otra vez se insiste en la importancia de desarrollar tres dimensiones fundamentales de la alfabetización en IA: funcional, crítica y retórica. Estas dimensiones constituyen los pilares sobre los que se construyen los casos de uso efectivos de la IA. El marco conceptual de alfabetización en IA de Moxie se basa en el trabajo de Selber (2004), Multiliteracies for a Digital Age.

El autor también resalta la importancia de considerar aspectos como la transparencia en el uso de IA, la ética en la investigación y el control humano en la revisión final. Enfatiza que la IA debe ser vista como una colaboradora asistida que requiere supervisión, especialmente para evitar sesgos, errores factuales o problemas de integridad académica.

Así, el enfoque planteado fomenta un uso estratégico y complementario de múltiples herramientas de IA, potenciando áreas en las que cada modelo destaca —desde generación de ideas y revisión literaria hasta análisis de datos y corrección de estilo—, lo que redunda en procesos más eficientes y robustos.

Finalmente, el autor anima a la comunidad académica a documentar sus casos de uso, compartir experiencias y definir buenas prácticas para el uso interdisciplinario de IA, con el fin de crear una cultura colaborativa y reflexiva sobre cómo estas tecnologías pueden fortalecer la investigación científica de forma responsable.

El 93% de los estudiantes usa herramientas de Inteligencia artificial

Kelly, Rhea. 2025. “Survey: Student AI Use on the Rise.” Campus Technology, 25 de junio de 2025. https://campustechnology.com/articles/2025/06/25/survey-student-ai-use-on-the-rise.aspx.

El estudio confirma que la inteligencia artificial se ha convertido en una herramienta habitual en la vida académica de muchos estudiantes. Aun así, su integración plantea desafíos importantes que deben abordarse desde las instituciones educativas, fomentando un uso crítico, ético y estratégico.

Un reciente estudio llevado a cabo por Microsoft en colaboración con PSB Insights revela que el uso de inteligencia artificial (IA) entre estudiantes estadounidenses está creciendo rápidamente. Según la encuesta, publicada por Campus Technology el 25 de junio de 2025, el 93 % de los estudiantes mayores de 16 años ha utilizado alguna vez herramientas de IA en sus estudios. Este dato indica una integración casi universal de estas tecnologías en la vida académica, una cifra que ha aumentado significativamente en comparación con el año anterior.

El informe también muestra un incremento notable en la frecuencia de uso. El 42 % de los encuestados afirma utilizar IA al menos semanalmente, mientras que un 30 % la emplea diariamente. Esto representa un aumento de 26 puntos porcentuales en el grupo que la usa con frecuencia y una disminución de 20 puntos entre quienes nunca la han utilizado, lo que evidencia una adopción acelerada y progresiva de la IA en entornos educativos.

Los fines para los que los estudiantes utilizan la IA son variados. La mayoría recurre a ella para generar ideas iniciales o ayudarles a comenzar tareas (37 %), para resumir información (33 %) o para obtener respuestas rápidas (33 %). Otros la emplean como herramienta de retroalimentación preliminar (32 %), como medio de aprendizaje personalizado (30 %) o para mejorar su escritura (28 %). Además, se valora su utilidad para crear materiales visuales, desarrollar habilidades para el futuro, completar tareas enteras o simplemente para liberar tiempo y cuidar del bienestar personal. Estas cifras muestran que los estudiantes no solo utilizan la IA como ayuda puntual, sino también como un recurso para el aprendizaje autónomo, la organización y la creatividad.

Lluvia de ideas y arranque de tareas: 37 %
Resúmenes de información: 33 %
Obtener respuestas rápidamente: 33 %
Retroalimentación inicial: 32 %
Aprendizaje personalizado: 30 %
Mejora de escritura: 28 %
Diseño visual para presentaciones: 25 %
Desarrollo de habilidades futuras: 22 %
Realización completa de tareas: 22 %
Fomento de la creatividad: 21 %
Liberar tiempo para aprendizaje o bienestar: 21 %
Apoyo al bienestar personal: 19 %

Sin embargo, el uso creciente de la IA también viene acompañado de preocupaciones. Un 33 % teme ser acusado de hacer trampa o plagio; un 30 % se preocupa por volverse demasiado dependiente de estas herramientas; y un 28 % teme recibir información inexacta o engañosa. También surgen inquietudes sobre la pérdida de oportunidades valiosas de aprendizaje (24 %) y sobre los posibles dilemas éticos y de autonomía (24 %). Estos datos indican que, si bien los beneficios son evidentes, los estudiantes no son ingenuos frente a los riesgos que conlleva esta tecnología.

Acusaciones de plagio o trampa: 33 %
Dependencia excesiva de la IA: 30 %
Información inexacta o desinformación: 28 %
Pérdida de aspectos significativos del aprendizaje: 24 %
Cuestiones éticas y autonómicas: 24 %

La formación en competencias digitales, el establecimiento de políticas claras y el acompañamiento docente serán claves para equilibrar los beneficios de la IA con una educación significativa y responsable.

El consumo de energía de la inteligencia artificial se dispara junto con la huella climática

Metz, Cade. “Artificial Intelligence’s Energy Use Is Skyrocketing — Along with Its Climate Footprint.” MIT Technology Review, May 20, 2025. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/.

La inteligencia artificial está generando una demanda energética descomunal. A medida que los modelos se vuelven más grandes y se utilizan con mayor frecuencia, los centros de datos necesitan más electricidad que nunca.

En 2022, consumieron alrededor de 460 teravatios-hora (TWh), pero se estima que esa cifra superará los 1.000 TWh para 2026, lo cual equivale al consumo eléctrico anual de un país como Japón. En la actualidad, la IA representa ya hasta el 20 % del uso energético de los centros de datos, y se prevé que alcance el 50 % antes de que termine el año.

Además de la electricidad, el enfriamiento de los centros de datos exige enormes cantidades de agua. Muchos de ellos utilizan sistemas de refrigeración por evaporación que requieren cientos de miles de litros diarios. Se calcula que el uso de agua asociado a la IA podría ascender a entre 4.200 y 6.600 millones de metros cúbicos anuales para 2027, más que el consumo total del Reino Unido. En 2022, solo Google, Meta y Microsoft usaron en conjunto más de 2.200 millones de metros cúbicos de agua, a menudo en zonas propensas a la sequía.

El impacto climático también es preocupante. Entrenar grandes modelos de IA, como GPT-3, puede emitir tanto CO₂ como varios cientos de vuelos de larga distancia. Aunque las empresas tecnológicas han prometido usar fuentes renovables o incluso energía nuclear, las emisiones totales siguen aumentando. Por ejemplo, las emisiones de Google aumentaron un 48 % entre 2019 y 2023 debido en gran parte al crecimiento de la IA y de sus centros de datos.

Si bien se están logrando mejoras en la eficiencia de los chips y en la gestión de los centros de datos, existe el riesgo de un “efecto rebote”: si hacer cada tarea es más barato y rápido, se hacen muchas más, lo que termina aumentando el consumo global. Por otro lado, la IA también podría contribuir a combatir el cambio climático si se aplica a la optimización de redes eléctricas, energías renovables o captura de carbono. Sin embargo, estos beneficios podrían quedar neutralizados por los altos costes energéticos de su implementación.

Finalmente, tanto los gobiernos como las organizaciones internacionales están comenzando a exigir más transparencia sobre el uso de energía y agua por parte de los modelos de IA. Empresas como Microsoft están invirtiendo en energías alternativas, incluyendo reactores nucleares para alimentar sus centros de datos. Pero el artículo advierte que, sin regulación y prácticas sostenibles, el impacto ambiental de la IA podría eclipsar sus promesas tecnológicas.