Archivo de la categoría: Tecnologías de la información

Empoderando a los estudiantes para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

OCDE y Comisión Europea. 2025. Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education. Borrador, mayo de 2025. https://ailiteracyframework.org/wp-content/uploads/2025/05/AILitFramework_ReviewDraft.pdf

Texto completo

Informe publicado en mayo de 2025 como borrador conjunto de la Comisión Europea y la OCDE, con la colaboración de organizaciones como Code.org y una red internacional de expertos. Su objetivo es ofrecer un marco estructurado para la enseñanza de la alfabetización en inteligencia artificial (IA) en la educación primaria y secundaria.

Esta iniciativa responde a la necesidad urgente de preparar a los estudiantes para convivir con tecnologías basadas en IA, no solo como usuarios, sino como ciudadanos críticos y responsables en un mundo digital en constante transformación.

El marco parte del hecho de que los jóvenes ya están expuestos a la IA en su vida diaria, aunque en la mayoría de los casos no aprenden sobre ella de manera formal en la escuela. Se propone, por tanto, una definición amplia de alfabetización en IA que incluye conocimientos técnicos, habilidades transferibles y actitudes fundamentales. Esta alfabetización permite al alumnado comprender cómo funciona la IA, utilizarla de manera crítica y creativa, tomar decisiones informadas sobre su uso, y reflexionar sobre sus implicaciones éticas, sociales y culturales.

La estructura del marco se articula en torno a cuatro dominios clave. El primero, «Engaging with AI», se centra en el reconocimiento de la presencia de la IA, su funcionamiento y la evaluación de sus resultados. El segundo, «Creating with AI», se orienta al uso creativo y ético de la IA en tareas de comunicación, arte, resolución de problemas y producción de contenidos. El tercero, «Managing AI», invita a reflexionar sobre el papel humano en la toma de decisiones apoyadas por IA, promoviendo un uso consciente y deliberado. El cuarto y más avanzado, «Designing AI», fomenta la exploración de cómo se diseñan los sistemas de IA, la importancia de los datos y el impacto social de esas decisiones.

Cada dominio se desglosa en competencias específicas, un total de 22, que integran conocimientos, habilidades y actitudes, y se acompañan de ejemplos prácticos adaptados tanto a educación primaria como secundaria. Estos escenarios muestran cómo abordar la IA en distintas asignaturas sin necesidad de recursos tecnológicos complejos, apostando por una enseñanza transversal y contextualizada.

Además, el marco destaca contenidos transversales como el pensamiento crítico, la creatividad, la colaboración, la empatía o la responsabilidad social, los cuales son considerados esenciales para una ciudadanía activa en la era digital. El documento también resalta la importancia de formar al profesorado y dotarlo de materiales y guías que faciliten la implementación del marco en contextos educativos diversos.

El borrador fue presentado el 22 de mayo de 2025 y ha sido abierto a consulta pública hasta el 31 de agosto del mismo año. Se espera que la versión final se publique en 2026, acompañada de recursos pedagógicos complementarios. Esta propuesta no solo busca transformar el currículo, sino también ofrecer una herramienta de política educativa capaz de guiar decisiones a nivel nacional e internacional sobre la inclusión de la IA en la educación formal.

Alfabetización en Inteligencia Artificial con Alejandro Uribe. Planeta Biblioteca 2025/07/23

Alfabetización en Inteligencia Artificial con Alejandro Uribe.

Planeta Biblioteca 2025/07/23

ESCUCHAR

Descargar

En una entrevista para Radio Universidad de Salamanca, Alejandro Uribe Tirado habló sobre los retos y logros que enfrenta América Latina en temas de alfabetización informacional y el uso de la inteligencia artificial. Comentó cómo muchas personas aún no tienen acceso ni formación suficiente para manejar la información de forma crítica. También destacó que, a pesar de las dificultades, cada vez hay más proyectos e iniciativas que buscan cerrar esa brecha. Alejandro nos ha hablado de su proyecto de alfabetización en inteligencia artificial, en el que subraya la necesidad de formar no solo en el uso de herramientas, sino también en sus implicaciones éticas, sociales y culturales. Insistió en que es clave educar a las nuevas generaciones para que comprendan cómo funciona la tecnología y cómo puede influir en sus vidas. Además, remarcó el papel fundamental de las bibliotecas y los docentes en este proceso. La entrevista deja claro que hay mucho por hacer, pero también muchas ganas de avanzar.

Ingeniería de Prompts: recomendaciones personalizadas para la consulta de modelos de Inteligencia Artificial

Kusano, Genki, Kosuke Akimoto, y Kunihiro Takeoka. “Revisiting Prompt Engineering: A Comprehensive Evaluation for LLM‑based Personalized Recommendation.” ArXiv, julio 17 de 2025. https://arxiv.org/abs/2507.13525v1.

Los investigadores se adentran en el diseño de ingeniería de prompts, variando aspectos como la estructura (instrucciones explícitas, estilo conversacional), la extensión y formalidad del texto, y la inclusión de ejemplos contextuales. Su objetivo es entender cómo estas variantes afectan tres métricas clave: precisión de la recomendación, relevancia semántica del contenido generado y calidad de las explicaciones aportadas. Mediante el análisis de diferentes LLMs –sin nombrarlos específicamente en el artículo–, se observan diferencias marcadas según el tipo de prompt utilizado.

Los resultados muestran que un prompt cuidadosamente estructurado puede igualar o incluso superar los métodos tradicionales, especialmente en entornos con escasos datos de usuario. Destaca la importancia de utilizar ejemplos contextuales y formatos de diálogo que guían al modelo, lo que mejora tanto la exactitud de las recomendaciones como su explicabilidad. Sin embargo, los LLM se revelan sensibles a cambios mínimos en los prompts, lo que plantea desafíos de robustez y reproducibilidad si se pretende aplicarlos a gran escala.

Los autores concluyen que la ingeniería de prompts podría ofrecer una alternativa eficiente a los enfoques convencionales, evitando la necesidad de grandes volúmenes de datos, infraestructuras de entrenamiento o información demográfica. Apuntan, no obstante, a la urgencia de desarrollar métodos para automatizar el diseño de prompts y reforzar la consistencia de los modelos. Proponen futuras líneas de investigación que aborden estos retos, contribuyendo a consolidar a los LLM como herramientas fiables en entornos reales de recomendación personalizada.

Los resúmenes de IA en Google reducen drásticamente los clics a enlaces y transforman el comportamiento de búsqueda

Athena Chapekis & Anna Lieb, Google users are less likely to click on links when an AI summary appears in the results, Pew Research Center, 22 de julio de 2025. Disponible en: https://pewrsr.ch/4lIqbsM

El comportamiento de los usuarios de Google cambia cuando se presentan resúmenes generados por inteligencia artificial (IA) en los resultados de búsqueda. Estos “AI Overviews” fueron introducidos por Google en 2024 y actualmente están disponibles para millones de usuarios en EE. UU. La función consiste en un resumen generado por IA que aparece en la parte superior de muchas páginas de resultados, sintetizando la información de diversas fuentes, y ha sido motivo de preocupación entre editores y creadores de contenido digital, quienes han notado una caída significativa en el tráfico hacia sus sitios web.

El estudio analizó el comportamiento de 900 adultos estadounidenses durante marzo de 2025, quienes consintieron en compartir sus datos de navegación. Una de las principales conclusiones fue que los usuarios interactúan menos con los enlaces cuando aparece un resumen de IA. En concreto, solo el 8 % de los usuarios hizo clic en algún enlace tradicional en búsquedas con resumen de IA, frente al 15 % de clics en búsquedas sin resumen. Aún más llamativo es que solo el 1 % de los usuarios hizo clic en los enlaces incluidos dentro del propio resumen generado por IA.

Además, estas búsquedas con resumen de IA también tienden a ser más “finales”: en el 26 % de los casos, los usuarios finalizaron su sesión después de leer el resumen, sin navegar más allá de la página de resultados. En contraste, solo el 16 % de los usuarios abandonó la búsqueda tras consultar una página con resultados tradicionales. Esto sugiere que los resúmenes de IA están cumpliendo su función de ofrecer respuestas rápidas y satisfactorias, aunque esto esté teniendo un costo directo sobre el tráfico hacia otros sitios web.

El estudio también exploró qué tipo de consultas tienden a activar la generación de estos resúmenes por parte de Google. En total, el 18 % de todas las búsquedas realizadas en marzo de 2025 generaron un resumen de IA. No obstante, esta cifra varía ampliamente en función de la longitud y la forma de la consulta. Las búsquedas más extensas (de 10 palabras o más) generaron resúmenes en un 53 % de los casos, mientras que las consultas de una o dos palabras solo lo hicieron en un 8 %.

Asimismo, las búsquedas que incluían preguntas explícitas (“quién”, “qué”, “cuándo”, “por qué”) generaron resúmenes en el 60 % de los casos, y aquellas formuladas como oraciones completas (que contienen al menos un sustantivo y un verbo) lo hicieron en un 36 % de las ocasiones. Esto indica que los algoritmos de IA de Google están más activos cuando la intención de búsqueda es clara, informativa y bien definida.

En cuanto a las fuentes utilizadas para componer los resúmenes, el informe señala que las más citadas son Wikipedia, YouTube y Reddit, que representan el 15 % de las fuentes referenciadas en los resúmenes y un 17 % en los resultados tradicionales. Sin embargo, en los resúmenes de IA es más frecuente encontrar vínculos a sitios gubernamentales (.gov), representando un 6 % de los enlaces, frente al 2 % en los resultados convencionales. En ambos tipos de resultados, las páginas de noticias ocupan un 5 %.

En promedio, los resúmenes de IA tienen una longitud media de 67 palabras, aunque varían enormemente: el más corto encontrado tenía solo 7 palabras y el más largo llegaba a 369. Un 88 % de estos resúmenes incluía al menos tres fuentes citadas, mientras que solo un 1 % se apoyaba en una sola fuente.

El informe pone en evidencia una transformación significativa en la forma en que los usuarios interactúan con Google. Aunque los resúmenes de IA pueden ofrecer comodidad y rapidez, reducen de forma notable la visibilidad y el acceso a las fuentes originales de información, lo que afecta especialmente a medios de comunicación, páginas educativas, blogs y todo tipo de creadores de contenido que dependen del tráfico web para sostenerse económicamente.

Este fenómeno plantea preguntas importantes sobre el futuro de la web abierta, la transparencia de los sistemas de IA y el equilibrio entre ofrecer respuestas eficientes y mantener un ecosistema digital sostenible y diverso.

Programa de alfabetización en IA de la Biblioteca Universitaria de Carolina del Norte

Mitchell, C. (2025, junio 9). Building student AI literacy. UNC University Libraries. https://library.unc.edu/news/building-student-ai-literacy/

La iniciativa Carolina AI Literacy Initiative ofrece recursos educativos, como videos y módulos, para enseñar a los estudiantes a utilizar herramientas de inteligencia artificial (IA) de manera ética y efectiva. Los temas incluyen la redacción de indicaciones (prompts), detección de sesgos, verificación de hechos y prevención del plagio. Además, proporciona apoyo curricular para instructores y oportunidades para que los estudiantes experimenten y aprendan más sobre el uso responsable de la IA en entornos académicos

La bibliotecaria Dayna Durbin, especializada en enseñanza y aprendizaje para estudiantes de primer año, ha recibido numerosas consultas sobre si el uso de estas herramientas constituye una forma de hacer trampa o plagio. Para abordar estas inquietudes, Durbin colaboró con Dan Anderson, director de la Iniciativa de Humanidades Digitales de Carolina y del programa de escritura en el Departamento de Inglés y Literatura Comparada, para crear Carolina AI Literacy Initiative

«Cuando apareció ChatGPT, empezamos a recibir preguntas de estudiantes preocupados por el plagio, por asegurarse de que no estaban infringiendo el Código de Honor o haciendo trampas al utilizar herramientas de IA generativa. Se convirtió en una especie de asesoramiento para las bibliotecas»

Dayna Durbin

Esta iniciativa tiene como objetivo proporcionar materiales educativos que ayuden a los estudiantes a utilizar la inteligencia artificial de manera efectiva y responsable. A través de lecturas, talleres, módulos y videos, los estudiantes aprenden habilidades como la redacción de indicaciones (prompts), la detección de sesgos, la verificación de hechos y la prevención del plagio. El programa se basa en la tradición de las bibliotecas de promover la alfabetización informacional y equipa a los estudiantes con el conocimiento necesario para usar las herramientas de IA de manera reflexiva y segura en entornos académicos.

«Las bibliotecas son excelentes para muchos de estos retos asociados a la IA, porque llevan décadas prestando atención a la alfabetización informacional»

Dan Anderson

La producción de GenAI es plana, y es fácil de identificar para los profesores. Pero es una herramienta útil para hacer una lluvia de ideas de palabras clave y términos de búsqueda si estás atascado o para resumir una investigación que puede dar a los estudiantes familiaridad con un tema.

Los módulos ofrecidos tienen como objetivo guiar a los estudiantes en el aprendizaje de aspectos fundamentales sobre la inteligencia artificial, especialmente en su aplicación responsable y efectiva en contextos académicos.

Creación de preguntas para IA (pompts) 


Este módulo se centra en la relación entre la elaboración de preguntas (prompts) para IA y el proceso de pensamiento humano. Se destaca la importancia de crear prompts que no solo dependan de la IA, sino que también potencien y reflejen el razonamiento propio del usuario. Los estudiantes tienen la oportunidad de practicar y desarrollar sus propias estrategias para interactuar con las herramientas de IA, fomentando un enfoque crítico y activo en el uso de estas tecnologías.

Comprobación de hechos y sesgos


Este módulo aborda los riesgos asociados con el uso de herramientas generativas de IA, tales como la difusión de información incorrecta, la creación de citas y enlaces falsos, y la generación de resultados sesgados. Se ofrecen estrategias prácticas para que los estudiantes puedan verificar la veracidad y la imparcialidad de los contenidos producidos por la IA. Está dirigido a todos los estudiantes, tanto a quienes son nuevos en estas tecnologías como a aquellos que las usan con frecuencia, promoviendo así una alfabetización digital crítica y responsable.

Evitar el plagio y documentar las fuentes


Este módulo introduce los estándares de investigación relacionados con la IA generativa, enfocándose en la integridad académica. Invita a los estudiantes a reflexionar sobre los valores éticos y las expectativas que implica utilizar la inteligencia artificial con honestidad, evitando el plagio y aprendiendo a documentar adecuadamente las fuentes cuando se emplean herramientas de IA en sus trabajos.

El uso intensivo de modelos de inteligencia artificial para redactar textos podría estar debilitando nuestras habilidades cognitivas.

Kosmyna, Nataliya, Pattie Maes, and Deb Roy. “Your Brain on ChatGPT: Effects of AI Assistance on Cognitive Demand and Product Quality.” MIT Media Lab, 2024. Accedido el 22 de julio de 2025. https://www.404media.co/is-chatgpt-rotting-our-brains-new-study-suggests-it-does/

Un estudio del MIT sugiere que el uso intensivo de ChatGPT para escribir reduce la actividad cerebral, la creatividad y la conexión con el propio texto. Los ensayos generados con IA fueron considerados de menor calidad y los usuarios mostraron menor retención. Se recomienda usar la IA como complemento, no como sustituto del pensamiento crítico.

En el experimento participaron 54 estudiantes, divididos en tres grupos: uno escribía ensayos con la ayuda de ChatGPT, otro utilizaba un buscador como Google, y el tercero escribía sin ninguna asistencia tecnológica. A todos se les monitorizó la actividad cerebral mediante EEG durante el proceso de escritura.

Los resultados revelaron que el grupo que utilizó ChatGPT mostró la menor actividad cerebral y la red neuronal menos conectada, en comparación con los otros dos grupos. Además, los ensayos generados con la ayuda de la IA fueron considerados de menor calidad por los evaluadores: eran más homogéneos, menos creativos y carecían de un estilo personal, lo que llevó a algunos docentes a calificarlos como “sin alma”. También se observó que quienes usaron ChatGPT tenían más dificultades para recordar lo que habían escrito y reportaron una menor conexión con sus textos, lo que plantea dudas sobre la apropiación del conocimiento.

Un hallazgo especialmente preocupante fue la aparición de lo que los investigadores llaman “deuda cognitiva”: cuanto más tiempo usaban ChatGPT, menos esfuerzo mental ponían en las tareas, recurriendo con mayor frecuencia a copiar y pegar respuestas con apenas ediciones. En contraste, quienes trabajaron sin IA desde el principio mantuvieron niveles altos de compromiso mental y obtuvieron mejores resultados en creatividad y calidad lingüística. Los usuarios que usaron Google obtuvieron un rendimiento intermedio, mostrando un equilibrio entre búsqueda activa y procesamiento propio de la información.

Cuando se intercambiaron las condiciones entre los grupos, se evidenció que quienes habían empezado con ChatGPT seguían mostrando bajo rendimiento al pasar a tareas sin tecnología. Por el contrario, quienes habían trabajado sin IA al principio mejoraron su rendimiento incluso al usar ChatGPT después, lo que sugiere que el uso consciente y posterior de estas herramientas puede tener efectos menos perjudiciales.

Aunque el estudio aún no ha sido revisado por pares y tiene limitaciones debido al tamaño de la muestra, sus conclusiones invitan a la reflexión. Se plantea que depender excesivamente de la IA para tareas complejas como la escritura puede afectar negativamente a la memoria, el pensamiento crítico y la creatividad. Por ello, se recomienda un uso equilibrado de estas tecnologías: primero desarrollar el pensamiento propio, y luego recurrir a la IA como complemento, no como sustituto.

Conflicto entre el avance de la inteligencia artificial generativa (IA) y los marcos legales del copyright.

Michael D. Smith and Rahul Telang. 2025. “Can Gen AI and Copyright Coexist.” Harvard Business Review, July 2025. https://hbr.org/2025/07/can-gen-ai-and-copyright-coexist

Se analizan el creciente conflicto entre compañías desarrolladoras de IA generativa y los derechos de autor. Subrayan que en EE. UU., las industrias creativas aportaron 1,8 billones de USD al PIB en 2021 (~8%), y muchas de estas empresas sostienen que la IA puede reemplazar a creadores humanos si se entrena sin control sobre material protegido.

A medida que las plataformas de IA como ChatGPT, Midjourney o Sora entrenan sus modelos con enormes cantidades de contenido disponible en línea —mucho del cual está protegido por copyright— han surgido numerosos conflictos legales y éticos. Artistas, escritores y empresas mediáticas han denunciado que sus obras se están utilizando sin permiso ni compensación, mientras que las tecnológicas argumentan que se trata de un uso legítimo según el principio de “uso justo” (fair use).

El artículo señala que esta confrontación podría redefinir el concepto mismo de copyright. Mientras las compañías de IA buscan formas de entrenar modelos sin infringir derechos, emergen propuestas como licencias colectivas, remuneraciones obligatorias o acuerdos voluntarios con creadores. A la vez, se plantea si la salida podría estar en nuevos modelos de compensación o en marcos legales más claros que delimiten qué usos son admisibles y cuáles no.

Los tribunales están empezando a pronunciarse, pero aún no hay un consenso global. En Estados Unidos, las decisiones judiciales pueden cambiar el futuro de la IA generativa dependiendo de cómo interpreten la relación entre innovación tecnológica y protección creativa. El artículo concluye que una solución duradera requerirá colaboración entre tecnólogos, legisladores y artistas para garantizar un desarrollo responsable de la inteligencia artificial sin socavar los derechos de los creadores.

Los autores destacan dos fallos judiciales recientes en el Distrito Norte de California con posturas encontradas sobre el fair use:

  • En Bartz v. Anthropic, el juez Alsup determinó que el uso de obras protegidas para entrenar un modelo es justo siempre que sea transformativo—similar a cómo un lector aprende de textos para escribir nuevos
  • En Kadrey v. Meta, el juez Chhabria concluyó que el uso no autorizado no coincide con el uso formativo humano, pues permite generar obras competidoras en minutos con eficiencia mucho mayor

Estos fallos subrayan la ambigüedad legal actual. En paralelo, estudios externos—incluyendo un informe de la Oficina de Derechos de Autor de EE.UU.—advierten sobre riesgos económicos si se les exige a los titulares de derechos optar por excluir su contenido del conjunto de entrenamiento, un proceso costoso y complejo.

La gestión bibliotecaria en México ante los desarrollos de la inteligencia artificial

La gestión bibliotecaria en México ante los desarrollos de la inteligencia artificial Ulises Campbell Manjarrez (coordinador) ) México: CONPABIES. 2025

Texto completo

Esta publicación, que constituye una de las primeras —si no la primera— en México dedicada específicamente al estudio y análisis de la aplicación, implementación, gestión, uso y evaluación de las tecnologías de la información en el ámbito bibliotecario de las Instituciones de Educación Superior (IES), surge a partir de una convocatoria lanzada en 2004 por el Consejo Nacional para Asuntos Bibliotecarios de Instituciones de Educación Superior A.C. (CONPAB-IES), con el propósito de recopilar y difundir investigaciones, experiencias y reflexiones relacionadas con esta temática desde una perspectiva amplia e integradora.

La presentación y prólogo destacan la relevancia de las bibliotecas como espacios estratégicos para valorar el pensamiento crítico, la calidad del acervo y los retos éticos derivados de la automatización y uso de IA . También subrayan la misión de estas instituciones en impulsar el acceso, análisis y organización responsables de la información.

Se destaca la preocupación por la ética, la integridad académica, y la formación continua del personal de bibliotecas para garantizar un uso responsable y educativo de la IA.

Entre los capítulos principales, encontramos:

  • Iniciativas universitarias que explican proyectos de nueve bibliotecas en México sobre adopción de IA (capacitación, infraestructura, innovación, ética e inclusión)
  • Integridad académica, donde se analiza el caso de CETYS Universidad frente a dilemas éticos producidos por nuevas tecnologías.
  • Pensamiento crítico y metacognición, que resalta el rol formador de las bibliotecas en la educación mediada por IA.
  • Evaluación de usuarios, con datos sobre la percepción de los servicios de la Universidad Autónoma de Chihuahua.
  • Semblanzas históricas, que revisan los 40 años de trayectoria del CONPAB-IES desde 1984 hasta 2023.

En conjunto, la obra propone una visión estratégica de las bibliotecas universitarias como agentes de transición hacia entornos educativos potenciados por IA, con un fuerte énfasis en ética, formación del personal, evaluación y colaboración institucional.

Finalmente, se subraya el rol estratégico de las bibliotecas como agentes de transición hacia entornos educativos y de investigación potenciado por IA, y se invita a otras instituciones a sumar esfuerzos colaborativos

Inteligencia artificial generativa: enfoques prácticos para docentes

Instituto para el Futuro de la Educación (IFE). “Inteligencia artificial generativa: enfoques prácticos para docentes.Observatorio, 11 de julio de 2025.

Texto completo

El Observatorio del Instituto para el Futuro de la Educación (IFE), ofrece una guía práctica para educadores interesados en integrar la inteligencia artificial generativa (IAG) en sus aulas. Presentado como una «caja de herramientas», el documento busca proporcionar recursos y estrategias para que los docentes puedan explorar y aplicar diversas aplicaciones y programas de IAG en su práctica educativa diaria.

El texto explica que la IAG, que se basa en modelos de aprendizaje profundo capaces de generar contenido original, tiene un gran potencial para transformar la educación, permitiendo personalizar el aprendizaje, automatizar tareas repetitivas y fomentar la creatividad entre los estudiantes. Sin embargo, también destaca la importancia del papel del docente como guía y acompañante, que debe supervisar y mediar el uso de estas tecnologías para asegurar un aprendizaje significativo y ético.

Además, el documento anticipa un próximo volumen que abordará los aspectos éticos, sociales y críticos relacionados con la implementación de la IAG en el ámbito educativo. Esto refleja una visión equilibrada que no solo celebra las innovaciones tecnológicas, sino que también considera sus implicaciones y riesgos, promoviendo un uso responsable y consciente.

Entre las aplicaciones prácticas que se proponen, se incluyen herramientas para generación automática de textos, apoyo en la creación de materiales didácticos, asistentes de tutoría personalizados, y plataformas para evaluación adaptativa. La guía está orientada a que los docentes puedan experimentar con estas tecnologías y adaptarlas a sus contextos específicos, contribuyendo a una educación más inclusiva, dinámica y acorde a los desafíos del siglo XXI.

En resumen, el documento es un recurso valioso para la comunidad educativa que busca innovar con inteligencia artificial generativa, ofreciendo pautas claras para su implementación práctica, sin perder de vista la dimensión humana del proceso educativo.

Claude for Education: Anthropic lanza un chatbot de IA para universidades

Zeff, Maxwell. “Anthropic Launches an AI Chatbot Plan for Colleges and Universities.” TechCrunch, April 2, 2025. https://www.anthropic.com/solutions/education

El pasado 2 de abril de 2025, Anthropic presentó Claude for Education, una versión especializada de su chatbot de inteligencia artificial, diseñada para el entorno universitario.

Una de las características más destacadas del producto es el modo de aprendizaje (Learning Mode) dentro de Claude Projects. En lugar de ofrecer respuestas directas, este sistema emplea preguntas socráticas para fomentar el pensamiento crítico. Así, ayuda a los estudiantes a reflexionar sobre los procesos, comprender principios fundamentales y acceder a plantillas útiles para investigaciones, esquemas o guías de estudio. Esta metodología posiciona a Claude como un asistente “inteligente”, enfocado en el desarrollo del razonamiento, más que en la simple generación de respuestas automáticas.

Además de sus beneficios para estudiantes, Claude for Education también ofrece herramientas avanzadas para docentes y personal administrativo. Entre ellas se encuentran la automatización de respuestas a correos frecuentes, el análisis de tendencias de matrícula, y la generación de rúbricas y retroalimentación personalizada. Todo esto se desarrolla en un entorno de chat seguro, con controles de privacidad de nivel empresarial.

Para facilitar su adopción por parte de universidades, Anthropic ha establecido alianzas con Instructure (Canvas) e Internet2, además de acuerdos con instituciones como Northeastern University, London School of Economics and Political Science (LSE) y Champlain College. Northeastern participa como socio de diseño, ayudando a definir marcos de buenas prácticas para la integración de la IA en contextos académicos.

Este movimiento de Anthropic se produce en un contexto de alta competencia: OpenAI lanzó ChatGPT Edu en mayo de 2024 y recientemente ha ofrecido ChatGPT Plus de forma gratuita a estudiantes universitarios en EE. UU. y Canadá, además de promover el consorcio NextGenAI, que cuenta con una inversión de 50 millones de dólares en investigación. Todo esto subraya una creciente disputa por consolidar a Claude o ChatGPT como la herramienta predeterminada en el ámbito universitario, con implicaciones clave en la formación de futuras generaciones y su alfabetización en inteligencia artificial.