Archivo de la etiqueta: Informes

De que manera los bibliotecarios escolares en Escocia abordan los problemas de la desinformación y la información errónea

Chartered Institute of Library and Information Professionals in Scotland (CILIPS). Tackling Misinformation and Disinformation for Scottish School Librarians Project Report. Liderado por Bruce Ryan, Edinburgh Napier University. CILIPS Research Fund, 2025

Texto completo

Los bibliotecarios escolares en Escocia ya realizan un esfuerzo significativo para abordar la desinformación, su capacidad para hacerlo de manera eficaz se ve seriamente limitada por carencias estructurales y de reconocimiento institucional. El informe insiste en que, para que puedan desempeñar plenamente su papel, es imprescindible darles apoyo sostenido, recursos adecuados, oportunidades de formación y un marco de colaboración estable con el resto de la comunidad educativa.

El estudio, realizado durante la primera mitad de 2025, examina las prácticas actuales, las barreras que encuentran los profesionales y las recomendaciones que podrían mejorar su labor en un contexto donde no existe una legislación específica que regule las bibliotecas escolares. Esta ausencia de normativa hace que la relevancia del bibliotecario dependa en gran medida de las decisiones de cada centro educativo, del apoyo del profesorado y del liderazgo institucional.

En cuanto a las prácticas que ya se llevan a cabo, los bibliotecarios intervienen tanto de forma directa, respondiendo a consultas puntuales sobre desinformación, como indirectamente, mediante clases, charlas y actividades de alfabetización informacional. Sin embargo, el informe señala que las peticiones explícitas de ayuda sobre desinformación no son frecuentes, y cuando aparecen provienen sobre todo de los estudiantes. Este hecho refuerza la idea de que, aunque existe un problema real de exposición a información falsa, todavía falta consolidar un marco educativo que reconozca y potencie el papel de los bibliotecarios como agentes clave en la formación crítica de los alumnos.

Las barreras identificadas se relacionan principalmente con la falta de tiempo, presupuesto y recursos, factores que impiden llevar a cabo de forma sistemática programas de educación en desinformación. A ello se suma la insuficiencia de apoyo por parte del liderazgo escolar y de los profesores, lo cual limita la integración de estas prácticas en el currículo oficial. En muchos casos, además, las propias instalaciones físicas de las bibliotecas escolares no son adecuadas para desempeñar las funciones de enseñanza, consulta y reflexión necesarias en este ámbito.

El informe destaca también el deseo de los bibliotecarios de recibir formación especializada que les permita actualizar sus competencias frente a la desinformación y la información errónea. Esta formación debería estar disponible tanto para bibliotecarios como para asistentes de biblioteca, y sería más efectiva si estuviera integrada dentro de los programas de desarrollo profesional docente. Asimismo, se plantea la necesidad de fortalecer la colaboración entre bibliotecarios y profesores, desde la etapa de formación inicial de estos últimos, de manera que la educación en torno a la desinformación no dependa de iniciativas aisladas sino que forme parte de la enseñanza sistemática.

Las recomendaciones apuntan a que se reconozca oficialmente que los estudiantes enfrentan problemas de desinformación y que los bibliotecarios poseen competencias valiosas para afrontarlos. Para ello es necesario otorgarles tiempo, presupuesto y un lugar claro en el marco educativo. Además, se sugiere mejorar las oportunidades de colaboración con los docentes, integrando a los bibliotecarios en las revisiones curriculares, y ampliar la oferta de formación continua en alfabetización mediática e informacional. También se subraya la importancia de mejorar las instalaciones físicas de las bibliotecas, con el fin de que puedan cumplir su función pedagógica y social de manera más efectiva.

El impacto de la tecnología y las redes sociales en el cerebro adolescente: riesgos, beneficios y recomendaciones

CBC News. “Teen Brains, Technology, and Social Media: Can They Impact Cognitive Skills?CBC, fecha de publicación, 2025. https://www.cbc.ca/news/canada/teen-brains-technology-aids-1.7604341

El artículo plantea la cuestión de si la exposición intensa de los adolescentes a la tecnología —incluyendo redes sociales, inteligencia artificial, aplicaciones educativas, dispositivos digitales— puede tener efectos tanto beneficiosos como perjudiciales en el desarrollo cognitivo. Se presentan preocupaciones entre educadores, psicólogos y padres en cuanto a la dependencia que los jóvenes podrían desarrollar con herramientas tecnológicas: por ejemplo, el uso constante de ayudas digitales puede afectar su capacidad de concentración, memoria de trabajo o fijación en tareas que requieren atención prolongada.

Por otro lado, se discuten aspectos positivos: la tecnología permite acceso rápido a información, debe facilitar la colaboración, interdisciplinariedad, creatividad, y el aprendizaje personalizado. Algunas herramientas, incluidas aplicaciones educativas o de IA, pueden ayudar a reforzar habilidades cognitivas específicas, como el reconocimiento visual, la resolución de problemas o incluso ciertas funciones ejecutivas —cuando se usan con criterio y estructura—.

El artículo también explora cómo el contexto educativo, el tipo de usos tecnológicos y los límites (horarios, supervisión, tipos de contenido) influyen en los efectos observados: no toda exposición es igual. Se menciona que los efectos negativos tienden a aparecer cuando hay un uso desregulado, multitarea excesiva, interrupciones constantes (notificaciones, mensajes) o cuando la tecnología sustituye completamente formas tradicionales de aprendizaje o interacción humana. Además, se integran testimonios de educadores que ven cambios en la capacidad de atención de sus estudiantes, dificultades para mantener la concentración sin distracciones digitales, o una tendencia a “saltar” rápidamente entre tareas.

Una parte importante del artículo está dedicada a recomendaciones para equilibrar estos riesgos con los beneficios: fomentar hábitos saludables de uso tecnológico, establecer tiempos sin pantallas, promover pausas, diseñar entornos de aprendizaje que reduzcan las distracciones digitales, entrenar tanto a alumnos como a docentes para que sean conscientes de cómo usar la tecnología de forma óptima, y no simplemente incorporar más dispositivos sin una estrategia crítica. También se sugiere investigación continua, análisis de datos longitudinales para ver efectos a largo plazo, comparación entre diferentes tipos de tecnología, y seguimiento de casos donde se hayan aplicado intervenciones educativas para mitigar efectos adversos.

Cómo ven los estadounidenses el impacto de la inteligencia artificial en la sociedad

Kennedy, Brian; Eileen Yam; Emma Kikuchi; Isabelle Pula; Javier Fuentes. How Americans View AI and Its Impact on People and Society. Pew Research Center, 17 septiembre 2025. https://www.pewresearch.org/science/2025/09/17/how-americans-view-ai-and-its-impact-on-people-and-society/

El informe del Pew Research Center, basado en una encuesta nacional realizada a más de cinco mil adultos en junio de 2025, ofrece una radiografía de cómo los estadounidenses perciben el impacto de la inteligencia artificial en la sociedad. Casi la totalidad de los encuestados afirma haber oído hablar de la IA, lo que revela el nivel de penetración del concepto en la cultura general. Sin embargo, ese conocimiento no se traduce necesariamente en entusiasmo: predominan las reservas, las dudas y una sensación de inquietud ante la velocidad de los cambios tecnológicos.

La mayoría de los participantes señalan que se siente más preocupados que esperanzados respecto a la expansión de la IA en la vida cotidiana. Concretamente, la mitad de los encuestados declara experimentar más ansiedad que ilusión frente a estos avances, mientras que solo una pequeña minoría expresa una actitud mayoritariamente optimista. Esta percepción se refleja en el balance entre riesgos y beneficios: más del 50 % cree que los riesgos sociales asociados al desarrollo de la IA son elevados, frente a apenas una cuarta parte que considera igual de significativos los beneficios.

En el ámbito de las capacidades humanas, los encuestados tienden a pensar que la IA puede deteriorar más que potenciar habilidades esenciales. Muchos temen que la creatividad individual, la capacidad de pensamiento crítico y las relaciones interpersonales puedan verse mermadas en un contexto donde las máquinas asumen un papel cada vez más protagónico. Aunque existe un sector que reconoce que la IA puede aportar ventajas en la resolución de problemas complejos, el pesimismo sigue siendo mayoritario.

Donde sí se observa una mayor aceptación es en los usos más técnicos y analíticos de la IA. La ciudadanía se muestra más abierta a su incorporación en campos como la predicción meteorológica, la detección de fraudes financieros o la investigación médica. Sin embargo, rechaza con contundencia la idea de que la inteligencia artificial sustituya a las personas en esferas íntimas y de carácter moral o emocional, como el acompañamiento religioso, la terapia psicológica o la búsqueda de pareja. La distinción entre lo “técnico” y lo “humano” resulta clave: los estadounidenses parecen dispuestos a confiar en los algoritmos cuando se trata de cálculos y datos, pero no cuando se trata de valores, creencias o vínculos afectivos.

Otro hallazgo relevante del estudio es la preocupación por la transparencia en la producción de contenidos. Una gran mayoría considera imprescindible que exista un mecanismo claro para diferenciar el material generado por humanos del producido por sistemas de IA. No obstante, al mismo tiempo, muchos reconocen sentirse incapaces de identificar esa diferencia por sí mismos, lo que genera un clima de desconfianza e incertidumbre. La demanda de regulación y control externo aparece aquí con fuerza, como una forma de proteger tanto la integridad de la información como la autonomía de los individuos frente a una tecnología que, en gran medida, aún se percibe como opaca.

En conjunto, los resultados muestran una ciudadanía dividida entre la aceptación pragmática de la IA en campos de utilidad pública y la resistencia a su penetración en aspectos más personales y sociales. Estados Unidos se encuentra, por tanto, en una fase de negociación cultural: la inteligencia artificial ya forma parte del día a día, pero todavía despierta más temores que entusiasmos. Entre el escepticismo, la cautela y la esperanza, los estadounidenses reclaman garantías de seguridad, transparencia y regulación antes de conceder a la IA un papel más central en la vida social.

Datos clave:

  • Conocimiento generalizado: 95 % de los adultos en EE. UU. ha oído hablar de la inteligencia artificial.
  • Preocupación vs entusiasmo: 50 % se siente más preocupado que ilusionado por la IA; solo 10 % está más entusiasmado; 38 % tiene sentimientos mixtos.
  • Riesgos vs beneficios sociales: 57 % percibe altos riesgos sociales; apenas 25 % percibe altos beneficios.
  • Deseo de control: ~60 % quiere más control sobre cómo la IA afecta sus vidas; solo 17 % está conforme con el control actual.
  • Creatividad: 53 % cree que la IA empeorará la capacidad de pensar creativamente; 16 % piensa que la mejorará.
  • Relaciones humanas: 50 % cree que la IA empeorará la capacidad de formar relaciones significativas; solo 5 % dice que la mejorará.
  • Resolución de problemas: 38 % cree que la IA lo empeorará; 29 % que lo mejorará.
  • Toma de decisiones difíciles: 40 % opina que la IA empeorará esta capacidad; 19 % que la mejorará.Transparencia en contenidos: 76 % cree que es muy importante distinguir entre contenido humano y generado por IA; 53 % no confía en poder hacerlo.
  • Aceptación de roles técnicos: mayoría apoya IA en pronósticos meteorológicos (74 %), detección de fraudes financieros (70 %), control de ayudas gubernamentales (70 %) y desarrollo de medicamentos (66 %).
  • Rechazo en roles íntimos/morales: 73 % rechaza que la IA aconseje sobre fe; 66 % rechaza que evalúe compatibilidad romántica.
  • Edad: jóvenes menores de 30 años son más propensos a pensar que la IA empeorará la creatividad (61 %) y las relaciones (58 %), más que los mayores.
  • Educación: 73 % considera importante que la población entienda qué es la IA; la cifra sube entre personas con estudios universitarios.

Inteligencia artificial y enseñanza universitaria: desafíos, riesgos y oportunidades según la AAUP

AAUP. Artificial Intelligence and Academic Professions. American Association of University Professors, 2025

Texto completo

El informe Artificial Intelligence and Academic Professions de la American Association of University Professors (AAUP) analiza de manera exhaustiva el impacto potencial de la inteligencia artificial (IA) en la educación superior y en las profesiones académicas.

El documento subraya que la adopción de la IA en entornos universitarios no debe ser meramente instrumental o tecnológica, sino que requiere un enfoque crítico, ético y participativo. Los autores advierten que el uso indiscriminado de la IA podría alterar la naturaleza misma del trabajo académico, afectando tanto la autonomía profesional como la libertad académica.

Uno de los puntos centrales del informe es que la IA puede automatizar numerosas tareas docentes y administrativas, desde la corrección de exámenes hasta la generación de materiales educativos o la asistencia en la investigación. Si bien esto puede aumentar la eficiencia, también existe un riesgo significativo de deshumanización de la educación, pérdida de empleos y precarización laboral. La AAUP enfatiza que las herramientas de IA no deben reemplazar la labor humana, sino complementarla, asegurando que el juicio, la experiencia y la creatividad de los académicos sigan siendo insustituibles en la enseñanza y la investigación.

El informe también aborda la participación activa del profesorado en la implementación de estas tecnologías. La AAUP recomienda que las universidades involucren a docentes y personal académico en la selección, supervisión y evaluación de herramientas de IA, evitando decisiones unilaterales por parte de la administración. Esto se considera clave para proteger la integridad académica, garantizar la transparencia en los procesos y fomentar un uso responsable de los datos estudiantiles y de investigación.

Otro tema destacado es el impacto ético y social de la IA en la educación superior. Los académicos deben cuestionar cómo estas tecnologías pueden reproducir sesgos, afectar la equidad educativa y cambiar la naturaleza de la interacción docente-estudiante. El informe enfatiza la necesidad de políticas institucionales claras que promuevan un enfoque ético, incluyendo la protección de la privacidad, la equidad en el acceso y la transparencia en la toma de decisiones algorítmicas.

Por último, el informe de la AAUP subraya que la IA representa tanto oportunidades como desafíos. Por un lado, puede facilitar la enseñanza personalizada, optimizar procesos administrativos y apoyar la investigación. Por otro, plantea riesgos significativos si se implementa sin supervisión ni participación académica. La recomendación final es que las universidades adopten un enfoque equilibrado, reflexivo y regulado, donde la innovación tecnológica se integre respetando los valores fundamentales de la educación superior y la profesionalidad de los docentes.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.

Inteligencia Artificial y profesionales bibliotecarios

Cox, Andrew M. AI and the UK Library Profession: Survey Results — A Report for CILIP. London: CILIP, 2025

Texto completo

El informe analiza cómo los profesionales de bibliotecas e información en el Reino Unido están incorporando la Inteligencia Artificial (IA) en su trabajo, cuáles son sus percepciones y qué apoyos necesitan.

La encuesta, realizada entre noviembre y diciembre de 2024, recogió 162 respuestas válidas procedentes principalmente de bibliotecas universitarias, de salud y públicas. El objetivo del estudio fue conocer no solo el nivel de adopción de estas tecnologías, sino también las oportunidades, riesgos y necesidades que identifican los bibliotecarios.

El resultado más llamativo es que un 65 % de los participantes reconoció estar utilizando herramientas de IA en su trabajo cotidiano. Entre las más citadas se encuentran ChatGPT y Copilot, empleadas sobre todo para tareas de redacción, búsqueda de información y automatización de procesos rutinarios. El uso resulta más extendido en bibliotecas universitarias y de salud, mientras que en las públicas todavía es más moderado. Pese a esta presencia creciente, solo un tercio de las instituciones encuestadas contaba ya con una política específica sobre IA y otro cuarto estaba en proceso de desarrollarla, lo que indica que todavía existe un marco normativo y estratégico insuficiente.

En cuanto a los ámbitos de aplicación, el informe destaca el uso de la IA generativa para redactar borradores de documentos, apoyar la alfabetización digital de los usuarios e integrar la enseñanza crítica de estas tecnologías en programas formativos. También se la emplea en la síntesis de información y en la mejora de procesos internos, con el fin de ganar eficiencia administrativa y liberar tiempo para otras tareas de valor añadido. Todo ello revela que la profesión percibe la IA como una herramienta práctica y útil, aunque aún en fase exploratoria.

Los encuestados identificaron varias oportunidades relacionadas con la IA. Entre ellas figuran la posibilidad de mejorar la eficiencia de los servicios bibliotecarios, reforzar las competencias en análisis y gestión de datos, enriquecer la experiencia de los usuarios y desarrollar nuevas funciones profesionales ligadas a la enseñanza y mediación tecnológica. Sin embargo, junto a estos beneficios emergen preocupaciones importantes que frenan una adopción plena.

Las principales barreras son de naturaleza ética, económica y técnica. En el terreno ético, se señalaron riesgos como la falta de transparencia, los sesgos de los algoritmos, la generación de desinformación y los problemas de privacidad. Desde el punto de vista económico, muchas instituciones consideran que el coste de las soluciones comerciales de IA resulta excesivo. También se subraya el impacto ambiental que puede tener el uso intensivo de estas tecnologías, especialmente por el alto consumo energético de los sistemas. A todo ello se suma la percepción de un déficit de competencias técnicas dentro de la profesión, que limita el aprovechamiento de las herramientas disponibles, y las dudas legales vinculadas a los derechos de autor y la propiedad intelectual en relación con los contenidos generados por IA.

Frente a este panorama, los profesionales expresaron con claridad sus necesidades de apoyo. La mayoría reclama formación accesible en distintos formatos —cursos cortos, seminarios web o materiales escritos— que les permita adquirir un conocimiento práctico y actualizado. También demandan guías éticas y regulatorias que orienten el uso responsable de la IA, así como ejemplos concretos de buenas prácticas adaptadas a diferentes tipos de bibliotecas. Se espera además que CILIP desempeñe un papel de liderazgo institucional, actuando como referente en la elaboración de políticas, en la difusión de recursos y en la representación del sector en los debates públicos y regulatorios sobre la IA.

El estudio muestra que la IA se ha integrado de forma significativa en el trabajo bibliotecario del Reino Unido, aunque de manera desigual y todavía experimental. Los profesionales reconocen tanto sus beneficios como los riesgos que entraña, y existe una demanda clara de liderazgo, formación y marcos normativos que permitan gestionar esta integración de manera responsable. El informe refleja un sector en transformación, que avanza con cautela pero con la convicción de que la IA será una pieza clave en el futuro de las bibliotecas.

La IA y el futuro de la educación: perturbaciones, dilemas y orientaciones.

UNESCO. “AI and the Future of Education: Disruptions, Dilemmas and Directions.UNESCO, 2 de septiembre de 2025. https://unesdoc.unesco.org/ark:/48223/pf0000395236_eng

La UNESCO presenta una antología que explora cómo la inteligencia artificial (IA) está transformando la educación, sus disrupciones, los dilemas éticos y las posibles orientaciones futuras. Se reconoce que la IA ya está modificando la forma en que enseñamos, aprendemos y entendemos el mundo, pero estas transformaciones no se distribuyen por igual. Aproximadamente un tercio de la humanidad sigue sin acceso adecuado a la conectividad, y quienes tienen suscripciones, buena infraestructura o ventaja lingüística son los que más se benefician.

Este desequilibrio implica que no solo el acceso tecnológico sea desigual, sino también qué tipos de conocimientos, valores e idiomas predominan en los sistemas educativos impulsados por IA. Los sistemas tienden a reflejar las estructuras dominantes que ya existen, lo que plantea preguntas sobre equidad, diversidad cultural e inclusión

Además, la antología aborda dilemas filosóficos, éticos y pedagógicos: ¿cómo evaluar a los estudiantes en la era de la IA?, ¿cómo asegurarse de que estas tecnologías promuevan el cuidado, la justicia y los derechos humanos? ¿Cómo diseñar políticas, currículos y pedagogías que reconozcan la cooperación humano-máquina sin deshumanizar ni reforzar desigualdades?

Para enfrentar estos retos, la UNESCO propone fomentar un “commons global” para el diálogo: un espacio global compartido para pensar juntos, debatir diferencias y reimaginar una educación inclusiva en la era de la IA. Se apoya en sus recomendaciones sobre ética de la IA, orientaciones para IA generativa en educación e investigación, y marcos de competencias para docentes y estudiantes.

El programa PISA integrará alfabetización mediática e inteligencia artificial (IA) en 2029

Organisation for Economic Co-operation and Development (OECD). “PISA 2029 Media & Artificial Intelligence Literacy (MAIL).” OECD, consultado April 2025. https://www.oecd.org/en/about/projects/pisa-2029-media-and-artificial-intelligence-literacy.html

Según se indica, la nueva edición pondrá en el centro del análisis y evaluación escolar competencias como el pensamiento crítico, la conciencia algorítmica y la capacidad de evaluar críticamente los medios, reflejando la necesidad de preparar a los estudiantes para un entorno digital cada vez más complejo.

El programa PISA, desarrollado por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), es reconocido por evaluar las habilidades de estudiantes de 15 años en lectura, matemáticas y ciencias en contextos del mundo real. La edición de 2029 incluye un nuevo dominio innovador: la alfabetización mediática y en inteligencia artificial, conocida como MAIL (Media & Artificial Intelligence Literacy), que amplía significativamente el alcance tradicional de la evaluación. El dominio MAIL busca evaluar si los estudiantes han tenido oportunidades de aprender a participar de modo proactivo y crítico en un mundo mediado por herramientas digitales y de inteligencia artificial.

La evaluación MAIL se diseñará como un entorno simulado—incluyendo redes sociales, internet y herramientas generativas de IA—que permitirá evaluar de forma realista competencias relacionadas con el análisis de credibilidad del contenido digital, el uso ético de la IA y la colaboración en entornos digitales.

La edición de 2029 planteará una agenda educativa más adaptativa e integral, centrada en la alfabetización mediática (comprensión crítica de contenido digital y medios) y en la alfabetización sobre IA, lo que incluye entender cómo funcionan los algoritmos, cómo influyen en la sociedad y cómo interactuar con las herramientas digitales de manera ética e informada.

Este cambio significativo en PISA orienta a las escuelas y responsables de políticas educativas hacia una actualización de los currículos. Es esencial que las instituciones incluyan en sus programas de estudios contenidos específicos sobre IA y medios digitales, y que desarrollen metodologías que evalúen estas competencias emergentes. De este modo, no solo se adaptan a los cambios en las herramientas de evaluación internacional, sino que contribuyen a formar estudiantes más preparados para un mundo donde la tecnología digital y algorítmica es omnipresente.

El camino hacia la Inteligencia Artificial General: comprender el cambiante panorama informático del futuro.

The Road to Artificial General Intelligence: Understanding the Evolving Compute Landscape of Tomorrow. MIT Technology Review Insights. En colaboración con Arm. Agosto de 2025.

Texto completo

El artículo aborda el núcleo del desafío de la Inteligencia Artificial General (AGI): los modelos actuales, capaces de escribir código o descubrir fármacos, todavía fracasan en tareas simples que cualquier persona puede resolver en minutos. Esta paradoja refleja la dificultad de crear una IA que no solo sobresalga en dominios específicos, sino que iguale o supere la inteligencia humana en múltiples campos. La pregunta central es si la actual revolución de la IA puede realmente dar ese salto, y cuáles serían los habilitadores clave —hardware, software o una combinación de ambos— necesarios para hacerlo posible.

Expertos del sector ofrecen predicciones audaces. Dario Amodei, cofundador de Anthropic, anticipa la llegada de una “IA poderosa” tan pronto como en 2026. Según él, esta tendría propiedades extraordinarias: inteligencia de nivel Nobel en dominios concretos, capacidad de moverse entre interfaces como texto, audio o entornos físicos, y la autonomía para razonar hacia metas propias, en lugar de limitarse a responder preguntas. Por su parte, Sam Altman, CEO de OpenAI, asegura que ya empiezan a verse características similares a la IAG, con un potencial transformador comparable al de la electricidad o internet. Destaca que el progreso se debe a tres factores: la mejora continua en el entrenamiento y los datos, el abaratamiento del cómputo y un valor socioeconómico que describe como “superexponencial”.

El optimismo no se limita a los fundadores de startups. Proyecciones agregadas indican al menos un 50% de probabilidad de que los sistemas de IA alcancen varios hitos de AGI antes de 2028. Encuestas de expertos sugieren que la probabilidad de que las máquinas superen a los humanos en todas las tareas sin ayuda externa es del 10% para 2027 y del 50% para 2047. Además, los plazos se acortan con cada nuevo avance: lo que con GPT-3 se estimaba en 50 años, a finales de 2024 ya se veía factible en cinco años. Para Ian Bratt, vicepresidente de tecnología de machine learning en Arm, los grandes modelos de lenguaje y razonamiento ya están transformando prácticamente todas las industrias, y son la antesala de este cambio radical.

Empoderar a los alumnos para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education (Review Draft). OECD, Paris, mayo de 2025. PDF. Disponible en: AILitFramework Review Draft.

Texto completo

Este borrador de mayo de 2025 presenta el AILit Framework, un marco de alfabetización en IA dirigido a los niveles de educación primaria y secundaria. Es fruto de una iniciativa conjunta de la Comisión Europea y la OCDE, con el patrocinio de Code.org y la participación de expertos internacionales.

El marco contribuye al desarrollo del dominio de Evaluación de la Alfabetización en Medios e IA (Media & AI Literacy) en PISA 2029. Además, está en sintonía con los esfuerzos de la UE en la transformación digital educativa: el Plan de Acción para la Educación Digital 2021-2027, recomendaciones del Consejo Europeo de 2023, directrices éticas sobre IA y datos (2022), el Marco de Competencia Digital DigComp 2.2 y el Reglamento Europeo de IA (AI Act), que promueve un enfoque centrado en las personas y basado en el riesgo, exigiendo niveles adecuados de alfabetización en IA a quienes desarrollen o desplieguen sistemas de IA

.

  1. Principios fundamentales y estructura del marco
    El AILit Framework se apoya en principios clave que orientan su diseño:
    • Duradero: define competencias que seguirán siendo relevantes a medida que evoluciona la IA.
    • Interdisciplinario: busca integrarse en diversas asignaturas y contextos educativos.
    • Ilustrativo: incluye escenarios y ejemplos didácticos para hacer tangibles las competencias.
    • Práctico: ofrece un enfoque viable dentro del entorno escolar.
    • Global: incorpora perspectivas de educadores y expertos de diferentes regiones del mundo.
    1. Competencias clave del alumnado
      El marco distingue cuatro dominios principales de competencias que los estudiantes deben desarrollar:
    • Interactuar con la IA (engage with AI) – comprender y abordar sistemas de IA de forma crítica y consciente.
    • Crear con IA (create with AI) – usar herramientas de IA para producir contenido o soluciones.
    • Gestionar la IA (manage AI) – supervisar y controlar el uso de la IA de forma informada.
    • Diseñar la IA (design AI) – comprender cómo se construyen los sistemas de IA y participar en su diseño ético.
    • Estas áreas suman 22 competencias específicas, pensadas para proporcionar una base sólida para la interacción educativa con la IA.
    1. Participación y horizonte de implementación
      Este borrador invita a educadores, líderes educativos y responsables de políticas públicas a dar retroalimentación. La versión final del marco está prevista para 2026, acompañada de materiales didácticos y ejemplos prácticos listos para usar en el aula

    Mientras tanto, se está fomentando la colaboración para enriquecer este proceso de elaboración mediante consultas y revisión continua.