Archivo de la categoría: Tecnologías de la información

NISO publica los resultados de una encuesta sobre IA y sistemas de descubrimiento en bibliotecas

NISO Open Discovery Initiative. Generative Artificial Intelligence and Web‑Scale Discovery: Survey Report. Baltimore, MD: National Information Standards Organization, agosto 2025.

Texto completo

El 5 de agosto de 2025, la National Information Standards Organization (NISO) divulgó los resultados de una encuesta que indagó en las expectativas y desafíos vinculados a la integración de la inteligencia artificial generativa (GenAI) en los sistemas de descubrimiento bibliográfico a gran escala

.

El resultado clave destaca la complejidad de adaptar la IA generativa en las herramientas de descubrimiento de bibliotecas, tal como expresó Ken Varnum, copresidente del comité ODI, señalando la multiplicidad de variables técnicas, éticas y operativas que involucra dicha incorporación .

La encuesta —lanzada en otoño de 2024 y cerrada el 31 de octubre de ese año— fue diseñada para recopilar insights de proveedores de discovery, entidades de contenido y bibliotecas, con el fin de orientar el trabajo futuro del comité en términos de estándares y buenas prácticas

Resultados clave:

  • Preocupación generalizada por la precisión de GenAI: Muchos participantes expresaron inquietud sobre la posibilidad de que GenAI proporcione respuestas inexactas o engañosas en contextos académicos y de investigación.
  • Fuerte interés en el potencial de GenAI: A pesar de las preocupaciones, se reconoce que GenAI podría mejorar la experiencia de búsqueda, generar resúmenes automáticos, responder a preguntas complejas y ofrecer interfaces más intuitivas.
  • Dudas sobre la transparencia algorítmica: Bibliotecas y proveedores demandan mayor claridad sobre cómo GenAI genera sus respuestas y qué fuentes utiliza, para garantizar la confiabilidad y evitar sesgos.
  • Desigual nivel de preparación: Algunas bibliotecas ya están explorando activamente la integración de GenAI, mientras que otras aún no lo consideran una prioridad o carecen de recursos y conocimientos técnicos para hacerlo.
  • Preocupación por la autoría y propiedad intelectual: Se identifican vacíos en torno a quién es responsable del contenido generado por IA, especialmente en servicios que entregan resultados textuales o recomendaciones automáticas.
  • Necesidad urgente de normas y buenas prácticas: Los encuestados coinciden en que se requieren marcos normativos, principios éticos y pautas técnicas claras para integrar GenAI en entornos bibliotecarios sin comprometer la calidad ni la integridad académica.
  • Riesgo de opacidad en los sistemas de descubrimiento: Se teme que al incorporar GenAI sin transparencia, los sistemas de descubrimie

Actualmente, el comité ya está preparando un white paper con recomendaciones basadas en los resultados de la encuesta. Este informe se encuentra en las etapas finales de edición y será presentado próximamente al Comité Temático de Intercambio e Interoperación de Información (IDI)

Profesiones en alto riesgo de sustitución con el avance de la Inteligencia Artificial

Melo, M. Floencia. Las profesiones en alerta roja por el avance de la IA: análisis basado en más de 200,000 conversaciones entre usuarios estadounidenses y Microsoft Copilot en 2024. Visualización: Statista.

Texto completo

Aunque no se prevé una eliminación inmediata de las profesiones con mayor porcentaje de tareas automatizables, el informe anticipa una transformación profunda en la naturaleza de estos trabajos. Los perfiles más expuestos a la inteligencia artificial —como traductores, correctores, escritores o matemáticos— no desaparecerán por completo, pero sí experimentarán un desplazamiento hacia funciones nuevas.

En el centro del análisis de Microsoft Research, basado en más de 200 000 interacciones con su herramienta Copilot, se destaca cómo la inteligencia artificial ya demuestra una capacidad muy elevada para llevar a cabo tareas laborales de alta complejidad en ciertas profesiones. Encabezando la lista, los intérpretes y traductores muestran un potencial de automatización del 98% de sus tareas, mientras que historiadores, correctores de textos y matemáticos presentan un porcentaje igualmente alto, en torno al 91%

Si bien esto no implica la eliminación inmediata de estos trabajos, sí anticipa una transformación profunda de roles, donde los profesionales podrían desplazarse hacia funciones más críticas, como la supervisión, revisión o integración de contenidos generados por la IA. Por ejemplo, un corrector tradicional podría convertirse en un editor especializado en IA, y un traductor podría centrarse en curar matices culturales o contextuales que los modelos aún no captan

Datos clave y observaciones

  • Intérpretes y traductores lideran la lista con un sorprendente 98%, lo que indica que gran parte de sus tareas pueden ser sustituidas por IA, gracias al desarrollo de herramientas avanzadas de traducción automática como DeepL o Google Translate, y modelos como GPT-4.
  • Profesiones ligadas al análisis de datos y lenguaje (historiadores, correctores, escritores, matemáticos) también se sitúan en la zona crítica, con un 91% o más de tareas automatizables. Esto pone de manifiesto que la IA no solo reemplaza tareas repetitivas, sino también funciones intelectuales y creativas.
  • Incluso campos técnicos y manuales, como la programación de máquinas CNC, presentan un alto grado de automatización potencial (90%), lo que sugiere una expansión de la IA más allá del trabajo de oficina.
  • Profesiones con fuerte componente comunicacional y analítico como representantes de ventas y asistentes estadísticos también muestran vulnerabilidad, con un 84–85%.

A pesar de esto, la automatización no se limitaría a tareas mecánicas o repetitivas; también afecta funciones intelectuales antes consideradas exclusivas del intelecto humano—como el análisis, la redacción o la interpretación de datos. Este escenario subraya la necesidad de potenciar habilidades blandas, pensamiento estratégico y creatividad, las cuales siguen escapando a la capacidad de los algoritmos

Además, casi todas las profesiones —incluidas aquellas que parecen menos vulnerables— poseen cierto grado de potencial para colaboración con IA. Esto sugiere una reconversión global, donde lo relevante deja de ser si una tarea puede automatizarse, para enfocarse en qué tareas deben continuar siendo asumidas por el ser humano

La apuesta de Zuckerberg: hacia una superinteligencia personal que transforme nuestra vida (y el negocio de Meta)

Zuckerberg, M. (2025). Personal Superintelligence. Meta. https://www.meta.com/superintelligence/

Mark Zuckerberg ha presentado recientemente una visión ambiciosa y polémica: construir una «superinteligencia personal», una inteligencia artificial que no solo sea más inteligente que los humanos, sino que esté profundamente personalizada para cada usuario.

Mark Zuckerberg está apostando el futuro de Meta —y buena parte de su capital— a la creación de una inteligencia artificial que transforme la relación entre las personas y la tecnología. Esta “superinteligencia personal” promete eficiencia, libertad y una nueva era de experiencias asistidas por IA. Pero también plantea interrogantes críticos sobre la economía de la atención, la privacidad, el modelo de negocio y los riesgos éticos que supone poner un asistente todopoderoso en manos de una compañía con intereses comerciales tan potentes como Meta.

Esta idea fue expuesta tanto en su carta pública titulada Personal Superintelligence (Meta, julio de 2025) como durante la presentación de resultados del segundo trimestre de Meta, donde también se destacó un crecimiento récord de ingresos, impulsado por mejoras en productos gracias a la IA.

En su manifiesto, Zuckerberg describe esta superinteligencia como un asistente que gestionará prácticamente todos los aspectos de la vida diaria del usuario: desde la organización de tareas hasta la creatividad personal, pasando por relaciones sociales, entretenimiento y desarrollo personal. El objetivo declarado es liberar a las personas del tiempo que pasan frente a las pantallas y permitir que vivan experiencias más ricas con la ayuda de interfaces más naturales, como gafas inteligentes. Meta ya ha dado pasos significativos en esa dirección con la popularización de sus gafas Ray-Ban con IA, cuyas ventas se triplicaron en el último año.

Zuckerberg subraya que la ventaja competitiva de Meta reside en su escala: la posibilidad de entrenar sistemas con datos procedentes de miles de millones de usuarios. Esto permitiría crear AIs altamente personalizadas y eficientes, que vayan mucho más allá de los chatbots actuales. En paralelo, Meta ha abierto sus modelos LLaMA 3, lo que fortalece su imagen como impulsora del desarrollo de IA abierta, aunque persisten dudas sobre cuán abierta es realmente esta apertura.

Sin embargo, esta visión no está exenta de tensiones ni contradicciones. Mientras Zuckerberg promete un futuro en el que pasamos menos tiempo frente a pantallas, los propios informes financieros muestran que las mejoras en IA han llevado a un aumento del 5–6% en el tiempo que los usuarios pasan en Facebook e Instagram. Es decir, la IA actual de Meta está siendo usada principalmente para captar atención, no para liberarla. A esto se suma la paradoja de que, si los usuarios pasan menos tiempo en las plataformas, el modelo de negocio basado en publicidad se vuelve menos rentable. Una posible solución sería migrar hacia un sistema de comisiones por transacciones realizadas mediante IA, similar al modelo que Sam Altman propone para ChatGPT.

Además, el término “superinteligencia” ha sido históricamente asociado a advertencias sobre riesgos existenciales. Aunque Zuckerberg matiza que el problema no está en la inteligencia en sí, sino en su mal uso, su visión entra en territorio delicado: el de delegar a una IA decisiones íntimas, emocionales y éticas. La confianza del usuario en Meta será clave para que esta propuesta tenga éxito, y esa confianza, históricamente, ha sido frágil debido a los escándalos de privacidad y manipulación algorítmica.

Más información

Wired. Mark Zuckerberg Details Meta’s Plan for Self-Improving, Superintelligent AI. https://www.wired.com/story/meta-earnings-superintelligence-q2-2025/

Mashable. Zuck outlines Meta’s vision for AI ‘personal superintelligence’. https://mashable.com/article/mark-zuckerberg-outlines-metas-vision-ai-personal-superintelligence

Business Insider. Mark Zuckerberg just shared his vision for ‘personal superintelligence’. https://www.businessinsider.com/mark-zuckerberg-meta-personal-superintelligence-ai-letter-meta-2025-7

The Neuron. Mark releases his vision for “personal superintelligence”. Via The AI Report. 31 de julio de 2025.

Uso de inteligencia artificial generativa (GenAI) en la educación superior

Peters Hinton, V.; Choi, Y. H., PhD; Kataria, R. (31 de julio de 2025). Surveying the AI Landscape: Emerging Patterns in Higher Education Research. Digital Promise.

Texto completo

Digital Promise ha analizado más de 300 investigaciones publicadas entre 2022 y 2025 sobre el uso de inteligencia artificial generativa (GenAI) en la educación superior. El enfoque incluye investigaciones experimentales, descrip­tivas y artículos de opinión que exploran cómo se interpretan, adoptan y evalúan estas tecnologías en distintas instituciones educativas

El corpus de estudios tiene una representación global marcada, con concentraciones en EE. UU., Australia, Reino Unido y China. Aunque ChatGPT domina la mayoría de estudios, muchos trabajos carecen de detalles sobre la versión del modelo y su configuración, lo que dificulta la reproducibilidad y comparación entre estudios.

Las áreas más estudiadas están relacionadas con apoyo a la escritura, evaluación automatizada y retroalimentación personalizada. Sin embargo, emergen nuevas aplicaciones innovadoras como:

  • Paneles de control para evaluar vulnerabilidades curriculares frente al uso indebido de GenAI.
  • Agentes conversacionales simulados que generan retroalimentación emocionalmente rica.
  • Herramientas que facilitan el aprendizaje autorregulado mediante monitoreo, planificación y reflexión guiada.
  • Uso de GenAI en el desarrollo profesional de docentes, incluyendo planificación de lecciones y prácticas pedagógicas reflexivas

Se evidencia una falta considerable de transparencia sobre las versiones de los modelos utilizados y cómo se implementaron. También hay escasez de estudios longitudinales o experimentales rigurosos. Además, temas críticos como sesgo algorítmico, privacidad de datos y equidad en el uso de tecnología están relativamente poco explorados hasta ahora.

El estudio ofrece una visión panorámica sobre cómo la inteligencia artificial generativa está comenzando a transformar la educación superior. Aunque su integración todavía está en fase experimental y desigual según disciplinas e instituciones, ya se observan aplicaciones prometedoras y una necesidad urgente de mejorar la transparencia, rigurosidad y equidad en la investigación.

La inteligencia artificial en las bibliotecas universitarias: una encuesta sobre la percepción y la adopción por parte de los usuarios

Haris, Mohammad, Anam Jamal Ansari, Basharat Ahmad Malik, y Brady D. Lund. 2024. “Artificial Intelligence in Academic Libraries: A Survey of Users’ Perception and Adoption.” Global Knowledge, Memory and Communication, publicado en línea el 17 de junio de 2024. https://doi.org/10.1108/GKMC-09-2024-0585.

Este estudio analiza la percepción y la adopción de la inteligencia artificial (IA) en bibliotecas académicas desde el punto de vista de los usuarios, en un momento de creciente digitalización e innovación tecnológica en el entorno universitario.

Los autores reconocen que la IA tiene el potencial de transformar los servicios bibliotecarios al optimizar procesos como la recuperación de información, la atención al usuario y la gestión de recursos. El artículo parte del reconocimiento de que, aunque muchas bibliotecas están empezando a implementar herramientas basadas en IA, falta aún una comprensión clara de cómo los usuarios —los principales beneficiarios— perciben y utilizan estas tecnologías.

La investigación se basa en una encuesta aplicada a usuarios de bibliotecas universitarias en la India, centrada en cuatro dimensiones: conocimiento general sobre IA, experiencias previas de uso, percepción del impacto potencial de la IA en los servicios bibliotecarios y disposición a adoptar estas tecnologías. Se utilizaron métodos cuantitativos y análisis estadístico descriptivo para interpretar los datos. El estudio recoge 302 respuestas válidas, de las cuales la mayoría corresponden a estudiantes universitarios, seguidos por docentes e investigadores. Esta muestra proporciona una visión amplia de las expectativas y reservas que existen en el entorno académico indio con respecto a la adopción de la IA en bibliotecas.

Los resultados muestran que, si bien muchos usuarios están familiarizados con el concepto general de IA, el conocimiento específico de sus aplicaciones en bibliotecas es limitado. Sin embargo, los encuestados expresan una actitud positiva hacia su implementación. Los usuarios consideran que la IA puede mejorar significativamente servicios como la catalogación automática, los sistemas de referencia virtual, la recomendación personalizada de lecturas y la gestión de datos. Al mismo tiempo, se detectan preocupaciones éticas y prácticas, como la posibilidad de sesgos algorítmicos, la pérdida de empleos bibliotecarios tradicionales y la necesidad urgente de formación profesional para un uso eficaz de estas herramientas.

Resultados clave

1. Conocimiento general de la IA:

  • La mayoría de los encuestados (usuarios de bibliotecas académicas en la India) están familiarizados con el concepto general de inteligencia artificial.
  • Sin embargo, el conocimiento específico sobre la aplicación de la IA en bibliotecas es limitado.

2. Actitud positiva hacia la IA:

  • Los usuarios tienen una percepción mayoritariamente favorable hacia la integración de la IA en los servicios bibliotecarios.
  • Consideran que la IA puede mejorar la eficiencia, la personalización y la accesibilidad de los servicios.

3. Aplicaciones percibidas como más útiles:

  • Recomendación personalizada de libros y recursos.
  • Sistemas de referencia virtual y chatbots.
  • Clasificación automática y organización de materiales.
  • Mejora de la búsqueda de información mediante procesamiento de lenguaje natural.
  • Análisis de datos de usuarios para mejorar decisiones bibliotecarias.

4. Barreras identificadas para la adopción:

  • Falta de conocimiento técnico y formación adecuada entre bibliotecarios y usuarios.
  • Preocupaciones sobre la privacidad de los datos.
  • Temor a la pérdida de empleos o deshumanización del servicio bibliotecario.
  • Ausencia de infraestructura tecnológica avanzada en muchas bibliotecas.

5. Necesidad de formación:

  • Los usuarios consideran esencial la capacitación en IA para poder utilizar eficazmente estas tecnologías.
  • Se propone que las bibliotecas lideren programas de formación técnica y ética sobre IA.

6. Diferencias por perfil del usuario:

  • Los docentes e investigadores tienen una actitud ligeramente más favorable hacia la IA que los estudiantes.
  • Los usuarios con mayor exposición previa a herramientas de IA (fuera del ámbito bibliotecario) tienen mayor disposición a adoptarlas dentro de las bibliotecas.

7. Alta predisposición a la adopción futura:

  • A pesar de las limitaciones actuales, una mayoría significativa de encuestados afirma que estarían dispuestos a utilizar servicios bibliotecarios basados en IA si se implementan de forma ética, clara y accesible.

8. Importancia de las políticas institucionales:

  • El estudio subraya la necesidad de establecer marcos éticos y normativos para guiar la integración de la IA en bibliotecas académicas.

Una de las principales aportaciones del estudio es su énfasis en la importancia de la alfabetización digital y la capacitación en inteligencia artificial tanto para usuarios como para bibliotecarios. Los autores destacan que el éxito de la implantación de tecnologías de IA no depende únicamente de las herramientas disponibles, sino de la preparación y actitud de quienes las utilizan. Además, el artículo recomienda que las bibliotecas elaboren políticas institucionales claras sobre el uso ético y transparente de la IA, que refuercen la confianza de los usuarios y garanticen el respeto a los principios de privacidad y equidad.

Finalmente, los autores concluyen que existe un alto potencial para la adopción de la IA en bibliotecas universitarias, pero que esta transformación debe ser guiada por estrategias reflexivas y colaborativas. Se recomienda una combinación de inversión en infraestructura tecnológica, desarrollo profesional del personal bibliotecario y campañas de sensibilización dirigidas a los usuarios. El estudio aporta una valiosa base empírica para futuras investigaciones sobre IA en bibliotecas en contextos similares y sugiere líneas de acción para una implementación responsable, centrada en las necesidades reales de la comunidad académica.

Estrategia de Estados Unidos frente al avance global de la inteligencia artificial (IA)

The Median. “Action or Overthinking? The U.S. Plans Ahead for AI.dc: The Median (Substack), julio 2025. Consultado el 30 de julio de 2025. https://dcthemedian.substack.com/p/action-or-overthinking-the-us-plans.

El artículo examina la estrategia de Estados Unidos frente al avance global de la inteligencia artificial (IA), especialmente ante la presión de mantenerse competitivo frente a potencias como China. Desde la perspectiva del autor, el gobierno estadounidense se enfrenta a una disyuntiva entre actuar con rapidez o caer en la trampa del exceso de análisis y planificación. La pregunta de fondo es si EE. UU. está liderando el futuro de la IA o simplemente intentando alcanzarlo con marcos de política pública que podrían volverse obsoletos antes de ser implementados.

Uno de los principales enfoques del texto es la necesidad de que las políticas públicas no solo reaccionen, sino que se anticipen a las transformaciones radicales que está generando la IA. El artículo destaca los intentos de la administración estadounidense por establecer regulaciones, guías éticas y marcos normativos. No obstante, el autor plantea que estas medidas, aunque bien intencionadas, pueden llegar tarde o ser demasiado genéricas si no se basan en un conocimiento técnico profundo y en una colaboración efectiva entre gobierno, academia e industria.

El texto también subraya el contraste entre diferentes modelos de gobernanza de la IA: mientras Estados Unidos apuesta por una regulación flexible, Europa prioriza el control normativo y la protección de derechos, y China sigue una vía centrada en el uso estratégico estatal. Esta comparación revela que la velocidad y la dirección de la política tecnológica pueden marcar diferencias significativas en la posición global de cada país.

Finalmente, el autor concluye que Estados Unidos debe asumir un enfoque más dinámico, con marcos normativos adaptables que no obstaculicen la innovación, pero que tampoco ignoren los riesgos sociales, éticos y económicos asociados al avance de la inteligencia artificial. Es necesario actuar con visión de futuro, pero sin caer en la parálisis por análisis.

Diferencias entre ChatGPT (de OpenAI) y Microsoft Copilot

DataCamp. “ChatGPT vs. Copilot: Which AI Assistant Is Right for You?” DataCamp, abril–mayo 2025. Consultado el 30 de julio 2025.

Texto completo

ChatGPT destaca por su versatilidad y creatividad, siendo capaz de abordar tareas muy variadas y adaptarse a múltiples idiomas, formatos y estilos de escritura. Por su parte, Copilot está optimizado para la productividad dentro del ecosistema Microsoft 365: integra funciones en Word, Excel, PowerPoint, Outlook y Teams.

Uno de los puntos clave es que ChatGPT soporta una amplia gama de lenguajes de programación y frameworks, mientras que Copilot está especialmente enfocado en entornos de desarrollo de Microsoft y tareas empresariales estructuradas.

En cuanto al modelo de negocio, ambos ofrecen versiones gratuitas, pero se requiere suscripción (por ejemplo, ChatGPT Premium o Copilot Pro/Microsoft 365 Copilot) para acceder a funciones avanzadas.

Calidad de respuesta y fiabilidad

ChatGPT ofrece respuestas más conversacionales, creativas y adaptables, aunque puede no citar fuentes directamente. Copilot, al estar integrado con Bing y el ecosistema Microsoft, tiende a ofrecer respuestas más precisas, con formatos claros, mejor notación matemática y referencias verificables.

Integración con herramientas de trabajo

Copilot ofrece integración directa y profunda con aplicaciones como Microsoft Word, Excel, PowerPoint, Outlook y Teams. Puede analizar datos en Excel (tablas dinámicas, gráficos, fórmulas), generar presentaciones y redactar correos personalizados a partir de hilos de correo o documentos. ChatGPT, aunque puede conectarse a otras herramientas y servicios, requiere configuraciones externas mediante API o Zapier, lo que lo hace más flexible pero menos inmediato para usuarios de Microsoft 365.

Seguridad y entorno empresarial

Copilot se beneficia de las protecciones de seguridad y cumplimiento de Microsoft 365, incluyendo control de datos, gestión empresarial y políticas corporativas. ChatGPT ofrece medidas de seguridad estándar, con características adicionales en la versión Enterprise para entornos profesionales.

Qué herramienta elegir según tus necesidades

Si trabajas ampliamente en el entorno de Microsoft 365 y buscas automatizar tareas repetitivas como gestión de correos, informes o análisis en Excel dentro de un flujo estandarizado, Copilot puede ser la opción más eficiente. Permite realizar tareas rápidamente dentro de la suite (Word, Excel, PowerPoint, Outlook y Teams) sin salir del entorno familiar.

Si en cambio necesitas soluciones creativas, trabajar con múltiples formatos, personalizar respuestas o desarrollar con soporte en múltiples lenguajes y contextos, ChatGPT ofrece mayor flexibilidad y amplitud funcional, especialmente si deseas crear asistentes personalizados o escribir contenido narrativo, técnico o creativo.

En muchos casos, una combinación de ambos es una estrategia efectiva: se puede aprovechar ChatGPT para generación creativa y análisis abierto, mientras que Copilot se usa para flujos de trabajo dentro de Microsoft 365.

Empoderando a los estudiantes para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

OCDE y Comisión Europea. 2025. Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education. Borrador, mayo de 2025. https://ailiteracyframework.org/wp-content/uploads/2025/05/AILitFramework_ReviewDraft.pdf

Texto completo

Informe publicado en mayo de 2025 como borrador conjunto de la Comisión Europea y la OCDE, con la colaboración de organizaciones como Code.org y una red internacional de expertos. Su objetivo es ofrecer un marco estructurado para la enseñanza de la alfabetización en inteligencia artificial (IA) en la educación primaria y secundaria.

Esta iniciativa responde a la necesidad urgente de preparar a los estudiantes para convivir con tecnologías basadas en IA, no solo como usuarios, sino como ciudadanos críticos y responsables en un mundo digital en constante transformación.

El marco parte del hecho de que los jóvenes ya están expuestos a la IA en su vida diaria, aunque en la mayoría de los casos no aprenden sobre ella de manera formal en la escuela. Se propone, por tanto, una definición amplia de alfabetización en IA que incluye conocimientos técnicos, habilidades transferibles y actitudes fundamentales. Esta alfabetización permite al alumnado comprender cómo funciona la IA, utilizarla de manera crítica y creativa, tomar decisiones informadas sobre su uso, y reflexionar sobre sus implicaciones éticas, sociales y culturales.

La estructura del marco se articula en torno a cuatro dominios clave. El primero, «Engaging with AI», se centra en el reconocimiento de la presencia de la IA, su funcionamiento y la evaluación de sus resultados. El segundo, «Creating with AI», se orienta al uso creativo y ético de la IA en tareas de comunicación, arte, resolución de problemas y producción de contenidos. El tercero, «Managing AI», invita a reflexionar sobre el papel humano en la toma de decisiones apoyadas por IA, promoviendo un uso consciente y deliberado. El cuarto y más avanzado, «Designing AI», fomenta la exploración de cómo se diseñan los sistemas de IA, la importancia de los datos y el impacto social de esas decisiones.

Cada dominio se desglosa en competencias específicas, un total de 22, que integran conocimientos, habilidades y actitudes, y se acompañan de ejemplos prácticos adaptados tanto a educación primaria como secundaria. Estos escenarios muestran cómo abordar la IA en distintas asignaturas sin necesidad de recursos tecnológicos complejos, apostando por una enseñanza transversal y contextualizada.

Además, el marco destaca contenidos transversales como el pensamiento crítico, la creatividad, la colaboración, la empatía o la responsabilidad social, los cuales son considerados esenciales para una ciudadanía activa en la era digital. El documento también resalta la importancia de formar al profesorado y dotarlo de materiales y guías que faciliten la implementación del marco en contextos educativos diversos.

El borrador fue presentado el 22 de mayo de 2025 y ha sido abierto a consulta pública hasta el 31 de agosto del mismo año. Se espera que la versión final se publique en 2026, acompañada de recursos pedagógicos complementarios. Esta propuesta no solo busca transformar el currículo, sino también ofrecer una herramienta de política educativa capaz de guiar decisiones a nivel nacional e internacional sobre la inclusión de la IA en la educación formal.

Alfabetización en Inteligencia Artificial con Alejandro Uribe. Planeta Biblioteca 2025/07/23

Alfabetización en Inteligencia Artificial con Alejandro Uribe.

Planeta Biblioteca 2025/07/23

ESCUCHAR

Descargar

En una entrevista para Radio Universidad de Salamanca, Alejandro Uribe Tirado habló sobre los retos y logros que enfrenta América Latina en temas de alfabetización informacional y el uso de la inteligencia artificial. Comentó cómo muchas personas aún no tienen acceso ni formación suficiente para manejar la información de forma crítica. También destacó que, a pesar de las dificultades, cada vez hay más proyectos e iniciativas que buscan cerrar esa brecha. Alejandro nos ha hablado de su proyecto de alfabetización en inteligencia artificial, en el que subraya la necesidad de formar no solo en el uso de herramientas, sino también en sus implicaciones éticas, sociales y culturales. Insistió en que es clave educar a las nuevas generaciones para que comprendan cómo funciona la tecnología y cómo puede influir en sus vidas. Además, remarcó el papel fundamental de las bibliotecas y los docentes en este proceso. La entrevista deja claro que hay mucho por hacer, pero también muchas ganas de avanzar.

Ingeniería de Prompts: recomendaciones personalizadas para la consulta de modelos de Inteligencia Artificial

Kusano, Genki, Kosuke Akimoto, y Kunihiro Takeoka. “Revisiting Prompt Engineering: A Comprehensive Evaluation for LLM‑based Personalized Recommendation.” ArXiv, julio 17 de 2025. https://arxiv.org/abs/2507.13525v1.

Los investigadores se adentran en el diseño de ingeniería de prompts, variando aspectos como la estructura (instrucciones explícitas, estilo conversacional), la extensión y formalidad del texto, y la inclusión de ejemplos contextuales. Su objetivo es entender cómo estas variantes afectan tres métricas clave: precisión de la recomendación, relevancia semántica del contenido generado y calidad de las explicaciones aportadas. Mediante el análisis de diferentes LLMs –sin nombrarlos específicamente en el artículo–, se observan diferencias marcadas según el tipo de prompt utilizado.

Los resultados muestran que un prompt cuidadosamente estructurado puede igualar o incluso superar los métodos tradicionales, especialmente en entornos con escasos datos de usuario. Destaca la importancia de utilizar ejemplos contextuales y formatos de diálogo que guían al modelo, lo que mejora tanto la exactitud de las recomendaciones como su explicabilidad. Sin embargo, los LLM se revelan sensibles a cambios mínimos en los prompts, lo que plantea desafíos de robustez y reproducibilidad si se pretende aplicarlos a gran escala.

Los autores concluyen que la ingeniería de prompts podría ofrecer una alternativa eficiente a los enfoques convencionales, evitando la necesidad de grandes volúmenes de datos, infraestructuras de entrenamiento o información demográfica. Apuntan, no obstante, a la urgencia de desarrollar métodos para automatizar el diseño de prompts y reforzar la consistencia de los modelos. Proponen futuras líneas de investigación que aborden estos retos, contribuyendo a consolidar a los LLM como herramientas fiables en entornos reales de recomendación personalizada.