Archivo de la categoría: Tecnologías de la información

Búsqueda de información asistida por IA (RAG) en bibliotecas universitarias

Bevara, R. V. K., Lund, B. D., Mannuru, N. R., Karedla, S. P., Mohammed, Y., Kolapudi, S. T., & Mannuru, A. (2025). Prospects of Retrieval Augmented Generation (RAG) for Academic Library Search and Retrieval. Information Technology and Libraries44(2). https://doi.org/10.5860/ital.v44i2.17361

Retrieval Augmented Generation (RAG) es una tecnología que combina dos cosas: por un lado, sistemas que saben buscar información en bases de datos o documentos (esto es el “retrieval” o recuperación), y por otro lado, modelos de inteligencia artificial que pueden entender y generar texto en lenguaje natural (como los chatbots o asistentes virtuales). De manera que cuando Entonces, cuando se hace una pregunta, RAG primero busca la información relevante en fuentes confiables y después usa esa información para crear una respuesta clara y completa, como si estuvieras hablando con un experto que tiene acceso a mucha información precisa.

Se examina el potencial de los sistemas basados en RAG para transformar los métodos tradicionales de búsqueda y recuperación de información en bibliotecas universitarias. RAG combina las capacidades de comprensión del lenguaje natural de los grandes modelos de lenguaje (LLM) con sistemas estructurados de recuperación de información basados en bases de datos verificadas, creando así un enfoque innovador para la búsqueda académica que mejora la precisión y relevancia de los resultados.

El estudio detalla los requerimientos técnicos necesarios para integrar RAG en los sistemas bibliotecarios actuales, destacando la importancia de las arquitecturas middleware que conectan las bases de datos académicas con los procesos de generación y recuperación. Se profundiza en elementos como las canalizaciones de embedding (representaciones vectoriales de datos), las bases de datos vectoriales y la arquitectura técnica que permite que RAG procese consultas en tiempo real, utilizando el contexto y el significado semántico para refinar los resultados de búsqueda.

Además, el artículo resalta cómo los sistemas RAG pueden mejorar significativamente la experiencia del usuario en las bibliotecas académicas, gracias a funcionalidades como la asistencia personalizada en la investigación, interfaces conversacionales para interactuar de forma más natural y la integración multimodal de contenido (texto, imágenes, datos). Sin embargo, también enfatiza la necesidad de cumplir con regulaciones de privacidad de datos y derechos de autor para asegurar un uso responsable y ético de estas tecnologías.

Entre las consideraciones críticas, el estudio aborda aspectos éticos, la transparencia del sistema y la confianza del usuario, indicando que, aunque RAG ofrece grandes oportunidades para modernizar los servicios bibliotecarios, su implementación exitosa depende de un equilibrio cuidadoso entre innovación técnica y responsabilidad social. Finalmente, los autores concluyen que la integración de RAG en bibliotecas académicas tiene un gran potencial para revolucionar la forma en que se accede y se gestiona el conocimiento, pero que aún se requiere investigación continua en áreas como la escalabilidad del sistema, el cumplimiento ético y la optimización de costos para su adopción masiva.

¿Están los robots de inteligencia artificial desplazando al patrimonio cultural?

Weinberg, Michael. 2025. “Are AI Bots Knocking Cultural Heritage Offline?GLAM‑E Lab, abril 2025. https://www.glamelab.org/products/are-ai-bots-knocking-cultural-heritage-offline/.

El informe “Are AI Bots Knocking Cultural Heritage Offline?”, publicado en abril de 2025 por GLAM‑E Lab y escrito por Michael Weinberg, documenta el creciente problema que enfrentan colecciones culturales digitales (museos, bibliotecas, archivos y galerías) frente a bots de IA que rastrean y copian masivamente sus contenidos. En muchas instituciones, una oleada inesperada de tráfico automatizado ha generado sobrecarga en los servidores, ralentizaciones o incluso caídas temporales del servicio.

A finales de 2024, empezaron a surgir relatos aislados de colecciones individuales de patrimonio cultural en línea. Estos relatos describían servidores y colecciones que se agotaban -y a veces se rompían- bajo la carga de un enjambre de bots. Al parecer, los bots extraían todos los datos de las colecciones para crear conjuntos de datos con los que entrenar modelos de inteligencia artificial.

El laboratorio GLAM-E encuestó a docenas de instituciones GLAM (galerías, bibliotecas, archivos y museos) para empezar a responder a estas preguntas. Este informe, publicado en junio de 2025, documenta cómo las instituciones se ven sometidas a la presión de los bots y cómo las cosas pueden empeorar antes de mejorar.

Estas son algunas de las cuestiones más relevantes del informe:

  • Los bots están muy extendidos, aunque no son universales. De los 43 encuestados, 39 experimentaron un aumento reciente en el tráfico. Veintisiete de esos 39 atribuyeron el aumento al tráfico de bots que recolectan datos para entrenamiento de IA, y otros siete sospechan que los bots podrían estar contribuyendo al incremento.
  • Este aumento de tráfico ha sido difícil de anticipar, ya que pocos encuestados estaban monitorizando activamente el tráfico de bots antes de que estos provocaran una crisis en sus colecciones. Muchos no se dieron cuenta de que estaban recibiendo tráfico de bots hasta que dicho tráfico saturó el servicio y dejó las colecciones digitales fuera de línea.
  • Algunos encuestados comenzaron a notar un incremento en el tráfico de bots desde 2021, mientras que otros no lo experimentaron hasta 2025.
  • Algunos bots se identifican claramente, mientras que otros emplean diversas estrategias para ocultar su origen.
  • Cuando los bots aparecen, tienden a hacerlo en enjambres durante períodos relativamente breves. La frecuencia de estos enjambres podría estar aumentando.
  • El archivo robots.txt no es actualmente un método eficaz para impedir que los bots saturen las colecciones.
  • Los encuestados están implementando una variedad de contramedidas, tanto propias como de terceros, basadas en cortafuegos, para intentar filtrar los bots según la dirección IP, la geografía, el dominio o el agente de usuario. Algunas de estas medidas parecen funcionar, aunque pocos tienen confianza en que sean sostenibles a largo plazo.
  • Los encuestados se muestran reacios a adoptar medidas más agresivas, como colocar las colecciones detrás de pantallas de inicio de sesión, por diversas razones: dudas sobre su eficacia a medio plazo, preocupaciones por los efectos negativos en los usuarios legítimos, y el temor de que tales restricciones contradigan su objetivo principal de mantener las colecciones libremente accesibles en línea.
  • Los encuestados temen que los enjambres de bots de entrenamiento de IA generen un entorno de costos crecientes insostenibles para ofrecer acceso en línea a las colecciones.

Los hallazgos exponen que muchas colecciones no detectaron la actividad de los bots hasta que los sistemas dejaron de responder, lo que obligó a implementar contramedidas rápidas, como cortafuegos específicos (e.g., Cloudflare, AWS), o considerar el uso de restricciones por IP, regiones geográficas, o agentes de usuario. Aunque algunas medidas temporales han funcionado, la mayoría de entrevistados reconoce que no son fiables a largo plazo .

El informe concluye que el problema es extensible y creciente, dada la expansión de los bots de IA desde 2021. Advierte que, sin una estrategia concertada que combine soluciones tecnológicas y nuevos estándares comunitarios, la capacidad de mantener colecciones digitales abiertas y accesibles podría verse comprometida por los costos de infraestructura y la presión técnica insostenible .

Preparando a los bibliotecarios para la era de la Inteligencia artificial

Preparando a los bibliotecarios para la era de la Inteligencia artificial por Julio Alonso Arévalo

Ver

Organiza: Asociación de Profesionales de Bibliotecas, Archivos y Gestión de la Información y Documentación en Extremadura (ABAIDEX)

Fecha 2025/06/17

La Asociación de Profesionales de Bibliotecas, Archivos y Gestión de la Información y Documentación en Extremadura (ABAIDEX) organizó un seminario web gratuito centrado en los retos y oportunidades de la transformación digital en las bibliotecas. La sesión estuvo a cargo de Julio Alonso Arévalo, bibliotecario e investigador de la Universidad de Salamanca, y una de las voces más reconocidas en innovación bibliotecaria en el ámbito hispano.

El evento se celebró el martes 17 de junio a las 12:30 horas, con una duración estimada de una hora. La ponencia abordó el impacto de la inteligencia artificial en el ejercicio profesional de los bibliotecarios y abrió un espacio de reflexión sobre el papel de estas tecnologías en los servicios de información, la gestión documental y la formación tanto de profesionales como de usuarios.

Este webinar se enmarcó en el plan formativo de ABAIDEX, orientado a mejorar las competencias profesionales, reforzar el reconocimiento social del sector y consolidar redes de aprendizaje compartido.

La inteligencia artificial generativa en la biblioteca médica: transformando el acceso al conocimiento y el rol profesional. 

García-Puente, María. 2025. “La inteligencia artificial generativa en la biblioteca médica: transformando el acceso al conocimiento y el rol profesional.” Clip, junio. https://doi.org/10.47251/clip.n91.163

La irrupción de la inteligencia artificial (IA) generativa está teniendo un impacto profundo en la manera en que las bibliotecas médicas gestionan la información, ofrecen servicios y se posicionan dentro de los sistemas de salud y conocimiento. Esta tecnología, que permite generar texto, imágenes o código a partir de instrucciones humanas, ofrece una oportunidad transformadora para automatizar tareas, mejorar la experiencia de los usuarios y redefinir el papel del bibliotecario en un entorno cada vez más digitalizado.

Uno de los principales aportes de la IA generativa en este contexto es su capacidad para optimizar la gestión interna de las bibliotecas médicas. Esto incluye desde la organización inteligente de las colecciones hasta la automatización de tareas repetitivas como la redacción de informes o el envío de correos electrónicos. Además, la IA puede servir de soporte a los profesionales de la salud y la investigación mediante la implementación de asistentes virtuales, motores de búsqueda avanzada y herramientas de análisis de la información que permiten detectar patrones, generar resúmenes o visualizar datos complejos con mayor facilidad.

Lejos de sustituir a los bibliotecarios, la IA plantea una redefinición profunda de su rol profesional. Para aprovechar estas herramientas de forma efectiva y ética, se requieren nuevas competencias: alfabetización en inteligencia artificial, dominio del «prompt engineering» (la habilidad para diseñar instrucciones precisas para obtener respuestas útiles), capacidad para evaluar críticamente el funcionamiento de las tecnologías empleadas, y liderazgo para guiar su implementación en entornos sensibles como los médicos. De este modo, los profesionales de la información deben posicionarse como mediadores estratégicos entre la inteligencia humana y la artificial.

Sin embargo, la adopción de estas tecnologías no está exenta de riesgos ni de desafíos. Entre ellos se destacan los problemas asociados con la precisión y fiabilidad de los contenidos generados, los sesgos algorítmicos que pueden perpetuar desigualdades, la protección de los datos personales en entornos clínicos, los costes de implantación y mantenimiento de las herramientas, y la necesidad de una formación continua para mantenerse actualizado. A pesar de ello, el artículo sostiene que la IA generativa no debe entenderse como una amenaza, sino como una oportunidad para que las bibliotecas médicas refuercen su papel en el ecosistema sanitario, se conviertan en centros de innovación y promuevan una colaboración ética y eficaz entre máquinas y humanos.

El usuario actual prefiere las respuestas directas integradas de los modelos IA en lugar de navegar por múltiples enlaces

Daoudi, Mehdi. “AI and the Future of Search: How We Broke the Web and What Comes Next.” Forbes Technology Council, 2 de abril de 2025.

Fuente

Se analiza cómo la adopción masiva de buscadores basados en IA —como ChatGPT, Perplexity o los «AI Overviews» de Google— está transformando profundamente la estructura y el funcionamiento tradicionales de la web. Según Daoudi, el usuario actual prefiere respuestas integradas directamente en los resultados en lugar de navegar entre múltiples enlaces; sin embargo, esta tendencia puede generar una crisis de transparencia en la información, ya que no siempre se sabe cómo se priorizan las fuentes o cuáles se están utilizando .

El autor advierte sobre el riesgo de que estas plataformas “rompan” la web al consolidar respuestas sin referencia clara a las fuentes originales. Frente a este desafío, subraya la pérdida de control del usuario sobre la veracidad y el contexto, a medida que el sistema se comporta como una «caja negra» que fusiona múltiples contenidos inconsistentes o sesgados. Se plantea la pregunta crítica: ¿quién decide qué información se muestra y en qué orden? .

Daoudi propone que el futuro de la búsqueda debe evolucionar hacia una estructura híbrida que combine lo mejor del modelo tradicional (enlaces y rastreo) con la inteligencia contextual de la IA. Sugiere que los portales de búsqueda necesitan ofrecer:

  • Transparencia: mostrar claramente las fuentes utilizadas, y cómo la IA seleccionó y sintetizó la información.
  • Control del usuario: brindar opciones para que los usuarios exploren más en profundidad (por ejemplo, desgloses fuente por fuente).
  • Retroalimentación activa: permitir al usuario participar en la mejora continua del sistema, señalando errores o preferencias.

El artículo también sitúa este fenómeno dentro de un contexto más amplio: la economía web está siendo redefinida por el desplazamiento de clics y tráfico hacia respuestas directas de IA, lo que ha provocado preocupación entre editores y creadores de contenido por los impactos en ingresos publicitarios y visibilidad. Además, la dependencia creciente de agentes generativos plantea interrogantes legales ligados a derechos de autor, compensación justa y transparencia algorítmica.

Se advierte que la revolución de la búsqueda potenciada por IA tiene un enorme potencial para mejorar la experiencia de usuario, pero también conlleva riesgos significativos: desinformación, pérdida de visibilidad para creadores de contenido y opacidad en los procesos de decisión. Por ello, propone una evolución hacia sistemas híbridos que integren fiabilidad, trazabilidad, participación activa del usuario y regulación informada.

¿Qué son los agentes de inteligencia artificial (IA)?

Wired. 2025. “Unpacking AI Agents.” Uncanny Valley podcast, June 12, 2025. https://www.wired.com/story/uncanny-valley-podcast-unpacking-ai-agents/

A diferencia de los chatbots tradicionales, los agentes de IA no solo generan texto o imágenes a partir de indicaciones, sino que planifican, toman decisiones, interactúan con entornos digitales y ejecutan tareas complejas sin supervisión humana constante.

Se trata de sistemas diseñados para cumplir objetivos en el mundo real: desde reservar un vuelo y enviar correos electrónicos hasta gestionar calendarios, realizar búsquedas en múltiples plataformas o incluso negociar con otros agentes. Estos sistemas están construidos sobre grandes modelos de lenguaje (LLMs), pero requieren una arquitectura más sofisticada para integrar acción, razonamiento y persistencia en el tiempo.

Empresas como OpenAI, Google, Amazon y Anthropic están invirtiendo intensamente en este campo. Algunas, como OpenAI, han dado pasos importantes al presentar herramientas que convierten modelos como GPT-4 en verdaderos asistentes proactivos, capaces de ejecutar instrucciones en múltiples etapas, navegar por internet o integrarse con aplicaciones de productividad. El objetivo final es lograr lo que algunos llaman “agentes personales universales”: asistentes digitales que comprendan nuestras preferencias, hábitos y objetivos para automatizar tareas cotidianas de manera fluida y segura.

No obstante, los desafíos son inmensos. Para que un agente actúe de forma autónoma, necesita entender contextos complejos, gestionar información incierta y adaptarse a entornos dinámicos. Además, debe tomar decisiones alineadas con las intenciones del usuario y con principios éticos básicos, algo que la tecnología actual todavía no garantiza plenamente. El episodio señala ejemplos en los que los agentes pueden fallar: desde reservar vuelos con escalas imposibles hasta tomar decisiones inapropiadas por no comprender matices culturales o emocionales. Esta brecha entre capacidad técnica y comprensión profunda del mundo real es una de las grandes limitaciones actuales.

Otro tema crucial abordado por los anfitriones es el de la responsabilidad y el control humano. A medida que estos sistemas se vuelven más autónomos, surgen interrogantes sobre quién debe rendir cuentas si un agente comete un error grave o causa daños. También se discute el posible impacto sobre el empleo y las relaciones humanas: ¿qué tareas estamos dispuestos a delegar a una máquina? ¿Qué aspectos de nuestra vida diaria deberían seguir estando mediados por decisiones humanas? El temor a una excesiva dependencia tecnológica es recurrente en el episodio, así como la posibilidad de que estos agentes puedan ser usados con fines maliciosos: desde manipulación de usuarios hasta ciberataques automatizados.

Pese a todo, el episodio mantiene una mirada equilibrada. Reconoce que los agentes de IA podrían liberar a las personas de muchas cargas administrativas y mejorar la eficiencia en sectores como la educación, la medicina, la logística o la atención al cliente. Pero enfatiza que su desarrollo debe estar guiado por principios éticos, por el diseño transparente de sistemas y por la inclusión de supervisión humana significativa. También se aboga por la apertura de código, la interoperabilidad y la participación de voces diversas en el debate sobre cómo estas tecnologías deben ser implementadas.

El 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa

Common Sense Media. The Dawn of the AI Era: Teens, Parents, and Generative AI. San Francisco: Common Sense Media, 2024.

Texto completo

El informe revela que aproximadamente el 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa, como ChatGPT o DALL·E. Estas tecnologías se emplean principalmente para ayudar en tareas escolares, especialmente para generar ideas o traducir contenidos. Sin embargo, solo el 37 % de los padres son conscientes del uso que sus hijos hacen de estas herramientas, lo que evidencia una desconexión significativa entre adolescentes y adultos en cuanto al conocimiento y manejo de la IA.

En cuanto a las políticas escolares, el estudio destaca que muchas escuelas aún no cuentan con normativas claras sobre el uso de la IA generativa. Un 37 % de los adolescentes reportan que en sus escuelas no existen reglas definidas al respecto, mientras que el 42 % de los docentes suelen prohibir su uso. Por otro lado, el 87 % de los padres han oído hablar de estas tecnologías, pero muchos desconocen cómo y cuándo sus hijos las utilizan.

El informe también muestra diferencias en el uso de la IA entre grupos raciales. Los adolescentes afroamericanos y latinos tienden a utilizar una gama más amplia de funciones de la IA en comparación con sus compañeros blancos. Además, los padres de adolescentes afroamericanos suelen tener una visión más positiva respecto al impacto de estas tecnologías en la educación y en el desarrollo de habilidades. No obstante, se observa que los adolescentes afroamericanos tienen más probabilidades de que sus trabajos sean erróneamente identificados como generados por IA, lo que plantea preocupaciones sobre posibles sesgos en los sistemas de detección.

Otro aspecto importante es que los adolescentes que participan en discusiones en el aula sobre la inteligencia artificial tienen una percepción más crítica y equilibrada de sus ventajas y desventajas. Estos jóvenes suelen verificar con mayor frecuencia la precisión del contenido generado por IA y reflexionan sobre cómo esta tecnología podría influir en sus futuras carreras profesionales.

Finalmente, el informe propone recomendaciones para distintos actores. A los padres se les sugiere informarse y dialogar con sus hijos sobre los beneficios y riesgos de la IA. A los educadores se les aconseja desarrollar políticas claras para su uso en el aula y promover debates críticos. A los responsables políticos se les insta a crear directrices que fomenten un uso ético y equitativo de la IA en la educación, garantizando que ningún grupo quede en desventaja.

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

Cómo las bibliotecas pueden apoyar a los jóvenes en la era de la IA

Tanzi, Nick. 2025. “Building a Future‑Ready Generation: How Libraries Can Support Youth in the Age of AI.” LinkedIn, May 21, 2025. Publicado en The Digital Librarian. https://www.linkedin.com/pulse/building-future-ready-generation-how-libraries-can-support-nick-tanzi-mviye/

Tanzi subraya que la IA está integrada en casi todos los aspectos de la vida de los niños: desde recomendaciones de YouTube Kids, asistentes de escritorio como CoPilot, sistemas móviles como Apple Intelligence o Gemini, hasta redes sociales con Meta AI. Cita un informe de Common Sense Education según el cual el 70 % de los adolescentes ha usado algún tipo de IA generativa; sin embargo, solo el 37 % de los padres era consciente de ello. Además, el 60 % de los estudiantes dice que su escuela no tiene normas sobre IA, o no las conocen.

Se advierte que el acceso generalizado sin regulación ni comprensión adecuada genera riesgos: chatbots han sido asociados a autolesiones, dependencia y consejos de salud peligrosos. Según el informe “Off Task” de 2023, el 45 % de estudiantes de secundaria ha recurrido a IA generativa para cuestiones personales o de salud mental

Tanzi sostiene que es responsabilidad de las bibliotecas “llenar los vacíos de conocimiento” mediante la construcción de una alfabetización en IA—es decir, “habilidades que permitan entender, evaluar y usar críticamente sistemas de IA en un mundo digital”. Es clave involucrar a padres y cuidadores, demistificar la IA, promover seguridad digital y enseñar a identificar y analizar outputs generados por IA. También recomienda curar recursos didácticos para programas o referencias, mencionando sitios como Common Sense y News Literacy Project

Por ello el personal bibliotecario debe colaborar activamente con los distritos escolares. Es importante entender si existen políticas formales sobre IA (por ejemplo, Northport-East Northport o Downingtown), qué herramientas están aprobadas académicamente, y si se exige que los estudiantes revelen el uso de IA. Esta colaboración permite a las bibliotecas apoyar eficazmente la investigación y enseñar técnicas de búsqueda y «prompting», respetando las regulaciones y la posible necesidad de consentimiento paterno

Inteligencia artificial y educación: orientaciones para responsables políticos

Miao, F., & Holmes, W. (2021). Artificial Intelligence and Education: Guidance for Policy-makers. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). https://unesdoc.unesco.org/ark:/48223/pf0000376709

El informe de la UNESCO ofrece una guía integral para que los responsables políticos comprendan y gestionen la integración de la inteligencia artificial (IA) en la educación. Destaca tanto las oportunidades como los riesgos asociados al uso de la IA en el ámbito educativo, con el objetivo de garantizar una implementación ética, inclusiva y equitativa.

Contenido clave:

  • Definición y tecnologías de la IA: Se exploran las bases de la IA, incluyendo sus definiciones, técnicas y tecnologías subyacentes.
  • Tendencias emergentes y su impacto: Se analizan las tendencias actuales en el uso de la IA en la educación y sus implicaciones para la enseñanza y el aprendizaje.
  • Preparación para convivir con la IA: Se discute cómo los sistemas educativos pueden preparar a los individuos para vivir y trabajar en un entorno influenciado por la IA.
  • Aplicaciones de la IA en la educación: Se presentan ejemplos de cómo la IA puede mejorar la educación, desde la personalización del aprendizaje hasta la automatización de tareas administrativas.
  • Desafíos y recomendaciones: Se identifican los principales desafíos en la implementación de la IA en la educación y se ofrecen recomendaciones concretas para que los responsables políticos diseñen políticas y programas adaptados a sus contextos locales.

Este informe es una herramienta esencial para los responsables políticos que buscan integrar la IA de manera efectiva y ética en los sistemas educativos, con miras a avanzar hacia el Objetivo de Desarrollo Sostenible 4 (Educación de calidad para todos).