Archivo de la categoría: Alfabetización informacional

Principios del seguimiento de la ciencia abierta

Open Science Monitoring Initiative. (2025). The Principles of Open Science Monitoring. Recuperado de https://open-science-monitoring.org/principles/

Se presentan los principios del Open Science Monitoring Initiative (OSMI), diseñados para ofrecer un marco global que oriente la creación de sistemas de seguimiento (monitorización) de la ciencia abierta en distintos contextos nacionales, institucionales y disciplinarios.

La iniciativa surge como respuesta a la falta de directrices globales para evaluar el grado y avance de prácticas de ciencia abierta tras la adopción de la 2021 UNESCO Recommendation on Open Science.

Los principios se estructuran alrededor de tres pilares fundamentales:

  • Relevancia y significación: los indicadores deben ser útiles, adaptables a diversos contextos, desarrollados con participación de distintos actores, y capaces de reflejar impactos reales de la ciencia abierta. Esto asegura que los sistemas de monitoreo realmente aporten información significativa para políticas, instituciones o comunidades científicas.
  • Transparencia y reproducibilidad: los sistemas de monitoreo deben apoyarse en infraestructuras abiertas, usar herramientas de código abierto, documentar públicamente los procesos y metodologías, asegurar la trazabilidad de los datos y permitir la reutilización. Los datos deben ser accesibles, los métodos claros, y los resultados comunicados de forma abierta, lo cual promueve confianza, auditabilidad y comparabilidad entre contextos
  • Autoevaluación y uso responsable: la monitorización debe emplearse como herramienta de mejora continua, con revisiones periódicas, sensibilidad al contexto, y nunca como un mecanismo para clasificar o rankear a investigadores individualmente. En su lugar, debe centrarse en apoyar el desarrollo colectivo de prácticas de ciencia abierta, respetando diversidad disciplinaria, equidad, inclusión y adaptabilidad local.

El documento enfatiza que estos principios no son prescriptivos sino aspiracionales: buscan guiar y orientar la creación de sistemas de monitoreo —no imponer un modelo único. Su carácter flexible y modular facilita su adopción por diversos actores institucionales, gubernamentales o comunitarios con distintas capacidades, recursos y realidades.

Un nuevo paradigma para la biblioteconomía: una revisión del trabajo de las asociaciones bibliotecarias y la IA desde 2019 hasta hoy

Garcia-Febo, Loida. “A New Paradigm for Librarianship: A Review of Library Associations’ Work and AI from 2019 Until the Present.” IFLA Management of Library Associations, noviembre 24, 2025. IFLA. https://repository.ifla.org/handle/20.500.14598/6927

Texto completo

a autora sostiene que las asociaciones bibliotecarias —en especial ALA, IFLA, ARL, ACRL y CENL— han sido actores fundamentales para interpretar, orientar y liderar la introducción de la IA en bibliotecas, actuando como conectores entre iniciativas locales y agendas globales. Estas asociaciones han impulsado marcos éticos, programas de capacitación, alianzas internacionales y documentos estratégicos que guían la adopción responsable y humana de estas tecnologías.

El texto comienza situando a la profesión frente a un momento histórico: la transición desde un modelo basado en colecciones físicas hacia instituciones tecnológicas capaces de influir en la sociedad digital. La autora expone su propia implicación internacional en conferencias y comités desde 2019 para explicar la perspectiva desde la que observa el fenómeno: la de un liderazgo activo en el diálogo global entre bibliotecas y tecnología. Insiste en que la IA no solo introduce herramientas nuevas, sino que redefine el papel del bibliotecario, los valores profesionales —como la equidad, la privacidad y la libertad intelectual— y la misión social de las bibliotecas.

A continuación se describe cómo la IA se ha incorporado rápidamente al ecosistema bibliotecario: chatbots para atención en tiempo real, herramientas de accesibilidad y búsqueda multilingüe, analíticas para la comunicación científica y sistemas de evaluación de necesidades comunitarias. Paralelamente, alerta sobre riesgos como el sesgo algorítmico, la opacidad o la distribución desigual de recursos; de ahí que las asociaciones hayan priorizado la creación de guías éticas y políticas responsables. Documentos como la IFLA Statement on Libraries and AI, los principios de ARL sobre IA o las competencias en IA de ACRL ilustran estos esfuerzos por mantener la centralidad del juicio humano y la transparencia.

Un foco clave del artículo es la transformación educativa. La autora detalla cómo las asociaciones influyen en la formación a través de estándares, acreditaciones y colaboraciones con universidades. Programas de instituciones como San José State University, University of North Carolina, University of Washington y University of Illinois muestran la creciente integración de ciencia de datos, análisis sociotécnico y ética de la IA en la educación bibliotecaria. Al mismo tiempo, asociaciones como ACRL han creado grupos de trabajo para desarrollar competencias específicas y llenar las lagunas formativas que todavía existen en el colectivo profesional.

La dimensión global ocupa otra parte sustancial del análisis. Garcia-Febo describe cómo las asociaciones bibliotecarias se han convertido en interlocutores relevantes en debates internacionales sobre movilidad digital, gobernanza algorítmica y derechos humanos. A través de iniciativas como la participación de IFLA en la ONU, el trabajo del AI SIG, los simposios internacionales y la alineación con la Agenda 2030, las bibliotecas se posicionan como agentes que pueden influir en políticas públicas de tecnología ética. Las encuestas y redes europeas impulsadas por CENL, así como los eventos multilaterales organizados entre 2024 y 2025, muestran un movimiento coordinado y creciente hacia la institucionalización de la IA en la profesión.

El documento incluye además una línea temporal detallada de los principales hitos desde 2019: publicaciones pioneras de ALA, la creación del IFLA AI SIG, los informes y encuestas de CENL, libros especializados, programas de reskilling como el GPT-4 Exploration Program, y el lanzamiento del documento Entry Point to Libraries and AI en 2025. Esta cronología permite ver cómo la atención a la IA ha evolucionado desde una fase exploratoria inicial hacia una etapa madura, donde existen políticas, competencias, foros estables y cooperación internacional estructurada.

Se identifica tres direcciones estratégicas clave para el futuro:

  • Políticas ágiles y gobernanza adaptativa: generar documentos vivos, promover pilotos experimentales y ampliar la mirada hacia nuevas tecnologías como el metaverso o la publicación computacional.
  • Alfabetización en IA y competencia ética: crear marcos de formación continua que incluyan comprensión técnica, reflexión ética, diseño centrado en las personas y mecanismos de rendición de cuentas; incluso proponiendo microcredenciales.
  • Colaboración global y multisectorial: ampliar redes con asociaciones, consorcios, universidades, sociedad civil y actores tecnológicos, con especial atención al Sur Global.

Para la autora, el reto no es solo integrar la IA en bibliotecas, sino garantizar que lo haga de forma ética, inclusiva y orientada al bien público. Bibliotecas y bibliotecarios, apoyados por sus asociaciones, no son meros usuarios de tecnología: son guías capaces de moldear el futuro digital con responsabilidad y visión social.

¡Ten cuidado! ¡No te dejes engañar! Proyecto de alfabetización informacional para combatir la desinformación en la educación

Lopes, Carlos, Maria Luz Antunes, y Tatiana Sanches. 2025. Be Careful! Não te deixes enganar! Projeto de literacia no combate à desinformação no ensino superior. Lisboa: Edições ISPA. http://hdl.handle.net/10400.12/13586

El proyecto BE CAREFUL! tiene como finalidad fortalecer la alfabetización informacional en el ámbito de la educación superior para enfrentar el fenómeno creciente de la desinformación. Parte del reconocimiento de que los estudiantes interactúan cada día con sistemas de información y algoritmos complejos, que pueden reforzar la propagación de contenidos engañosos si no se manejan con pensamiento crítico. El documento subraya la responsabilidad colectiva de comprender cómo se produce, circula y utiliza la información, especialmente en entornos académicos.

La propuesta se sustenta en el Marco de la ACRL para la Alfabetización Informacional en la Educación Superior, adaptado al contexto portugués. El proyecto desarrolla seis grandes áreas de competencia: evaluar la autoridad y credibilidad de las fuentes, comprender la creación de información como un proceso, reconocer el valor de la información, investigar desde el cuestionamiento, establecer un diálogo académico ético y sostenible y realizar búsquedas estratégicas en entornos cada vez más complejos. Cada apartado combina definiciones, retos asociados al uso de la Inteligencia Artificial y las habilidades que los estudiantes e investigadores deben adquirir.

Uno de los ejes principales del proyecto es la reflexión sobre la Inteligencia Artificial, que transforma la forma en que se produce y se consume la información. El documento señala riesgos como la difusión de contenidos sesgados, la generación de textos y referencias falsos, la confusión entre autoría humana y artificial y la posibilidad de reproducir prejuicios presentes en los datos de entrenamiento. A la vez, promueve un uso ético, transparente y crítico de estas herramientas, invitando a explicar cuándo han sido utilizadas y a verificar siempre la fiabilidad de los resultados generados por la IA.

El proyecto propone además diversas estrategias educativas: lectura lateral, uso de herramientas de verificación (CRAAP, RADAR, PILS), análisis comparado de fuentes, debates guiados sobre la IA, construcción de preguntas de investigación y prácticas de citación y referencia que respeten la integridad académica. Se destaca el papel esencial de las bibliotecas y de sus profesionales como agentes formadores en estas competencias, promoviendo cursos, talleres y acciones colaborativas.

En conjunto, el proyecto BE CAREFUL! pretende reforzar la integridad académica, el pensamiento crítico y las prácticas de Ciencia Abierta. Su impacto se orienta a crear comunidades universitarias más preparadas para navegar en entornos informativos complejos, evaluar la fiabilidad del conocimiento y tomar decisiones fundamentadas, contribuyendo así a reducir la vulnerabilidad frente a la desinformación.

Uso inteligente de la IA para docentes y estudiantes

Victorino Guzmán, Jorge Enrique, y Mary Lee Berdugo Lattke. Uso inteligente de la IA para docentes y estudiantes. Bogotá: Ediciones Universidad Central, 2024

Texto completo

El libro aborda cómo docentes y estudiantes pueden integrar la inteligencia artificial (IA) de manera ética y eficaz en los procesos educativos. Parte de la idea de que la IA no es solo una herramienta tecnológica, sino una oportunidad para repensar prácticas pedagógicas y transformar la enseñanza y el aprendizaje.

Explora estrategias para diseñar actividades didácticas que incorporen la IA de forma inteligente: no solo para automatizar tareas, sino para fomentar la creatividad, el pensamiento crítico y la resolución de problemas. Además, se destaca la importancia de formar tanto a profesores como a estudiantes en competencias relacionadas con la IA: saber usarla, entender sus limitaciones, y reflexionar sobre sus implicaciones éticas.

El texto también analiza escenarios reales y posibles desafíos del uso de la IA en la educación, como la desigualdad en el acceso a la tecnología, riesgos de dependencia o de desinformación generada por herramientas automatizadas. Propone soluciones institucionales y pedagógicas para mitigar esos riesgos, como la capacitación docente, políticas institucionales claras y el diseño de entornos de aprendizaje adaptativos.

Finalmente, el libro subraya el carácter transformador de la IA en la educación, pero lo sitúa dentro de una visión humanista: la IA debe usarse como un complemento que potencie la labor docente y el aprendizaje, no como un sustituto del conocimiento o del diálogo pedagógico.

Julio Alonso Arévalo «Una profesión que me ha dado un hermoso viaje» entrevista en la UTEM de Santiago de Chile

YEPO: podcast de la UTEM. Universidad Técnica Metropolitana de Chile

Conversación con Julio Alonso Arévalo «Una profesión que me ha dado un hermoso viaje»

Santiago de Chile, 14 de octubre de 2025

ECUCHAR

Escuchar entrevista en YEPO

Escuchar en Youtube

Conversamos con el bibliotecario español, Julio Alonso Arevalo, Jefe de la Biblioteca de la Facultad de Traducción y Documentación de la Universidad de Salamanca, durante su última visita a Chile. Además de su amplia producción científica y editorial, es pionero de la comunicación profesional en medios digitales, radio y pódcast. Creó el blog Universo Abierto y el programa radial-pódcast Planeta Biblioteca, que ya tiene 16 años y 600 episodios.

En Chile nos habló sobre alfabetización en IA para bibliotecarios, destacando la necesidad de crear un entorno de confianza respecto del explosivo crecimiento de información sintética. Reivindica el rol de la biblioteca como espacio de socialización, cohesión y servicio comunitario más allá del libro y el alto nivel de confianza social en bibliotecarios. Por lo mismo destaca que la profesión requiere de habilidades blandas: escucha activa, mediación, comunicación y colaboración con otros perfiles profesionales.

Nos comenta sobre el proyecto en curso de makerspace en Salamanca para desarrollar proyectos de impresión 3D, video y podcasting. Lo que distingue un makerspace es que es una instancia de aprendizaje práctico, no jerárquico y comunitario.

Parafrasea a Kavafis y nos dice que la profesión le ha ofrecido un hermoso viaje, en que lo principal son las personas con las que conectas.

La inteligencia artificial en las bibliotecas. Lo que los bibliotecarios deben saber ahora.

Chatbots and Beyond: Artificial Intelligence in Libraries. What Librarians Need to Know Now. PressReader. 2024.

Texto completo

Este documento ofrece una visión integral sobre cómo la inteligencia artificial (IA), especialmente la generativa, está transformando el mundo bibliotecario. Aborda aplicaciones prácticas, implicaciones éticas, riesgos de privacidad y el papel activo que pueden asumir los bibliotecarios en esta revolución tecnológica.

La inteligencia artificial (IA) ha irrumpido en nuestras vidas con una rapidez sorprendente, y las bibliotecas no son la excepción. Este informe destaca cómo la IA, especialmente la generativa, está transformando el trabajo bibliotecario en múltiples dimensiones. Aunque no es necesario dominar los aspectos técnicos para utilizar estas herramientas, comprender sus fundamentos —como el aprendizaje automático y el reconocimiento de patrones— permite a los profesionales de la información interactuar con ellas de forma crítica y creativa.

El lanzamiento de ChatGPT en 2022 marcó un punto de inflexión en la adopción pública de la IA generativa. Su capacidad para generar texto a partir de instrucciones ha revolucionado sectores como la educación, la investigación y la gestión de contenidos. Los bibliotecarios, aunque a menudo no se consideren expertos en IA, ya han estado usando algoritmos de búsqueda y sistemas automatizados que incorporan inteligencia artificial, lo que los posiciona como mediadores clave en esta nueva era.

En bibliotecas universitarias, la IA se utiliza para asistir en investigaciones, recomendar recursos personalizados, gestionar cuentas de usuarios y ofrecer soporte técnico. Herramientas como Elicit, Scite y Consensus ayudan a navegar literatura científica y generar resúmenes. Además, los sistemas de indexación automatizada permiten mejorar la organización y descubrimiento de contenidos, refinando metadatos y ampliando el acceso interdisciplinario.

Las bibliotecas públicas también se benefician de la IA mediante la automatización de procesos como la gestión de inventarios, préstamos interbibliotecarios y recomendaciones de lectura. El análisis de datos de uso permite tomar decisiones más informadas sobre adquisiciones y servicios, optimizando recursos y mejorando la experiencia del usuario.

No obstante, el informe subraya los riesgos éticos asociados al uso de IA, como el sesgo en los datos de entrenamiento, la desinformación y la infracción de derechos de autor. Los modelos generativos pueden producir textos convincentes pero incorrectos, lo que hace urgente fomentar la alfabetización crítica en IA. Las bibliotecas pueden liderar este proceso mediante talleres, acceso a fuentes confiables y formación en pensamiento crítico.

La privacidad y la ciberseguridad también son preocupaciones centrales. Las bibliotecas manejan grandes volúmenes de datos sensibles, lo que las convierte en posibles objetivos de ataques informáticos. Se recomienda realizar auditorías de seguridad, capacitar al personal y adoptar estrategias de protección como el modelo de “confianza cero”.

Finalmente, el informe aclara que la IA no reemplazará a los bibliotecarios, sino que transformará sus funciones. Los profesionales de la información están llamados a liderar el diseño de herramientas basadas en IA, enseñar su uso ético y fomentar una cultura de alfabetización digital. En este contexto, las bibliotecas se convierten en espacios clave para aprender a leer, escribir y pensar con inteligencia artificial.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

El uso de la IA en escuelas se vincula con efectos negativos en los estudiantes

Center for Democracy & Technology. “CDT Survey Research Finds Use of AI in K-12 Schools Connected to Negative Effects on Students.” October 8 2025.

Texto completo

Diapositivas

Una encuesta realizada por el Center for Democracy & Technology (CDT) revela que el empleo de herramientas de inteligencia artificial (IA) en escuelas de enseñanza primaria y secundaria (K-12) se ha normalizado, pero al mismo tiempo está asociado con una serie de efectos negativos en los estudiantes.

La investigación abarcó la experiencia de maestros, estudiantes y padres durante el curso 2024-2025 y muestra que el 85 % de los docentes y el 86 % de los estudiantes informaron haber usado herramientas de IA.

Entre los hallazgos más relevantes destaca que aproximadamente la mitad de los estudiantes dijeron sentirse menos conectados con sus maestros como consecuencia del uso de IA en el aula. Asimismo, un porcentaje significativo de estudiantes admitió haber usado chatbots o herramientas de IA para apoyo emocional, salud mental o incluso como forma de escape de la realidad; de hecho, uno de cada cinco manifestó que él o alguien que conoce había mantenido una relación romántica con una IA.

El estudio también pone de relieve que, mientras el despliegue de la IA en entornos escolares crece, la formación de los maestros, las políticas escolares y las salvaguardas de bienestar estudiantil no lo hacen al mismo ritmo. Solo el 11 % de los docentes declararon haber recibido formación específica sobre cómo responder ante un uso problemático de la IA por parte del alumnado. El informe advierte que el desequilibrio entre adopción tecnológica y preparación institucional puede potenciar riesgos como brechas en la conexión socioemocional entre alumno y profesor, debilitamiento de habilidades clave como el pensamiento crítico o la escritura, y una mayor vulnerabilidad ante el mal uso de herramientas de IA.

El documento de la CDT subraya que, si bien la adopción de IA en las aulas ofrece oportunidades —por ejemplo, para personalizar el aprendizaje o apoyar la enseñanza—, también conlleva desafíos considerables. Estos incluyen la posibilidad de que los estudiantes desarrollen vínculos más fuertes con máquinas que con sus educadores, que su sentido de pertenencia o interacción humana se debilite y que la institución educativa pierda parte de su función formativa y relacional. El informe concluye que, para que la IA contribuya realmente al aprendizaje sin comprometer el bienestar emocional y social de los estudiantes, es imprescindible que las escuelas acompañen su implementación con políticas claras, formación docente, supervisión ética y un enfoque centrado en el alumnado.

Resultados clave del estudio del Center for Democracy & Technology (CDT):

  1. Alta adopción de la IA en las aulas:
    El 85 % de los docentes y el 86 % de los estudiantes afirmaron haber utilizado herramientas de inteligencia artificial durante el curso 2024-2025. Esto demuestra una integración rápida y generalizada de la IA en el entorno educativo K-12.
  2. Impacto negativo en las relaciones humanas:
    Aproximadamente la mitad de los estudiantes manifestó sentirse menos conectado con sus maestros debido al uso de la IA en clase. La tecnología, aunque útil para ciertas tareas, parece estar debilitando los lazos interpersonales y la comunicación directa entre educadores y alumnos.
  3. Uso emocional y social de la IA:
    Un número considerable de estudiantes reconoció emplear chatbots y asistentes de IA como apoyo emocional o para gestionar su salud mental. De manera preocupante, uno de cada cinco estudiantes declaró que él o alguien que conoce había mantenido una relación romántica con una IA, lo que refleja una sustitución parcial de vínculos humanos por relaciones digitales.
  4. Déficit de formación docente:
    Solo el 11 % de los profesores indicó haber recibido formación específica sobre cómo manejar los problemas derivados del uso de IA en el aula. Esta falta de preparación dificulta que las escuelas puedan responder de manera efectiva a los retos éticos, psicológicos y pedagógicos asociados a la IA.
  5. Desequilibrio entre innovación y bienestar:
    El estudio advierte que la adopción tecnológica supera ampliamente la capacidad institucional para proteger el bienestar estudiantil. Esto puede conducir a una pérdida de habilidades esenciales —como el pensamiento crítico, la escritura o la interacción social— y aumentar la dependencia emocional hacia sistemas automatizados.
  6. Necesidad de políticas claras y enfoque humano:
    El CDT concluye que la IA solo podrá ser beneficiosa si se implementa dentro de un marco ético y pedagógico sólido. Es imprescindible acompañar su uso con programas de alfabetización digital, guías de protección emocional y políticas que prioricen el desarrollo humano por encima de la eficiencia tecnológica.

Competencias en IA para trabajadores de bibliotecas universitarias de ACRL

Association of College and Research Libraries. AI Competencies for Academic Library Workers. Approved by ACRL Board of Directors, October 2025. American Library Association, 2025

Texto completo

American Library Association (ALA) en 2025, establece un marco de competencias para que los profesionales de las bibliotecas universitarias comprendan, evalúen y apliquen la inteligencia artificial (IA) de manera crítica, ética y responsable. La propuesta no busca promover la adopción indiscriminada de la IA, sino desarrollar en los bibliotecarios una combinación equilibrada de conocimiento técnico, juicio ético y pensamiento reflexivo frente a las oportunidades y riesgos que estas tecnologías implican en la enseñanza, la investigación y los servicios de información.

El texto se estructura en dos grandes bloques. El primero se refiere a los mindsets o actitudes fundamentales que deben guiar el trabajo con IA, y el segundo desarrolla un conjunto de competencias distribuidas en cuatro áreas: consideraciones éticas, conocimiento y comprensión, análisis y evaluación, y uso y aplicación. En cuanto a las actitudes, el documento resalta la importancia de la curiosidad como motor para explorar el potencial de la IA; el escepticismo, necesario para mantener una visión crítica; el juicio, que permite decidir cuándo y cómo emplear estas herramientas; la responsabilidad, vinculada al impacto de su uso en la comunidad; y la colaboración, entendida como la disposición a integrar diversas perspectivas en la toma de decisiones. Estas actitudes no son rasgos fijos, sino disposiciones dinámicas que ayudan a los profesionales a adaptarse en un entorno tecnológico en constante evolución.

En el ámbito de las consideraciones éticas, el texto subraya que la relación entre bibliotecas e inteligencia artificial no puede entenderse solo desde lo técnico, sino también desde lo social y lo moral. Los profesionales deben garantizar un acceso equitativo a las herramientas de IA y promover una alfabetización digital que permita a todos los usuarios comprender su funcionamiento y sus límites. Se enfatiza la necesidad de proteger la privacidad, la autonomía y los derechos de autor, así como de evitar la reproducción de sesgos o desigualdades mediante el uso de datos y algoritmos. Además, se plantea que las bibliotecas deben priorizar la transparencia y la rendición de cuentas, asegurando que las herramientas empleadas sean fiables, explicables y respetuosas con la diversidad y el medio ambiente.

El apartado de conocimiento y comprensión detalla los saberes esenciales que deben adquirir los trabajadores de bibliotecas. Incluye la comprensión de conceptos como aprendizaje automático, modelos generativos, algoritmos predictivos o sistemas multimodales capaces de procesar texto, imagen, vídeo o sonido. También se destaca la importancia de entender cómo se entrenan estos modelos, qué tipos de datos utilizan y qué limitaciones presentan. La actualización constante es clave, dado que las tecnologías evolucionan con rapidez y las políticas sobre regulación, detección y atribución de contenido generado por IA cambian continuamente. En este sentido, se propone que los profesionales mantengan una formación continua basada en fuentes diversas y fiables.

En cuanto a análisis y evaluación, el marco plantea que los bibliotecarios deben ser capaces de analizar críticamente las herramientas de IA, comprendiendo cómo funcionan, qué objetivos persiguen y cuáles son sus implicaciones para los servicios de información. Esto incluye la evaluación de beneficios y riesgos, la identificación de sesgos y la valoración del impacto sobre la equidad, la privacidad o la calidad del acceso a la información. Se espera que los profesionales no actúen como simples usuarios, sino como mediadores críticos capaces de seleccionar y recomendar herramientas en función de su idoneidad técnica y ética, y de asesorar a las comunidades universitarias en su uso responsable.

Por último, la categoría de uso y aplicación se centra en la puesta en práctica de la IA en el entorno laboral de las bibliotecas. Se promueve un uso reflexivo y contextualizado, evitando asumir que la IA es siempre necesaria o beneficiosa. Las competencias incluyen la capacidad de aplicar herramientas de IA para optimizar procesos, mejorar la comunicación y la colaboración entre equipos o explorar nuevas formas de innovación en servicios bibliotecarios. También se destaca la importancia de desarrollar habilidades de prompting, es decir, de formulación precisa de instrucciones a sistemas generativos para obtener resultados más útiles y pertinentes. La adopción de estas herramientas debe guiarse por los valores de la profesión bibliotecaria, en particular el acceso equitativo, la transparencia y el respeto a los usuarios.

En conjunto, este marco de competencias ofrece una guía integral para que los trabajadores de bibliotecas académicas desarrollen una alfabetización en inteligencia artificial que no se limite al dominio técnico, sino que integre la reflexión ética y la responsabilidad social. El objetivo es que los profesionales no solo utilicen la IA, sino que contribuyan a moldear su implementación en el ámbito educativo y científico de manera coherente con los valores del servicio público, la equidad y el pensamiento crítico.

Las contribuciones de la ciencia abierta a la cultura de la investigación

Science Europe. Scoping Review: The Contributions of Open Science to Research Culture. 20 Octubre 2025. DOI: 10.5281/zenodo.17379695

Texto completo

El informe analiza cómo las prácticas de ciencia abierta (contribuyen a la cultura de la investigación, a través de una revisión exploratoria de literatura académica y gris. Este trabajo fue encargado por Science Europe y realizado en colaboración con el Centre for Science and Technology Studies (CWTS) de la Universidad de Leiden y el Know Center GmbH.

El documento examina los aportes y las consecuencias no deseadas de las políticas y prácticas de ciencia abierta en relación con valores clave de la cultura de investigación, como la equidad, la apertura, la integridad, el cuidado, la colaboración y la autonomía. Se estudia cómo estos valores se articulan —o no— con la implementación de la ciencia abierta en los entornos académicos y científicos.

Uno de los hallazgos principales es que, aunque la ciencia abierta suele presentarse como un motor de transformación cultural —por ejemplo, al fomentar la transparencia, la cooperación y el acceso público al conocimiento—, la evidencia disponible sigue siendo fragmentaria. Existen ejemplos positivos de impacto, pero también lagunas significativas respecto a los efectos a largo plazo sobre la cultura investigadora.

El informe subraya la necesidad de fortalecer los mecanismos de evaluación, seguimiento y adopción de buenas prácticas en ciencia abierta, con el fin de asegurar que realmente promuevan una cultura de investigación más saludable, ética y sostenible. Asimismo, propone alinear las reformas en la evaluación de la investigación, las políticas institucionales y las iniciativas de ciencia abierta para potenciar sus sinergias y reducir posibles efectos adversos.