La IA en la educación superior

Jisc. «Artificial Intelligence (AI) in Tertiary Education – Jisc», 26 de abril de 2021.

Texto completo

Los últimos doce meses han presenciado cambios significativos en el impacto de la inteligencia artificial en la educación, comenzando, para la mayoría, con el lanzamiento de ChatGPT en noviembre de 2022. Las preocupaciones sobre la integridad académica y el futuro de la evaluación dominaron los primeros debates y aún plantean muchos problemas.

«La IA generativa plantea desafíos sustanciales para la educación, especialmente en lo que respecta a la evaluación, pero también ofrece oportunidades para apoyar a los estudiantes y el aprendizaje. No sorprendentemente, también ha actuado como un estímulo para que el sector educativo examine todos los aspectos de qué y cómo enseña y reevalúe las prácticas de evaluación, cosas que han permanecido en gran parte estáticas durante mucho tiempo».

Heidi Fraser-Krauss, directora ejecutiva de Jisc.

El debate creció rápidamente para abordar formas de aprovechar el poder de la inteligencia artificial generativa para reducir la carga de trabajo y encontrar nuevas y emocionantes formas de utilizarla en el aprendizaje y la enseñanza. La cuestión del impacto de la IA en la fuerza laboral pronto salió a la luz, con debates sobre cómo garantizar la empleabilidad de los estudiantes y prepararlos para un entorno de trabajo impulsado por la IA. Probablemente todavía estemos al comienzo de este viaje.

Es fácil olvidar que antes de ChatGPT ya estábamos viendo que la IA brindaba un valor real en la educación. En el Reino Unido, estamos viendo a los primeros adoptantes utilizando con éxito servicios de IA en beneficio de los estudiantes y las instituciones educativas. Estos incluyen a Ada y FirstPass en el Bolton College, el aprendizaje adaptativo con CENTURY Tech en el Basingstoke College of Technology, el asistente digital Beacon en la Staffordshire University y el asistente digital Taylor en la Open University. A nivel internacional, esto es evidente con el uso de CogBooks en la Arizona State University o, a una escala mucho mayor, SquirrelAi en China. La IA generativa ha impulsado enormemente esto.

Esperamos que al resumir periódicamente el estado de las tecnologías educativas de IA estemos proporcionando contexto e ideas para que los colegios y universidades exploren esto aún más. La IA no está exenta de desafíos, ya sean legales, éticos o técnicos, y el progreso hacia la transformación digital es probable que sea problemático si simplemente reaccionamos a los impulsores tecnológicos externos.

Ahora existen bases sólidas para permitir una mayor adopción de la IA en colegios y universidades, y para enfrentar los desafíos y oportunidades presentados por el ritmo implacable de los avances en IA que estamos viendo actualmente.

Amazon invierte hasta 4.000 millones de dólares en la empresa de inteligencia artificial Anthropic en una creciente batalla tecnológica

AP News. «Amazon Is Investing up to $4 Billion in AI Startup Anthropic in Growing Tech Battle», 25 de septiembre de 2023. https://apnews.com/article/artificial-intelligence-amazon-anthropic-investment-72d21e6c663d506dbf968f50628e7ded.

Amazon invertirá hasta 4.000 millones de dólares en Anthropic y tomará una participación minoritaria en esta empresa de inteligencia artificial, según anunciaron ambas compañías el lunes.

La inversión pone de relieve cómo las grandes empresas tecnológicas están invirtiendo dinero en IA en su carrera por aprovechar las oportunidades que la última generación de esta tecnología está llamada a impulsar.

Amazon y Anthropic afirman que el acuerdo forma parte de una colaboración más amplia para desarrollar los llamados modelos de base, que sustentan los sistemas generativos de IA que han captado la atención mundial.

Los modelos de base, también conocidos como grandes modelos lingüísticos, se entrenan en vastos conjuntos de información en línea, como entradas de blogs, libros digitales, artículos científicos y canciones pop, para generar textos, imágenes y vídeos que se asemejen al trabajo humano.

En virtud del acuerdo, Anthropic convertirá a Amazon en su principal servicio de computación en la nube y utilizará los chips personalizados del gigante minorista online como parte del trabajo para entrenar y desplegar sus sistemas de IA generativa.

Anthropic, con sede en San Francisco, fue fundada por antiguos empleados de OpenAI, creadora del chatbot de IA ChatGPT, que causó sensación en todo el mundo por su capacidad para dar respuestas que imitaban las humanas.

Anthropic ha lanzado su propio rival de ChatGPT, llamado Claude. La última versión, disponible en EE.UU. y el Reino Unido, es capaz desde «diálogos sofisticados y generación creativa de contenidos hasta razonamientos complejos e instrucciones detalladas», según la empresa.

Amazon está luchando por ponerse al día con rivales como Microsoft, que invirtió mil millones de dólares en OpenAI en 2019, seguido de otra inversión multimillonaria a principios de año.

Amazon ha estado desplegando nuevos servicios para mantenerse al día con la carrera armamentista de la IA, incluida una actualización para su popular asistente Alexa para que los usuarios puedan tener conversaciones más parecidas a las humanas y resúmenes generados por IA de reseñas de productos para los consumidores.

Informe técnico: Inteligencia Artificial Generativa

David Leslie and Francesca Rossi. Tech Brief: Generative Artificial Intelligence, ACM Technology Policy Committees 2023

Texto completo

La rápida comercialización de la IA generativa (GenAI) plantea múltiples riesgos a gran escala para las personas, la sociedad y el planeta que requieren una respuesta rápida y coordinada a nivel internacional para mitigarlos.

La ausencia de directrices globales y coherentes para el desarrollo y despliegue de los sistemas GenAI, y su consiguiente proliferación, crea enormes riesgos individuales, sociales y socioeconómicos. Se necesita una acción política rápida y proporcionada, a nivel nacional e internacional, para hacer frente a los desafíos planteados por la creciente escala y alcance de los riesgos relacionados con la GenAI.

Las grandes disparidades en la influencia económica de las partes interesadas en el sistema GenAI tienen el potencial, si no se abordan plenamente en las políticas, de amplificar el impacto de los riesgos relacionados con la GenAI. si no se abordan plenamente en la política, de amplificar la desigualdad y frustrar la innovación y la competencia.

  • Valor estimado del mercado mundial de GenAI en 2023. 8.000 millones de dólares estadounidenses
  • 65 Meses tardó Twitter en alcanzar los 100 millones de usuarios tras su lanzamiento.
  • 2 meses que tardó ChatGPT en alcanzar ese hito.
  • ChatGPT está en la segunda posición de entre todas las aplicaciones
  • El 43 % de los estudiantes universitarios que han utilizado ChatGPT o una aplicación similar.
  • El 80% estimado de trabajadores estadounidenses se verán afectadas al menos el 10% de sus tareas laborales por la GenAI.
  • El 19 % de dichos trabajadores que verán afectadas al menos el 50% de sus tareas
  • 3,4 Gigavatios hora de electricidad se consumió para entrenar al PaLM de Google durante dos meses, lo que consume más de 300 hogares en un año.
  • El 76% de los consumidores estadounidenses están preocupados por la desinformación producida por GenAI.

Qué bueno regresar a mis libros!

Qué bueno regresar a mis libros!
—término de los fatigados días—.
Casi compensa la abstinencia,
y el dolor se olvida con el placer.
Como aromas que confortan a los invitados
en el banquete, mientras esperan,
esta fragancia aligera el tiempo hasta que llego
a mi pequeña biblioteca.
Puede haber desolación afuera,
lejanos pasos de hombres que padecen,
pero la fiesta suprime la noche
y hay campanas, interiormente.
Doy las gracias a estos Parientes del Estante.
Sus caras apergaminadas
nos enamoran mientras esperamos,
y nos satisfacen al alcanzarlas.

EMILY DICKINSON
El viento comenzó a mecer la hierba

El préstamo digital controlado en España. Bibliotecas y límites en el contexto digital

Xalabarder, Raquel Bibliotecas y límites en el contexto digital. El préstamo digital controlado en España. Madrid: FESABID, 2023

Texto completo

El Préstamo Digital Controlado, en adelante PDC, ha sido objeto de análisis en los últimos años. Consiste en la práctica de prestar bajo ciertas condiciones un ejemplar digitalizado de una obra literaria, artística o científica que se encuentra en los fondos de la institución. Este servicio contribuye a cumplir la misión de las bibliotecas de apoyar a la investigación, la educación y la participación cultural, teniendo en cuenta los límites de las leyes existentes en propiedad intelectual.

Para facilitar el conocimiento de los condicionantes jurídicos que hacen viable este servicio, FESABID ha publicado el informe “Bibliotecas y límites en el contexto digital. El préstamo digital controlado en España”obra de Raquel Xalabarder, catedrática de Propiedad Intelectual en la Universitat Oberta de Catalunya (UOC) y una reconocida experta internacional en materia de propiedad intelectual; con amplio conocimiento sobre los límites a la propiedad intelectual, que facilitan las actividades de bibliotecas, archivos y museos. En la actualidad es presidenta del grupo español Asociación Literaria y Artística para la Defensa del Derecho del Autor, de la ALAI, la Sociedad Europea de Derechos de Autor y de la Asociación Literaria y Artística Internacional. Recientemente ha sido nombrada directora de la Patent Academy, de la European Patent Office.

¿Puede la IA generativa aportar algo a la revisión académica por pares?

Impact of Social Sciences. «Can Generative AI Add Anything to Academic Peer Review?», 26 de septiembre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/09/26/can-generative-ai-add-anything-to-academic-peer-review/.

Aunque las aplicaciones de IA generativa prometen eficiencia y pueden beneficiar el proceso de revisión por pares, dadas sus deficiencias y nuestro limitado conocimiento de su funcionamiento interno, Mohammad Hosseini y Serge P.J.M. Horbach sostienen que no deberían utilizarse de forma independiente ni indiscriminada en todos los contextos. Centrándose en los últimos acontecimientos, sugieren que el proceso de revisión por pares es uno de los contextos en los que la IA generativa debería utilizarse con mucho cuidado, si es que se utiliza.


En el siempre cambiante panorama de la investigación académica y la comunicación académica, la llegada de la inteligencia artificial generativa y modelos de lenguaje grandes (LLM) como el ChatGPT de OpenAI ha despertado atención, elogios y críticas. El uso de la inteligencia artificial generativa en diversas tareas académicas se ha discutido en profundidad. Entre los posibles casos de uso, contar con el apoyo de la inteligencia artificial generativa para revisores y editores en el proceso de revisión por pares parece una opción prometedora. El sistema de revisión por pares ha enfrentado durante mucho tiempo diversos desafíos, incluyendo revisiones sesgadas o no constructivas, escasez de revisores expertos y la naturaleza que consume mucho tiempo de la empresa.

Aunque el uso de la inteligencia artificial generativa podría mitigar algunos de estos desafíos, como ocurre con muchas discusiones sobre la integración de nuevas tecnologías en flujos de trabajo existentes, también existen varias preocupaciones legítimas. Recientemente se analizó el uso de LLM en el contexto de cinco temas críticos dentro del contexto de la revisión por pares: los roles de los revisores y editores, la calidad y funciones de las revisiones por pares, problemas de reproducibilidad y las amplias implicaciones sociales y epistémicas del proceso de revisión por pares. Se concluyó que la inteligencia artificial generativa tiene el potencial de remodelar los roles tanto de los revisores por pares como de los editores, agilizando el proceso y posiblemente aliviando problemas relacionados con la falta de revisores. Sin embargo, esta posible transformación no está exenta de complejidad.

Asistir en las revisiones, pero no ser un revisor independiente

En su forma actual, las aplicaciones de IA generativa son incapaces de realizar revisiones por pares de forma independiente (es decir, sin supervisión humana), porque siguen cometiendo demasiados errores y su funcionamiento interno es desconocido y cambia rápidamente, lo que da lugar a resultados impredecibles. Sin embargo, la IA generativa puede ayudar a los actores del proceso de revisión por pares de otras maneras, por ejemplo, ayudando a los revisores a mejorar sus notas iniciales para que sean más constructivas y respetuosas. Además, la IA generativa puede permitir a los académicos que no escriban en su lengua materna contribuir al proceso de revisión en otros idiomas (por ejemplo, inglés), o ayudar a los editores a redactar cartas de decisión basadas en un conjunto de informes de revisión. Estos casos de uso podrían ayudar a ampliar el grupo de revisores y hacer que el proceso sea más eficiente y equitativo.

Confidencialidad, sesgo y robustez

A pesar de estos posibles beneficios, y además de las limitadas capacidades de la inteligencia artificial generativa para llevar a cabo revisiones independientes, existen preocupaciones importantes relacionadas con el uso de LLMs en contextos de revisión. Estas preocupaciones se refieren, por ejemplo, a la forma en que los desarrolladores de herramientas de inteligencia artificial generativa utilizan los datos proporcionados. Especialmente cuando se envían conjuntos de datos que pueden contener información personal o confidencial, la forma en que los desarrolladores de las herramientas utilizan el contenido proporcionado debería ser transparente, lo cual no es el caso en la actualidad. Además, las herramientas de inteligencia artificial generativa corren el riesgo de agravar algunos de los sesgos existentes en la revisión por pares, ya que reproducen contenido y sesgos presentes en sus datos de entrenamiento. En tercer lugar, dado que estas herramientas evolucionan rápidamente y su resultado depende en gran medida de la indicación proporcionada (incluso cambios menores podrían tener un gran impacto en el contenido generado), su resultado no siempre es reproducible. Esto plantea dudas sobre la robustez de las revisiones generadas con la ayuda de la inteligencia artificial, lo que refuerza la idea de que la inteligencia artificial generativa solo podría servir para mejorar (en cuanto a formato, tono, gramática y legibilidad) las revisiones que han sido escritas por revisores humanos.


Externalización del elemento social de la revisión por pares

Otra preocupación se relaciona con el hecho de que la revisión por pares es un proceso inherentemente social. De hecho, en lugar de ser un mecanismo de control mecánicamente objetivo, la revisión por pares se basa en las interacciones entre colegas acerca de lo que significa hacer buena ciencia. Por lo tanto, el proceso es un medio importante para debatir y negociar las normas de la comunidad acerca de qué preguntas deben abordarse, qué métodos son apropiados o aceptables, qué formas de comunicación son más adecuadas y muchas otras cuestiones. La revisión por pares también es un componente constitutivo fundamental de la integridad de la investigación y las normas éticas. En un estudio reciente, descubrimos que, en lo que respecta a las normas de integridad de la investigación, los investigadores valoran principalmente la opinión de sus pares epistémicos, es decir, aquellos que publican en las mismas revistas o asisten a las mismas conferencias, en lugar de, por ejemplo, otros colegas que trabajan en el mismo instituto. Los procesos de revisión por pares son un lugar destacado donde los expertos «se encuentran» y donde se desarrollan discusiones sobre estos temas, de manera implícita o explícita. Externalizar estos procesos a herramientas automatizadas podría empobrecer estas discusiones y tener consecuencias imprevistas más amplias.

Desarrollos recientes

En los último meses varios acontecimientos han cambiado el panorama de la inteligencia artificial generativa y han tenido un impacto en su uso con fines de revisión académica por pares. La reacción de algunos financiadores, como el National Institutes of Health (NIH) [Notice number NOT-OD-23-149] y Australian Research Council [Policy on Use of Generative Artificial Intelligence in the ARC’s grants programs]) que han prohibido el uso de la inteligencia artificial generativa en sus procesos de revisión y evaluación de subvenciones, se encuentra entre estos cambios.

Estos financiadores están principalmente preocupados por la confidencialidad y la generación de contenido falso, y con razón. La revisión de subvenciones es un juego diferente en comparación con las revisiones de artículos en revistas, ya que lo primero moldea las agendas de investigación y el acceso a recursos financieros, mientras que lo segundo informa principalmente sobre los resultados de estudios que ya se han realizado y, a veces, se han publicado como preprints.

En cuanto a la generación de contenido falso, los modelos de inteligencia artificial generativa aún cometen errores, incluso a nivel de hechos básicos. Por lo tanto, utilizarlos para revisar subvenciones y posteriormente distribuir fondos podría dañar seriamente la integridad del flujo de trabajo de los financiadores y comprometer la legitimidad de las decisiones de financiamiento. Además, las solicitudes de subvención a veces contienen información detallada sobre cada miembro del proyecto, cuya privacidad podría verse comprometida si se comparte con terceros. Esto también es una preocupación principal cuando se utiliza la inteligencia artificial generativa para revisar manuscritos o conjuntos de datos, que podrían contener información personal o sensible sobre los participantes en la investigación o tecnologías.

Las aplicaciones de la inteligencia artificial generativa todavía se encuentran en fases tempranas de desarrollo y en un futuro cercano podrían beneficiar el proceso de revisión por pares de muchas maneras. Dicho esto, dadas las limitaciones de esta tecnología, se deberían fomentar experimentos a pequeña escala y una adopción gradual. También debemos estar preparados para poner fin a su uso cuando sea necesario o en casos en los que los riesgos superen a los beneficios.

Si bien apoyamos la prohibición de las aplicaciones de inteligencia artificial generativa en algunos contextos, también tenemos preocupaciones sobre esta estrategia a largo plazo. Además de la complicada pregunta de cómo hacer cumplir dicha prohibición y supervisar el cumplimiento, siempre es necesario equilibrar las preocupaciones en relación con la inteligencia artificial generativa con sus beneficios en términos de eficiencia, que podrían liberar recursos financieros (en el caso de los financiadores, para financiar proyectos adicionales). En el futuro, recomendamos a los diferentes grupos de usuarios en la academia que revisen y modifiquen con frecuencia sus políticas sobre el uso de aplicaciones de inteligencia artificial generativa en función de las circunstancias y adopten medidas de mitigación de riesgos que se adapten a su contexto específico.

¿Qué diferencia un CRAI de un Makerspace?

Un CRAI (Centro de Recursos para el Aprendizaje y la Investigación) y un Makerspace son dos tipos de espacios educativos, pero tienen enfoques y propósitos diferentes. Aquí hacemos una comparación de las diferencias clave entre un CRAI y un Makerspace.

Los CRAI son centros ubicados en instituciones educativas, como universidades y colegios, y tienen el propósito de proporcionar a los estudiantes y miembros de la comunidad académica un espacio donde puedan acceder a una amplia variedad de recursos y servicios para apoyar su aprendizaje e investigación. Además de materiales y bases de datos ofrecen sesiones de formación y talleres sobre habilidades de investigación, gestión de información, citación y otros temas relacionados con el aprendizaje y la investigación.

Un makerspace (también conocido como «espacio de fabricación» o «laboratorio de fabricación») es un lugar físico donde las personas pueden reunirse abierta y libremente para trabajar en proyectos, crear prototipos, experimentar con herramientas y tecnologías diversas, y colaborar en actividades relacionadas con la creación y la fabricación por iniciativa propia. Estos espacios están diseñados para fomentar la creatividad, el aprendizaje práctico y la innovación.

Sin embargo, entre ambos espacios hay ciertas analogías; tanto los CRAI como los Makerspaces fomentan el aprendizaje activo y la colaboración entre estudiantes y profesionales. Así mismo, uno y otro pueden alojar herramientas tecnológicas para trabajar en audio, video, robótica, pero existen diferencias en cuanto a su propósito y enfoque.

¿Qué diferencia específicamente un tipo de espacio de otro?

CRAI (Centro de Recursos para el Aprendizaje y la Investigación):

  1. Enfoque Principal: Un CRAI se centra principalmente en proporcionar recursos, herramientas y tecnologías de apoyo para el aprendizaje y la investigación académica en un proceso dirigido y programado por un docente para una actividad concreta y determinada. En general es necesario programar la actividad.
  2. Recursos Tradicionales: Los CRAI suelen albergar tecnologías junto con una amplia colección de libros y materiales impresos. También pueden ofrecer acceso a recursos digitales y bases de datos académicas.
  3. Apoyo a la Investigación: Los CRAI brindan servicios de apoyo a la investigación, como asistencia en la búsqueda de información, capacitación en habilidades de investigación y acceso a espacios de estudio y trabajo en grupo.
  4. Ambiente Silencioso: Los CRAI a menudo promueven un ambiente tranquilo y enfocado para el estudio y la investigación, con áreas de lectura silenciosa.

Makerspace:

  1. Enfoque Principal: Un Makerspace, por otro lado, se centra en la creación, la innovación y la fabricación digital. Está diseñado para que las personas puedan crear proyectos tangibles, experimentar con tecnología y desarrollar habilidades prácticas.
  2. Herramientas y Equipos: Un Makerspace ofrece una variedad de herramientas y equipos, como impresoras 3D, cortadoras láser, equipos de electrónica y herramientas de fabricación, que permiten a las personas llevar a cabo proyectos de bricolaje y prototipado.
  3. Aprendizaje Activo: Los Makerspaces fomentan el aprendizaje activo y práctico a través de proyectos , experimentos y actividades colaborativas autodirigidos y experimental. La iniciativa parte del propio alumno, y puede utilizar libremente todo tipo de herramientas que ofrece el espacio. Tiene libertad para experimentar, y son los otros participantes los que actúan como formadores de los iniciados, hay un intercambio de conocimeintos Están orientados hacia la creatividad y la resolución de problemas.
  4. Ambiente Creativo: Los Makerspaces suelen tener un ambiente más informal y creativo, donde las personas pueden trabajar juntas en proyectos y compartir ideas de manera colaborativa.

En resumen, la principal diferencia entre un CRAI y un Makerspace radica en su enfoque y propósito. Mientras que un CRAI se centra en proporcionar recursos académicos y apoyo a la investigación, un Makerspace se enfoca en la creación, la experimentación y la innovación práctica. Ambos tipos de espacios tienen un valor significativo en el entorno educativo, pero sirven a objetivos diferentes.

En resumen, las similitudes existen en la medida en que ambos tipos de espacios pueden promover el aprendizaje activo, la colaboración y la innovación, pero sus enfoques son distintos y complementarios en el ámbito educativo.

Plan de acción EDUCAUSE Horizon 2023: IA Generativa

Texto completo

En 2023, la IA generativa surgió como la tecnología más rápidamente adoptada de la historia. Todos los miembros de la comunidad de la enseñanza superior, desde los estudiantes hasta los gestores, intentan determinar qué impacto pueden, quieren y deben tener las herramientas de IA generativa en la vida, el aprendizaje y el trabajo. Para complicar aún más las cosas, no hay consenso sobre cómo o incluso si la IA generativa debe desempeñar un papel en el futuro de la enseñanza superior.

Sobre la base de las tendencias, tecnologías y prácticas descritas en el Informe EDUCAUSE Horizon 2023: Edición sobre Enseñanza y Aprendizaje, el grupo de expertos del informe elaboró su visión del futuro junto con acciones prácticas que los individuos pueden aplicar en el futuro.

Cuando se les pidió que describieran el estado de la IA generativa que les gustaría ver en la educación superior dentro de 10 años, los panelistas construyeron en colaboración su futuro preferido, Así:

Los desarrolladores e investigadores de IA generativa desean formas de garantizar que los procesos y los resultados sean iguales representativos e imparciales. Los desarrolladores dan prioridad consideraciones éticas como la transparencia algorítmica y seguridad de los datos, la accesibilidad, la equidad y la inclusión. Los usuarios finales deben tener pleno control sobre el uso que instituciones y empresas sus datos y su propiedad intelectual. La formación en IA para estudiantes y profesionales se basaría en prácticas éticas. Las herramientas de IA generativa deben diseñarse con salvaguardias para garantizar que funcionan dentro de los límites de los objetivos de los desarrolladores. Los desarrolladores y usuarios finales de IA generativa tienen que establecer conjuntos de datos de referencia específicos para diversos contextos de la enseñanza superior.

Conjunto de herramientas para la defensa del derechos al conocimiento

A Toolkit for Knowledge Rights Advocacy’ – KR21 Workshop Report (via LIBER)

Descargar

Durante la Conferencia Anual de LIBER celebrada en julio, Knowledge Rights 21 organizó el taller «A Toolkit for Knowledge Rights Advocacy». Los organizadores, Stephen Wyber (Director de Política y Promoción de la IFLA) y Giannis Tsakonas (Director del Centro de Biblioteconomía e Información de la Universidad de Patras y Vicepresidente de LIBER), adoptaron un enfoque atractivo e interactivo para suscitar la reflexión de los participantes y motivarlos a unirse al creciente movimiento KR21. Knowledge Rights 21 (KR21) aboga por un cambio progresivo y positivo en la forma en que facilitamos el acceso al conocimiento, tanto sobre el terreno como a través de reformas legales.

Knowledge Rights 21 (KR21), el programa financiado por Arcadia en el que LIBER participa junto con IFLA y SPARC Europe, celebró en mayo su primera reunión de red en Bruselas. Miembros de la red KR21 de Europa y Estados Unidos participaron en este evento de tres días de duración, cuyo objetivo era aumentar la concienciación entre la red culturalmente diversa y las partes interesadas en la elaboración de políticas sobre los retos y oportunidades de las prácticas legislativas y no legislativas en toda Europa. El objetivo general era reforzar el derecho al conocimiento.

El taller se abrió con un debate sobre la situación de los distintos ámbitos políticos en los que se centra KR21. El proyecto une a LIBER, SPARC Europa e IFLA para capacitar a las bibliotecas en la defensa de políticas que apoyen sus misiones. Los participantes debatieron sobre el panorama político del acceso al conocimiento, a través de herramientas digitales de encuesta y diálogos exploratorios.

Al taller asistieron participantes en representación de países de todo el continente, desde Irlanda a Suiza, pasando por Croacia y los Países Bajos. Los participantes señalaron la falta de concienciación, tanto por parte de las bibliotecas como de los principales legisladores, sobre lo que las bibliotecas pueden hacer en aras de la apertura del conocimiento y la investigación. Además, el índice de conocimiento del marco jurídico de la ciencia y la investigación es bastante bajo, así como el conocimiento del papel que pueden desempeñar las bibliotecas.

Los participantes creen que, en general, el marco normativo no apoya el acceso abierto y que, cuando lo hace, es relativamente débil o se inclina hacia el acceso abierto dorado. El Acceso Abierto Verde parece ocupar un lugar destacado en la agenda de las bibliotecas, ya que los participantes le dieron prioridad evidente a través de sus esfuerzos por fortalecer las infraestructuras, cambiar las culturas institucionales y reformar la legislación.

La segunda parte del taller se centró en los factores que fomentan o desalientan el compromiso con los legisladores y en los pasos necesarios para llevar a cabo la reforma. LIBER presentó su trabajo sobre los derechos secundarios de publicación (DSP), incluidos los resultados de una encuesta sobre el panorama de los DSP en siete países europeos. Esto proporcionó una base útil para reflexionar sobre los factores que permiten o dificultan a los defensores del Acceso Abierto promover una legislación más progresista, así como los problemas a los que se enfrentan.

Compartir datos de investigación es cada vez más importante. Cómo pueden ayudar las bibliotecas

F1000. «Sharing Research Data Is Becoming More Important. Here’s How Libraries Can Help». Library Journal. Accedido 27 de septiembre de 2023. https://www.libraryjournal.com/story/sharing-research-data-is-becoming-more-important.-heres-how-libraries-can-help-lj230921.

Los datos de investigación son las pruebas subyacentes que sustentan las afirmaciones que se hacen en las publicaciones académicas, y poner estos datos a disposición del público es un aspecto fundamental de la publicación de acceso abierto. Sin embargo, debido a una serie de obstáculos -algunos reales, otros percibidos-, muchos investigadores son reacios a compartir sus datos con la comunidad investigadora en general.

Editores y bibliotecarios pueden colaborar para ayudar a los investigadores a superar estos obstáculos, afirma Jamie Hutchins, director de investigación abierta en las Américas del grupo Taylor & Francis. Hacerlo tiene importantes beneficios para los investigadores, sus instituciones y la sociedad en su conjunto.

Los datos de investigación pueden adoptar muchas formas, y no sólo se refieren a los números que aparecen en las hojas de cálculo. El aspecto de los datos de investigación varía según la disciplina y puede incluir elementos como notas, cuadernos de laboratorio y bocetos; medios como fotos, vídeos y diapositivas; respuestas a encuestas y transcripciones de entrevistas; modelos y algoritmos; y el software o código escrito para ejecutar simulaciones y analizar información.

Poner esta información a disposición del público ayuda a otros investigadores a reproducir los resultados de un estudio o a basarse en este corpus de conocimientos. Fomenta una mayor conexión y colaboración entre investigadores, lo que da lugar a nuevos avances.

El intercambio de datos suele fomentarse dentro de la comunidad científica, y las nuevas directrices federales, como el memorando Nelson, ampliarán aún más esta práctica. Sin embargo, hacer públicos los datos de investigación requiere mucho tiempo, esfuerzo y esfuerzo.

La falta de tiempo y de conocimientos son los principales obstáculos

En la encuesta «State of Open Data» de Digital Science de 2020, los investigadores identificaron una serie de problemas o preocupaciones que tienen a la hora de compartir públicamente sus datos de investigación.

Por ejemplo, es posible que no sepan cómo formatear y preparar sus datos para que puedan compartirse y reutilizarse, o que no tengan tiempo para hacerlo. Muchos investigadores tampoco están seguros de qué información tienen permiso para compartir y de los problemas de licencias y derechos de autor que pueden surgir.

Como señala el informe Digital Science «Esperamos que [los investigadores] sean expertos en su propia disciplina. … Pero también esperamos que los investigadores sepan una o dos cosas, preferiblemente más, sobre seguridad de la información: Dónde y cómo almacenar los datos de forma que puedan utilizarse no sólo ahora, sino también en el futuro, sin que sean accesibles a personas que no tienen nada que ver con ellos. … [Esperamos de ellos que] sean expertos jurídicos y, en esa capacidad, sepan cómo navegar con éxito por un panorama a veces muy difícil de derechos de propiedad intelectual, licencias, privacidad y quizá también patentes».

Se trata de retos que los bibliotecarios, como expertos en trabajar con datos y navegar por cuestiones de derechos de autor, pueden ayudar a resolver a los investigadores. Los editores también desempeñan un papel clave: Una plataforma como F1000 de Taylor & Francis incluye herramientas para ayudar a los investigadores a almacenar y compartir sus datos y, al mismo tiempo, mantener segura esta información.

Superar las preocupaciones de los investigadores

Más allá de estos obstáculos técnicos, los investigadores han expresado su preocupación por el posible uso indebido de sus datos. Algunos investigadores son reacios a ceder el control sobre sus datos de investigación y punto. «Para muchos, incluso la idea de que los datos puedan ser reutilizados por otros investigadores ha sido un obstáculo para la adopción de los principios de la investigación abierta», afirma Hutchins.

Sin embargo, Hutchins señala que compartir ampliamente los datos no sólo beneficia a la sociedad, sino que también aporta ventajas claras y directas a los propios investigadores. Por ejemplo, aumenta las posibilidades de descubrir su trabajo, ayudando a otros a encontrar, utilizar y citar sus resultados de investigación. Esto, a su vez, mejora la imagen de los investigadores y de las instituciones que los emplean.

De hecho, un estudio reveló que los artículos de revistas que enlazaban con datos de repositorios de investigación tenían hasta un 25% más de citas que los que no tenían acceso a los datos subyacentes.

«Desde el punto de vista de los editores, tenemos pruebas de que incluso el paso mínimo de incluir una declaración de disponibilidad de datos en un artículo de investigación -algo que exige F1000 y que ahora están adoptando otras revistas- puede aumentar su impacto», afirma Hutchins.

Algunas instituciones, como la Universidad de Florida (UF), han rediseñado sus servicios bibliotecarios para apoyar más eficazmente la investigación en su universidad, por ejemplo ofreciendo servicios de consultoría y orientación sobre las mejores prácticas para compartir datos de investigación. «A menudo oímos decir a investigadores de todas las etapas de su carrera que no son conscientes de los recursos y servicios de apoyo de que disponen», afirma Hutchins. «Este parece un ámbito claro para la colaboración entre bibliotecas y editoriales».