Archivo de la etiqueta: Informes

Inteligencia artificial en bibliotecas universitarias españolas

Observatorio de Inteligencia Artificial REBIUN. Inteligencia artificial en bibliotecas universitarias españolas. . REBIUN, 2024

Texto completo



La encuesta del Observatorio IA de REBIUN, realizada entre el 20/06/2024 y el 12/07/2024, explora el estado de la inteligencia artificial en sus bibliotecas, con una participación del 67%. Revela un interés moderado en la IA, pero destaca obstáculos como la volatilidad del entorno y la falta de competencias del personal, además de una formación autodidacta y limitada. Solo el 25% de las universidades encuestadas tienen una política de IA, mientras que la implementación en áreas como el proceso técnico, atención al usuario y apoyo a la investigación es baja, aunque existen iniciativas como chatbots y herramientas de accesibilidad. El estudio también recoge preocupación por la ética de la IA y la expectativa de que el Observatorio IA provea formación y contenidos actualizados.

Hacia una IA ética y justa en la investigación educativa

Barnes, T., Danish, J., Finkelstein, S., Molvig, O., Burriss, S., Humburg, M., Reichert, H., Limke, A. Toward Ethical and Just AI in Education Research. Community for Advancing Discovery Research in Education (CADRE). Education Development Center, 2024

Texto completo

El documento «Toward Ethical and Just AI in Education Research» discute el creciente uso de la inteligencia artificial en la educación, particularmente en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM). Los avances en la investigación y desarrollo de inteligencia artificial en educación (AIED) están transformando la enseñanza y el aprendizaje, generando una mezcla de entusiasmo y preocupación.

Los autores, miembros de la Community for Advancing Discovery Research in Education (CADRE), reconocen que, aunque la AI tiene el potencial de revolucionar la educación, también puede perpetuar sesgos existentes y afectar negativamente la práctica educativa. Este informe es el primero de una serie de tres que aborda enfoques éticos en la investigación y aplicación de la AIED en STEM, impulsado por la necesidad de considerar cuidadosamente cómo se diseñan y utilizan estas tecnologías.

Los investigadores subrayan la importancia de adoptar políticas que prioricen la ética, la equidad y la justicia en el desarrollo de tecnologías AIED en educación K-12. En este sentido, proponen un marco ético y herramientas que fomentan la reflexión continua y la comunicación para mejorar la investigación y el desarrollo inclusivos y equitativos.

Además, hacen hincapié en que las tecnologías AI reflejan tanto los sesgos intencionados como los no intencionados de sus diseñadores y de la sociedad. Por lo tanto, abogan por un enfoque integral que incorpore principios éticos establecidos, lo que permitirá que las buenas intenciones de los investigadores y desarrolladores se traduzcan en decisiones de diseño positivas y en la creación de productos tecnológicos inclusivos.

El potencial de la IA generativa y la detección, la disciplina y la desconfianza

Dwyer, M. ; Laird, E. Up in the Air Educators Juggling the Potential of Generative AI with Detection, Discipline, and Distrust. e Center for Democracy & Technology (CDT), 2024

Texto completo

Desde finales del curso 2022-23, los educadores han tenido una experiencia distinta con la inteligencia artificial generativa (IA). Las escuelas han aprovechado para reorganizarse y adaptarse tras la rápida aparición de ChatGPT el año anterior. El Centro para la Democracia y la Tecnología (CDT) realizó una encuesta en noviembre y diciembre de 2023 a maestros de secundaria para entender cómo interactúan con esta tecnología y qué apoyo reciben.

En agosto de 2023, el Centro para la Democracia y la Tecnología (CDT) realizó una encuesta para examinar las experiencias y opiniones de maestros, estudiantes y padres sobre varios aspectos de la tecnología, incluida la IA generativa, durante el año escolar 2022-23. Luego, entre noviembre y diciembre de 2023, CDT patrocinó una encuesta dirigida a maestros para analizar cambios en el uso reportado de IA generativa y evaluar el apoyo y la orientación que los maestros están recibiendo por parte de sus escuelas o distritos en el año escolar 2023-24. Para ello, se llevaron a cabo entrevistas en línea a 460 maestros de 6.º a 12.º grado realizadas entre noviembre y diciembre de 2023.

El estudio reveló avances y desafíos:

  • Mayor familiaridad y formación: Aunque ha aumentado el uso de IA generativa y las políticas escolares, persisten riesgos. A muchos maestros les falta orientación sobre el uso responsable por parte de los estudiantes y cómo detectar trabajos generados por IA.
  • Dependencia de herramientas de detección de IA: Los maestros confían cada vez más en estas herramientas, a pesar de que son poco efectivas. Esto podría afectar negativamente a los estudiantes.
  • Aumento en la disciplina estudiantil: Más estudiantes están siendo castigados por el uso de IA, con un riesgo mayor para estudiantes marginados.
  • Desconfianza hacia los estudiantes: Los maestros, especialmente en escuelas que prohíben la IA, siguen siendo más desconfiados respecto a la integridad académica de los estudiantes, lo que también ha resultado en más sanciones disciplinarias.

Las escuelas han avanzado significativamente en la creación de políticas y en proporcionar orientación a los docentes sobre el uso de la IA generativa en un corto periodo. En el año escolar anterior, muchas escuelas aún estaban desorientadas y rezagadas en cuanto a la implementación de normativas sobre IA generativa, y muchos maestros informaban que sus instituciones no tenían políticas claras al respecto. Sin embargo, en el año escolar 2023-24, más docentes reportan que sus escuelas han adoptado políticas y procedimientos, además de ofrecer mayor capacitación y apoyo en relación con el uso de estas herramientas.

  • 80% de los docentes han recibido capacitación formal sobre políticas de uso de IA generativa, un aumento de 37 puntos porcentuales respecto al año pasado.
  • 85% de los maestros afirman que sus escuelas tienen una política que permite o prohíbe el uso de herramientas de IA generativa, como ChatGPT, para tareas escolares, y 71% de ellos indican que es la primera vez que se implementa dicha política en sus instituciones.
  • Las políticas que permiten el uso de IA generativa para tareas casi se han duplicado en comparación con el año anterior (del 31% al 60%).
  • Además, 72% de los maestros afirman que las escuelas han solicitado su opinión sobre las políticas de uso de IA generativa en el aula, un porcentaje superior al de otras tecnologías escolares.

Los maestros se están volviendo cada vez más dependientes de las herramientas de detección de contenido generativo de IA sancionadas por las escuelas, lo cual es problemático ya que investigaciones indican que estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos. Además, la mayoría de los docentes no han recibido orientación sobre cómo actuar si sospechan que un estudiante ha utilizado IA de manera inapropiada.

  • 68% de los maestros informan que utilizan regularmente una herramienta de detección de contenido de IA, lo que representa un aumento de 30 puntos porcentuales en comparación con el año pasado.
  • Solo 25% de los docentes se sienten muy efectivos a la hora de discernir si los trabajos fueron creados por IA o por los estudiantes mismos.
  • El uso de herramientas de detección sancionadas por las escuelas ha aumentado: 78% de los maestros informan que su escuela respalda alguna herramienta de este tipo, en comparación con el 43% del año pasado.

Esta situación genera preocupación, especialmente por el aumento en las sanciones disciplinarias hacia los estudiantes, que será tratado en la si

El aumento en el uso de la IA generativa ha generado un incremento en las sanciones disciplinarias hacia los estudiantes, en parte debido a la falta de capacitación docente y a la creciente dependencia de herramientas de detección de IA, que a menudo son ineficaces. Desde el año escolar pasado, las sanciones por el uso de IA generativa han aumentado un 16%, alcanzando al 64% de los estudiantes sancionados en el ciclo 2023-2024.

  • Herramientas de detección de IA: El uso regular de estas herramientas por los maestros está vinculado a un mayor número de sanciones. Un 72% de los maestros que las usan regularmente informan sobre estudiantes que han enfrentado consecuencias negativas.
  • Desigualdades en la disciplina: Estudiantes que dependen de dispositivos proporcionados por la escuela, así como aquellos de comunidades marginadas (negros, hispanos, rurales y de bajos ingresos), enfrentan mayor riesgo de sanciones.
  • Estudiantes con discapacidades: Los alumnos con planes IEP o 504 reportan un uso más frecuente de IA generativa, lo que, combinado con el mayor uso de herramientas de detección por parte de maestros de educación especial, aumenta el riesgo de acciones disciplinarias para estos estudiantes.

El aumento de estas sanciones plantea preocupaciones sobre las consecuencias educativas negativas, especialmente para poblaciones vulnerables.

Adopción y barreras en la puesta en común de datos abiertos entre comunidades de investigación física

Holst, Faye. «IOP Publishing Study Reveals Varied Adoption and Barriers in Open Data Sharing among Physical Research Communities». IOP Publishing, 21 de octubre de 2024. https://ioppublishing.org/news/iop-publishing-study-reveals-varied-adoption-and-barriers-in-open-data-sharing-among-physical-research-communities-copy/.

Un estudio realizado por IOP Publishing (IOPP) ha puesto de manifiesto las diferencias en la adopción de la compartición de datos abiertos en las comunidades de investigación en ciencias físicas y las diversas barreras que enfrentan.

El acceso a los datos permite la replicación de la investigación y fortalece la confianza en los resultados. Los principios FAIR se introdujeron en 2016 para estandarizar los metadatos, asignar identificadores persistentes y proporcionar licencias de uso claras, asegurando que los datos de investigación sean fácilmente localizables, accesibles, combinables y reutilizables con la debida atribución.

Desde 2022, IOPP exige a todos los autores que incluyan una declaración de disponibilidad de datos en sus artículos, especificando si y cómo se pueden acceder a los datos que respaldan su investigación. Esta política se amplió en 2023, exigiendo a los autores que no puedan o no deseen compartir sus datos públicamente que expliquen las razones.

El análisis incluyó más de 30,000 artículos de investigación, cuyos hallazgos fueron publicados en el documento de IOPP titulado “Bringing researchers on board: Navigating the barriers to sharing data publicly”.

Hallazgos clave:

  1. Científicos ambientales:
    • Más del 80% comparte sus datos de investigación abiertamente.
    • Casi el 60% sigue los principios de Findability, Accessibility, Interoperability, and Reusability (FAIR).
    • Mayor barrera: restricciones legales relacionadas con la propiedad de datos de terceros.
  2. Físicos:
    • Más del 70% comparte datos de investigación abiertamente.
    • Solo el 18% adhiere a los principios FAIR.
    • Mayor barrera: los formatos de datos son considerados inaccesibles, incluso si están disponibles.
  3. Ingenieros:
    • Solo el 55% comparte sus datos abiertamente.
    • Menos del 8% sigue los principios FAIR.
    • Mayor barrera: falta de un repositorio conocido para enviar datos.
  4. Científicos de materiales:
    • Más del 70% comparte sus datos abiertamente.
    • Solo cerca del 5% sigue los principios FAIR.
    • Mayor barrera: datos confidenciales o sensibles.

Construyendo una cultura de alfabetización en inteligencia artificial generativa en la enseñanza de lenguas, literatura y escritura

Working Paper 1: Overview of the Issues, Statement of Principles, and Recommendations

Working Paper 2: Generative AI and Policy Development: Guidance from the MLA-CCCC Task Force

Working Paper 3: Building a Culture for Generative AI Literacy in College Language, Literature, and Writing

MLA 2024

Este documento de trabajo sostiene que los educadores deben aprovechar su experiencia colectiva para influir en el uso de la IA generativa, tanto en su campo profesional como en la sociedad en general. Esto se debe a que estas herramientas tienen un impacto significativo en nuestras actividades cívicas, culturales y económicas.

Este documento de trabajo argumenta que los educadores deben utilizar su experiencia colectiva para influir en el uso de la inteligencia artificial (IA) generativa, tanto en sus áreas profesionales como en la sociedad, dada la significativa influencia que estas herramientas tienen en nuestras actividades cívicas, culturales y económicas. Sin embargo, también se señala el riesgo de que al crear tales documentos, se estén limitando alternativas al consentir en lugar de resistir. Dado que la tecnología ya está presente, es esencial ofrecer perspectivas equilibradas sobre los riesgos y beneficios asociados a la IA generativa.

A medida que se concluye el trabajo en este documento en el verano de 2024, se observa que empresas como Apple y Google están integrando tecnologías de IA generativa en sus plataformas. Esto indica que la IA está lo suficientemente integrada en el ámbito educativo como para impactar la alfabetización de diversas maneras. Se definen varios términos relacionados con la IA, como IA artificial (que hace predicciones basadas en modelos estadísticos), IA generativa (que produce texto o imágenes a partir de un aviso del usuario) y modelos de lenguaje de gran tamaño (que generan texto utilizando cálculos estadísticos).

Se enfatiza que, aunque las herramientas de IA generativa parecen funcionar de manera casi mágica, son, en realidad, impulsadas por datos y algoritmos. Aunque pueden producir textos que parecen humanos, estas herramientas carecen de comprensión real y, a menudo, reproducen sesgos presentes en los datos con los que fueron entrenadas. Por lo tanto, es fundamental que los educadores mantengan una supervisión crítica sobre el uso de estas tecnologías, ya que la percepción de «inteligencia» en la IA puede crear expectativas irreales.

Dado que la IA generativa se está integrando en servicios y aplicaciones cotidianas, es urgente centrarse en la alfabetización en IA generativa. Este documento promueve que la alfabetización en IA debe centrarse en dos objetivos: el acceso a «lenguajes en evolución» en diferentes contextos y el desarrollo de marcos críticos que ayuden a imaginar mejores «futuros sociales». Se propone que la alfabetización en IA abarca no solo la fluidez técnica, sino también la capacidad crítica, creativa y comunitaria en relación con estas herramientas.

En cuanto a los estudiantes, se destaca la necesidad de estrategias prácticas para utilizar la IA generativa, entender cómo esta puede influir en sus expectativas de rendimiento y en la calidad de la educación que recibirán. La alfabetización en IA debe incluir la capacidad de diseñar o criticar herramientas, así como cuestionar la ética y eficacia de su uso.

Actitudes, hábitos y habilidades de información de los adolescentes

A survey of teen information attitudes, habits and skills. News Literacy in America (2024)

Texto completo

Full Report

Los adolescentes estadounidenses pasan horas cada día desplazándose por plataformas de redes sociales, sumergiéndose en un flujo a menudo confuso de entretenimiento, anuncios, noticias, rumores y teorías de conspiración. Los jóvenes necesitan el conocimiento, las habilidades y los hábitos mentales para evaluar la credibilidad y autenticidad de las noticias y la información que encuentran mientras navegan por este paisaje complejo. De lo contrario, permanecerán en desventaja cívica y personal a lo largo de sus vidas.

Para aprender sobre los comportamientos y mentalidades informativas de los adolescentes, evaluar el estado de la educación en alfabetización informativa e identificar formas de garantizar que los jóvenes se conviertan en pensadores críticos bien informados, el Proyecto de Alfabetización Informativa contrató a SSRS, una firma de investigación de mercado y ciencias sociales de servicio completo, para llevar a cabo una encuesta en línea representativa a nivel nacional, basada en probabilidad, con 1,110 adolescentes de entre 13 y 18 años en mayo de 2024.

Esta investigación tiene como objetivo informar a educadores y responsables de políticas mientras consideran cómo integrar mejor la alfabetización informativa en las escuelas, y ayudar a periodistas e investigadores a comprender mejor las necesidades de los jóvenes en esta área. Este informe actúa como una visión general integral de cómo los adolescentes piensan sobre, experimentan y se relacionan con el paisaje informativo actual.

Cuestiones clave:

Los adolescentes desean que se incluya la educación en alfabetización mediática en su formación, pero la mayoría no la está recibiendo.
Una abrumadora mayoría de adolescentes (94%) afirma que las escuelas deberían estar obligadas a enseñar alfabetización mediática. El 57% apoya firmemente esta idea, afirmando que las escuelas “definitivamente” deberían tener tal requisito, mientras que otro 36% ofrece cierto apoyo, indicando que debería haber un requisito en algunos casos. A pesar del amplio apoyo entre los adolescentes, se encontró poca evidencia de que las escuelas ya estén proporcionando instrucción en alfabetización mediática. Solo el 39% de los adolescentes reporta haber recibido alguna instrucción sobre alfabetización mediática en al menos una clase durante el año escolar 2023-24.

Los adolescentes luchan por distinguir entre diferentes tipos de información.
La mitad de los adolescentes puede identificar un artículo de contenido patrocinado como un anuncio, el 52% puede reconocer un artículo con “comentario” en el titular como una opinión y el 59% puede identificar que los resultados de búsqueda de Google bajo la etiqueta “patrocinado” indican publicidad pagada. Sin embargo, menos de 2 de cada 10 adolescentes (18%) respondió correctamente a las tres preguntas que les pedían distinguir entre diferentes tipos de información. Los resultados no mostraron diferencias significativas entre los grupos de edad, lo que significa que los adolescentes mayores no son generalmente mejores en demostrar esta habilidad fundamental de alfabetización noticiosa que los adolescentes más jóvenes.

Casi la mitad de los adolescentes piensan que la prensa hace más daño a la democracia que la protege.
Poco más de la mitad de los adolescentes (55%) afirma que los periodistas hacen más para proteger la democracia, mientras que el 45% sostiene que los periodistas hacen más daño a la democracia. Dos grupos destacan como particularmente propensos a decir que los periodistas protegen la democracia: los adolescentes que buscan activamente noticias para mantenerse informados (68%) y aquellos con alta confianza en los medios de comunicación (82%).

Acerca de dos tercios de los adolescentes no están preocupados por el fuerte declive en el número de organizaciones de noticias en las últimas décadas.
El 67% de los adolescentes afirma estar poco o nada preocupado por el fuerte declive en el número de organizaciones de noticias en EE. UU. en los últimos 20 años. Entre los adolescentes que no siguen realmente las noticias, el 78% dice estar poco o nada preocupado por este declive. Asimismo, el 74% de aquellos con baja confianza en los medios de comunicación dice lo mismo.

Muchos adolescentes confían al menos algo en los medios de comunicación, pero perciben altos niveles de sesgo en las noticias.
La mayoría de los adolescentes (65%) dio respuestas al menos algo confiadas a las tres preguntas de la encuesta que constituyen nuestro índice de confianza en los medios de comunicación, sin embargo, solo el 8% respondió a las tres preguntas con respuestas confiadas. Los adolescentes que dicen haber tenido al menos alguna instrucción en alfabetización mediática en al menos una clase son especialmente propensos a tener al menos algo de confianza en los medios de comunicación (73% con confianza media o alta). Las dos preguntas que recibieron las respuestas más desconfiadas de los adolescentes fueron sobre el sesgo en los medios de comunicación. Casi 7 de cada 10 adolescentes (69%) creen que las organizaciones de noticias añaden intencionadamente sesgo a la cobertura para avanzar en una perspectiva específica, y 8 de cada 10 dicen que la información que producen las organizaciones de noticias es más sesgada o al menos igual que la de otros creadores de contenido en línea.

La mayoría de los adolescentes en redes sociales se encuentran con teorías de conspiración y están inclinados a creer en alguna de ellas.
Ocho de cada 10 adolescentes en redes sociales afirman que ven publicaciones que difunden o promueven teorías de conspiración, pero la frecuencia de su exposición varía. El 20% de los adolescentes que usan redes sociales reportan ver estas publicaciones en sus feeds diariamente, el 31% semanalmente y el 29% menos de una vez a la semana. Muchas de las teorías de conspiración que los adolescentes reportan ver van más allá de supersticiones inofensivas e incluyen narrativas como la creencia de que la Tierra es plana, que las elecciones de 2020 fueron manipuladas o robadas, y que las vacunas contra COVID-19 son peligrosas. Aunque los adolescentes en redes sociales no están necesariamente inclinados a creer en cada teoría de conspiración que encuentran, una abrumadora mayoría de quienes reportan haber visto una teoría de conspiración en redes sociales (81%) dice estar inclinada a creer en una o más de ellas.

Pocos adolescentes son usuarios regulares de tecnologías de inteligencia artificial generativa y muchos son escépticos sobre la información que producen.
Menos de una cuarta parte de los adolescentes (23%) dice usar chatbots de IA generativa, como ChatGPT, Gemini o Copilot, una vez a la semana o más. Aún menos adolescentes (9%) reportan usar generadores de imágenes de IA, como DALL-E, Midjourney, DreamStudio o Gemini, una vez a la semana o más. Estos hallazgos desafían la noción de que las herramientas de IA ya han revolucionado la forma en que los jóvenes abordan el trabajo escolar. Al preguntar si confían en que los chatbots de IA generativa produzcan información precisa y justa, muchos adolescentes mostraron escepticismo. Solo el 36% de los adolescentes reporta tener al menos una cantidad razonable de confianza en estas herramientas para generar información precisa, mientras que la mitad de los adolescentes reporta tener poca o ninguna confianza en la precisión y justicia de estas herramientas de IA.

Mientras que pocos adolescentes tienden a buscar noticias, aquellos que lo hacen son más propensos a tener otros hábitos de noticias saludables.
En cuanto a los hábitos de noticias, solo el 15% de los adolescentes dice buscar activamente noticias para mantenerse informado. La mayoría de los adolescentes dice que se mantienen al tanto de las noticias sin realmente intentarlo (50%) o que no se mantienen al tanto de las noticias (36%). Ser un buscador activo de noticias está asociado con otras prácticas saludables de alfabetización mediática. Los adolescentes que buscan activamente noticias y utilizan redes sociales son especialmente propensos a seguir a más periodistas y organizaciones de noticias, y frecuentemente dan “me gusta”, comparten y publican sobre temas o eventos en las noticias. Aquellos buscadores activos de noticias que dan “me gusta”, comparten o publican sobre noticias en redes sociales también son más propensos a decir que siempre verifican el contenido antes de hacerlo. Por último, ser un buscador activo de noticias está asociado con participar en una o más actividades cívicas, como referirse a fuentes creíbles al compartir una opinión y comunicarse con un periodista o medio de comunicación para ofrecer retroalimentación sobre una historia.

Adopción de la IA Generativa por investigadores de Biomedicina

Adoption of Generative AI by Academic Biomedical Researchers”. Ithaka S+R, 2024

Texto completo

El informe «Adopción de la IA Generativa por Investigadores Biomédicos Académicos» fue publicado por Ithaka S+R el 17 de octubre de 2024. Este estudio analiza cómo los investigadores en el campo biomédico están utilizando la IA generativa, así como las percepciones y barreras que enfrentan en su adopción.

Desde el lanzamiento de ChatGPT en noviembre de 2022, ha surgido un debate nacional sobre el papel de la IA generativa en diversos sectores del trabajo intelectual, aunque la atención se ha centrado principalmente en su impacto en la enseñanza. El ámbito de la investigación biomédica presenta casos prometedores de uso, pero también riesgos significativos asociados a esta tecnología.

Los hallazgos del informe revelan que la adopción de la IA generativa es mixta. Muchos investigadores han experimentado con su uso, pero este es limitado en alcance y frecuencia. Las principales barreras para su adopción incluyen preocupaciones sobre la precisión de los resultados y cuestiones éticas. Debido a la calidad actual de las salidas de la IA generativa y la falta de mejores prácticas, es posible que su adopción se estabilice.

Ithaka S+R realizó una encuesta a investigadores biomédicos académicos sobre sus actitudes y uso de la IA generativa en contextos de investigación, que se llevó a cabo entre el 20 de febrero y el 29 de marzo de 2024, con 770 participantes.

Aunque la mayoría de los investigadores biomédicos han utilizado la IA generativa en el pasado, pocos la usan actualmente y casi ninguno lo hace de manera regular. De los investigadores que han utilizado la IA generativa:

  • 6 de cada 10 han empleado esta tecnología en su investigación.
  • El 31% la ha utilizado para revisar o editar gramática.
  • El 25% la ha usado para extraer información de la literatura científica.
  • El 22% la ha aplicado en tareas administrativas.
  • El 22% la ha usado para escribir código.

Sin embargo, solo el 40% de los investigadores biomédicos la utiliza actualmente. Las principales barreras para la adopción son:

  • El 55% reportó que los resultados no son suficientemente precisos o confiables.
  • Menos de 1 de cada 10 investigadores la utiliza regularmente.
  • El 47% señaló que hay falta de claridad sobre las mejores prácticas para la integridad de la investigación y el uso de la IA generativa.
  • El 56% expresó un gran interés en productos de IA generativa específicos para biomedicina.
  • Solo el 14% había utilizado herramientas o modelos de lenguaje específicos para biomedicina existentes.

Este informe es una contribución importante a la comprensión de las implicaciones de la IA generativa, y se anticipa que se publicará un análisis cualitativo más profundo sobre su uso en la educación superior más adelante en el año.

Buenas prácticas diseñadas para ayudar a las bibliotecas a prestar un mejor servicio a las personas sin hogar

LEADERSHIP BRIEF: Effective Strategies and Models for Urban Libraries Addressing Homelessness. Urban Libraries Council (ULC), 2024

Texto completo

Urban Libraries Council (ULC), una organización sin fines de lucro que agrupa bibliotecas urbanas en América del Norte, ha lanzado un nuevo conjunto de mejores prácticas para ayudar a las bibliotecas a servir mejor a las personas que experimentan la falta de vivienda en sus comunidades. El informe, basado en las experiencias de líderes bibliotecarios de EE. UU. y Canadá, sugiere que las bibliotecas pueden apoyar tanto a los usuarios sin hogar como al personal mediante el desarrollo de asociaciones comunitarias, la capacitación del personal y el diseño intencional de espacios físicos.

Según Brooks Rainwater, presidente y CEO de ULC, las bibliotecas públicas están a la vanguardia en la atención de personas sin hogar, y al adoptar estas prácticas, pueden lograr un impacto duradero, asegurando que sean espacios seguros y de apoyo para todos.

Entre las bibliotecas miembros del ULC que destacan en el informe por sus estrategias efectivas se encuentran las bibliotecas públicas de Brooklyn, Calgary, Dallas, Denver, Los Ángeles, Salt Lake City, San Diego y Spokane, entre otras. Algunas de las recomendaciones incluyen:

  • Establecer asociaciones sólidas con agencias de servicios sociales y gobiernos locales para ampliar los recursos disponibles dentro de las bibliotecas, ofreciendo servicios esenciales como asistencia para la vivienda, atención de salud mental y formación laboral.
  • Preparar al personal bibliotecario mediante capacitaciones en técnicas de desescalada, atención informada por el trauma y manejo conductual. También se recomienda contratar personal especializado, como trabajadores sociales o coordinadores de participación comunitaria.
  • Diseñar entornos acogedores que promuevan un ambiente inclusivo y ofrecer áreas de apoyo designadas para que las personas sin hogar accedan fácilmente a los recursos.

Estas prácticas buscan reforzar el papel de las bibliotecas como refugios comunitarios seguros y accesibles para todos los usuarios.

cOAlición S anuncia la publicación de un estudio independiente sobre el impacto del Plan S

Castro, Pablo de, Ulrich Herb, Laura Rothfritz, W. Benedikt Schmal, y Joachim Schöpfel. «Galvanising the Open Access Community: A Study on the Impact of Plan S». Zenodo, 15 de octubre de 2024. https://doi.org/10.5281/zenodo.13738479.

Texto completo

Se presenta un estudio independiente encargado por cOAlition S para evaluar el impacto del Plan S cinco años después de su lanzamiento. El estudio, realizado por scidecode science consulting, es el primero en analizar el efecto de Plan S en el ámbito de la comunicación académica, en el que se combina un análisis cuantitativo con percepciones cualitativas de actores clave del ecosistema editorial académico.

Puntos clave del estudio:

  • Plan S ha abierto nuevas vías para lograr un acceso abierto completo e inmediato, poniendo el tema en la agenda de los responsables de políticas y llevando a los editores a negociar con las instituciones.
  • Se destaca el impacto de la estrategia de retención de derechos, la cual ha sido adoptada por diversas instituciones en sus propias políticas.
  • El estudio también resalta el impulso que Plan S ha dado al modelo de Diamond Open Access y su contribución a generar conciencia sobre las inequidades en los modelos de publicación basados en cargos por artículo.

Aunque el estudio señala que aún es pronto para evaluar completamente el impacto cuantitativo de Plan S, recomienda revisar el progreso en 5-10 años. No obstante, se observa un avance significativo hacia el acceso abierto desde el anuncio de Plan S. Por lo tanto, se recomienda que cOAlition S continúe más allá de 2025 y se subraya la necesidad de colaboración entre todos los actores para una transición más sostenible, asequible y equitativa en la publicación académica.

Conjuntos de datos de alto valor – Posibilidad de encontrar y comparar metadatos entre países

 Eendenburg, L., Fernández Nebreda, B., Suárez, J. and Rozbroj Jasinskaja, N., High-value datasets – Cross-country findability and comparability of metadata, Fernández Nebreda, B.(editor) and Rozbroj Jasinskaja, N.(editor), Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/0033148

El estudio analiza la implementación de conjuntos de datos de alto valor (HVDs) en los Estados miembros de la Unión Europea, cruciales para impulsar las iniciativas de datos abiertos y promover la reutilización de datos entre países. Aunque el progreso varía entre los Estados, es necesario un enfoque estandarizado para asegurar la comparabilidad e interoperabilidad de estos conjuntos de datos a nivel de la UE. El estudio aborda los desafíos en la armonización de metadatos y la mejora de la accesibilidad y localización de los HVDs, guiado por los principios FAIR (facilidad de localización, accesibilidad, interoperabilidad y reutilización) y las directrices DCAT-AP HVD. Esta investigación piloto, realizada entre abril y mayo de 2024, antes de la entrada en vigor del Reglamento de Implementación de la Comisión (UE) 2023/138 en junio de 2024, evalúa la localización y comparabilidad de los metadatos de los HVDs en países seleccionados (Dinamarca, Estonia, Letonia y Finlandia). La evaluación se basa en una muestra de 24 conjuntos de datos bajo seis categorías temáticas: geoespacial, observación de la Tierra y medio ambiente, meteorología, estadísticas, empresas y propiedad empresarial, y movilidad. El estudio también ofrece recomendaciones para mejorar la estandarización de los metadatos y la localización de los conjuntos de datos.