Guía de inicio para crear un makerspace en bibliotecas

Artefacto – Digital Agency. «The Makerspace Starter Guide for Libraries by Artefacto», 29 de mayo de 2024.

Texto completo

Guía de Inicio para Makerspaces en Bibliotecas. Ideas para lanzar, relanzar y reimaginar tu makerspace en la biblioteca

En esta guía encontrarás:

  • Cuándo y por qué crear un makerspace
  • Cómo lanzar un nuevo espacio o servicio
  • Tomar decisiones sobre herramientas y equipos
  • Involucrar al personal y apoyar tu makerspace
  • Ofrecer un programa de makerspace eficiente y centrado en el usuario

Es un recurso colaborativo diseñado para inspirarte y alentarte a mejorar tu propio makerspace de una manera que funcione mejor para tus usuarios. Se comparten consejos y recomendaciones que se han obtenido al apoyar a bibliotecas en todo el Reino Unido durante los últimos 5 años y de las propias experiencias como creadores, tecnólogos y facilitadores de talleres.

Esta es una lista de inspiración más que un libro de reglas: un punto de partida y construcción, con algunos recursos que, con suerte, te ahorrarán tiempo. El objetivo es compartir información práctica para ayudarte a crear y gestionar un makerspace que sea adecuado para el servicio de tu biblioteca.

Investigadores de Google afirman que la IA lidera ahora el vector de la desinformación

Maiberg ·, Emanuel. «Google Researchers Say AI Now Leading Disinformation Vector (and Are Severely Undercounting the Problem)». 404 Media, 28 de mayo de 2024. https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem/.

Una nueva investigación realizada por investigadores de Google y varias organizaciones de verificación de hechos ha revelado que la mayoría de la desinformación basada en imágenes es ahora generada por inteligencia artificial (IA). Sin embargo, la forma en que se recopiló la información sugiere que el problema podría ser aún peor de lo que se afirma.

Un estudio reciente, realizado principalmente por autores de Google, encontró que casi el 80% de las afirmaciones verificadas están relacionadas con algún tipo de medio, especialmente video. Este incremento en desinformación mediática se ha acelerado con la llegada de herramientas de IA como ChatGPT.

El estudio, identificado por primera vez por el boletín Faked Up, mide el aumento de la desinformación generada por IA al analizar las afirmaciones de desinformación basadas en imágenes verificadas por sitios como Snopes y Politifact. En total, el estudio revisa 135.838 verificaciones de hechos que datan de 1995, aunque la mayoría de las afirmaciones fueron creadas después de 2016, tras la introducción de ClaimReview. ClaimReview es un sistema de etiquetado que permite a los verificadores de hechos y editores marcar desinformación para plataformas como Google, Facebook, Bing, entre otras.

El flujo interminable de respuestas generadas por IA de Google, que son incorrectas y a veces peligrosas, se está volviendo viral en las redes sociales, exacerbando la propagación de desinformación. El gráfico más revelador del estudio muestra la “prevalencia de los tipos de manipulación de contenido como una función de las manipulaciones generales de contenido”. En otras palabras, muestra los diferentes tipos de desinformación basada en imágenes y cuán comunes son a lo largo del tiempo.

Como se puede ver en el gráfico, la desinformación basada en imágenes generadas por IA no era un problema hasta finales de 2023, cuando los generadores de imágenes por IA se volvieron ampliamente disponibles y populares, punto en el cual prácticamente reemplazaron todas las demás formas de desinformación basada en imágenes. El gráfico también muestra que hay un ligero aumento en el número total de muestras de desinformación basada en imágenes que corresponde con el aumento de las imágenes de IA, pero solo ligeramente.

«Curiosamente, el aumento de las imágenes de IA no produjo un incremento en la proporción general de reclamaciones de desinformación que dependen de imágenes durante este período, y la desinformación basada en imágenes continuó disminuyendo de manera relativa a medida que creció la desinformación basada en videos», dice el artículo.

Según el artículo, el problema de las imágenes generadas por IA podría ser aún peor porque la muestra de datos se basa en los datos públicos de los verificadores de hechos, que no seleccionan al azar la desinformación basada en imágenes generadas por IA. Sitios como Snopes y Politifact, que tienen recursos limitados, se centran en verificar imágenes que han alcanzado cierto grado de viralidad o cobertura de noticias, por lo que sus verificaciones de hechos cumplen un propósito o una audiencia. Históricamente, los verificadores de hechos también se enfocan en la desinformación en inglés, permitiendo que la desinformación en otros idiomas se convierta en un problema mayor. Esta muestra subestimaría la avalancha de imágenes generadas por IA que vemos en plataformas como Facebook a diario y que a veces no se informan.

El advenimiento de los generadores de imágenes por IA ha creado un problema no solo con la desinformación generada por IA, sino también con el spam generado por IA. Los sitios de verificación de hechos a menudo solo tienen capacidad para verificar imágenes que se vuelven virales o que se están difundiendo ampliamente. Pero hemos visto que los generadores de imágenes por IA permiten la creación masiva de muchas variaciones de una imagen dada, no todas las cuales se vuelven virales.

Otra forma en que el problema de la desinformación generada por IA podría ser incluso peor de lo que encontró el estudio es que las imágenes generadas por IA podrían estar incluidas en videos. “Históricamente, las imágenes eran la modalidad dominante asociada con las reclamaciones de desinformación; sin embargo, los videos se volvieron más comunes a partir de 2022 y ahora participan en más del 60% de las reclamaciones verificadas que incluyen medios”, dice el estudio. Pero el estudio no tiene en cuenta el hecho de que la desinformación en videos podría estar compuesta en parte o totalmente de imágenes generadas por IA. Incluso el Partido Republicano de los EE. UU. comenzó a usar videos compuestos enteramente por imágenes generadas por IA en videos oficiales de campaña desde el año pasado.

“Originalmente queríamos aplicar anotaciones similares a la desinformación basada en videos también, pero resultó demasiado complejo de manejar y la tarea se volvió demasiado elaborada y consume mucho tiempo, por lo que terminamos con un esfuerzo ligeramente más enfocado”, dijo Dufour.

Nuevamente, será difícil obtener una imagen completamente precisa de cuán grave es el problema de la desinformación generada por IA porque es mucho más laborioso encontrar y revisar estas imágenes que producirlas. Tampoco ayuda que Google esté promoviendo contenido generado por IA que no necesariamente es lo que consideramos desinformación política, pero que está simplemente incorrecto, ya sea libros generados por IA o resultados de búsqueda que dicen a los usuarios que coman pegamento.

Editar el Siglo de Oro en la era digital

Torrent, Susanna Allés, y Eugenia Fosalba Vela. Editar el Siglo de Oro en la era digital. Servicio de Publicaciones = Servei de Publicacions, 2024. https://dialnet.unirioja.es/servlet/libro?codigo=978399.

Texto completo

Este volumen colectivo ofrece siete contribuciones de siete proyectos distintos, con sus respectivas experiencias en la edición filológica y digital de textos áureos. Las ediciones abarcan materias dispares, como los libros de caballerías, el soneto, la obra y recepción de Góngora, las comedias de Lope de Vega o la obra poética de Garcilaso de la Vega, con el abordaje desde cada proyecto de objetivos parecidos o más alejados: la creación de bibliotecas digitales, ediciones de autor concebidas como archivos digitales, técnicas variadas para el procesamiento y anotación textual, el establecimiento y la fijación del texto.

El silencio de Juan Rulfo

«El silencio de Rulfo creo que obedece a algo tan cotidiano, que explicarlo es perder el tiempo. Hay varias versiones. Una que explicaba Monterroso es que Rulfo tenía a su tío fulanito, que le contaba historias, y cuando le preguntaron por qué ya no escribía, él contestó porque se me murió el tío fulanito. Y yo me lo creo, además. Otra explicación es simple y sencilla, y es porque ya está, todo tiene fecha de caducidad. Por ejemplo, a mí me inquieta mucho más el silencio rimbaudiano que el silencio rulfiano. Rulfo deja de escribir porque él ya había escrito todo lo que quería escribir y, como se ve incapaz de escribir algo mejor, simplemente para. Rimbaud probablemente hubiera podido escribir algo mucho mejor, que ya es decir palabras muy altas, pero ése es un silencio que a los occidentales nos plantea preguntas. El silencio de Rulfo no plantea preguntas, es hasta un silencio entrañable, es cotidiano. Después del postre, ¿qué coño vas a comer?»

Roberto Bolaño

Cómo usan los investigadores la Ciencia Abierta

Permut, Stephanie and Saccardo, Silvia and Chapman, Gretchen, How Researchers Use Open Science (May 22, 2024). Available at SSRN: https://ssrn.com/abstract=4838469 or http://dx.doi.org/10.2139/ssrn.4838469

La Revolución de la Ciencia Abierta de las dos últimas décadas ha puesto en evidencia las prácticas de investigación cuestionables (QRPs) responsables de las bajas tasas de replicabilidad en la investigación médica, las ciencias del comportamiento y la economía. En respuesta, se desarrollaron plataformas de Ciencia Abierta que permiten a los investigadores comprometerse con planes de investigación preespecificados y hacer que los materiales de estudio, datos y códigos estén disponibles públicamente. Una encuesta (N=1,402) de científicos del comportamiento, economistas y científicos médicos explora cómo ha cambiado el compromiso con las QRPs después de estudios fundamentales que abordaron la crisis de replicabilidad y si dicho compromiso varía entre disciplinas. Los resultados muestran que, aunque la prevalencia de las QRPs ha disminuido en comparación con los resultados de (John et al., 2012), los investigadores informan que usan las plataformas de Ciencia Abierta de maneras que socavan su efectividad. Además, existen algunas diferencias disciplinarias en los tipos de comportamientos de Ciencia Abierta que practican los investigadores.

Los resultados indican que los investigadores están utilizando plataformas de Ciencia Abierta diseñadas para limitar los grados de libertad del investigador. Por ejemplo, la mayoría de los encuestados informaron usar (o predecir que otros usan) plataformas de Ciencia Abierta para al menos la mitad de los estudios presentados en un artículo típico. Además, los investigadores afirmaron que era importante que otros usaran plataformas de Ciencia Abierta durante el proceso de investigación. Esta creencia no varió entre las disciplinas representadas en la encuesta. Los resultados se alinean con trabajos previos de Logg y Dorison (2021) y Kidwell et al. (2016), que muestran que el uso de plataformas de Ciencia Abierta ha aumentado desde su inicio.

Sin embargo, al examinar más a fondo cómo los investigadores utilizan las plataformas de Ciencia Abierta, se observa que este aumento en el uso puede no siempre resultar en una mayor transparencia. Se documenta una prevalencia notablemente alta de comportamientos que podrían socavar la efectividad de las plataformas de Ciencia Abierta, como pre-registrar menos de la mitad de los estudios que aparecen en un artículo presentado y relegar los resultados inconsistentes con las hipótesis a los materiales suplementarios del artículo. También se encontró que algunas de estas prácticas son específicas de cada disciplina. Por ejemplo, realizar múltiples pilotos antes de llegar a un diseño de estudio pre-registrado era más común entre los científicos del comportamiento (especialmente los investigadores de marketing), y realizar la recopilación de datos para los grupos de tratamiento y control de un estudio por separado era más común entre los economistas. Estas diferencias pueden reflejar una separación más amplia de la cultura de la Ciencia Abierta en economía, ciencias del comportamiento y ciencias médicas, moldeada por las normas de investigación de estas disciplinas y sus respuestas a la crisis de replicación.

Se midieron varios otros comportamientos que podrían afectar la transparencia de la investigación incluso con el uso consistente de las plataformas de Ciencia Abierta. Estos incluían pre-registrar estudios de manera intencionalmente vaga y no revelar desviaciones de los protocolos pre-registrados. Una fracción considerable de investigadores informó participar en estas prácticas. Los científicos del comportamiento eran significativamente menos propensos a admitir estos comportamientos que los economistas y los científicos médicos.

NISO Publica el borrador de la revisión de la Práctica Recomendada para Versiones de Artículos de Revista

Journal Article Version (JAV) Recommended Practice. The National Information Standards Organization (NISO)

PDF

The National Information Standards Organization (NISO) anunció hoy que su borrador de la revisión de la Journal Article Version (JAV) Recommended Practice está abierto para comentarios públicos hasta el 7 de julio de 2024 en la página web del proyecto.

Publicado por primera vez en 2008, Journal Article Version (JAV) Recommended Practice se desarrolló para describir las diferentes versiones del contenido académico en línea. Desde entonces, las prácticas editoriales han seguido evolucionando y, con cambios como el rápido crecimiento de las publicaciones preprint, el concepto de una única versión oficial se ha vuelto menos relevante. Preguntas sobre las citas de diferentes versiones y el etiquetado de versiones, por ejemplo, han destacado la necesidad de estandarizar términos y recomendar cómo gestionar, rastrear e indexar múltiples versiones. El grupo de trabajo de NISO se formó para abordar estos desafíos y desarrollar una revisión de la Práctica Recomendada JAV, incluyendo un apéndice con múltiples ejemplos que ilustran una variedad de casos de uso para aquellos que buscan orientación.

«Nos complace presentar la Práctica Recomendada revisada para comentarios públicos,» dijo Clay Burgett, Copresidente del Grupo de Trabajo (Director Asistente de Tecnología de Aplicaciones, Publicaciones ACS). «Esperamos que sea útil para una variedad de partes interesadas en las comunicaciones académicas y esperamos incorporar comentarios de la comunidad en general.» Los Copresidentes del grupo de trabajo, Patrick Hargitt (Director Senior de Gestión de Productos, Atypon) y Michael Nason (Bibliotecario de Publicaciones y Becas Abiertas, Universidad de New Brunswick), destacaron los esfuerzos determinados de los miembros del grupo de trabajo para abordar de manera colaborativa los problemas y preguntas de un panorama editorial en constante evolución y la expectativa del grupo de someter su producto a revisión pública.

«NISO aprecia el servicio del Grupo de Trabajo de Revisión de JAV,» dijo Nettie Lagace, Directora Ejecutiva Asistente de NISO. «Muchas cosas han cambiado desde 2008, y estas revisiones esenciales ayudarán a asegurar que la Práctica Recomendada JAV se mantenga actualizada y satisfaga las necesidades de los creadores y consumidores de artículos académicos. Esperamos recibir más aportaciones y opiniones de la comunidad, que fortalecerán la Práctica Recomendada final.»

Directrices para académicos buscan reducir los riesgos éticos en el uso de IA generativa

Drew, Liam. «Guidelines for Academics Aim to Lessen Ethical Pitfalls in Generative-AI Use». Nature, 22 de mayo de 2024. https://doi.org/10.1038/d41586-024-01543-1.

Investigadores del Reino Unido están desarrollando un nuevo conjunto de herramientas para ayudar a los académicos a utilizar la inteligencia artificial generativa (IA generativa) de manera más ética.

Wendy Moncur, investigadora en ciberseguridad de la Universidad de Strathclyde en Glasgow, lidera este proyecto. La falta de orientación en el uso de herramientas de IA generativa ha llevado a Moncur y su equipo a considerar la necesidad de un conjunto de directrices que aborden las fortalezas y amenazas de estas tecnologías.

El proyecto se centra en los problemas que pueden surgir cuando se utilizan herramientas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, para analizar y procesar información personal de voluntarios en estudios. Moncur y su equipo están utilizando herramientas de IA generativa para crear materiales educativos basados en las historias de los participantes, pero se preocupan por el riesgo de que la información anonimizada pueda ser reidentificada y distorsionada por la IA.

Las inquietudes de Moncur la llevaron a colaborar con científicos informáticos y un académico en derecho para desarrollar soluciones. Financiado por el Centro Nacional de Investigación del Reino Unido sobre Privacidad, Reducción de Daños e Influencia Adversarial en Línea, el proyecto de diez meses busca crear directrices para investigadores y comités de ética universitarios, con fecha de finalización en agosto.

El proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad, cumplir con los requisitos de gestión de datos en la investigación del Reino Unido y mitigar los riesgos legales para las instituciones que utilizan IA generativa para procesar datos de participantes.

El equipo está realizando una revisión de la literatura y planea entrevistar a académicos en comités de ética para desarrollar una herramienta que analice fortalezas, debilidades, oportunidades y amenazas, y que esté disponible en línea de forma gratuita.

Robert Davison, científico de sistemas de información en la Universidad de la Ciudad de Hong Kong, apoya estos esfuerzos y advierte contra la normalización del uso de IA generativa sin la debida atención ética. Moncur y sus colegas apuntan a los comités de ética universitarios como el primer paso para establecer normas éticas robustas en el uso de esta tecnología.

El valor de la cultura: sobre la relación entre economía y artes

Klamer, Arjo, ed. The Value of Culture: On the Relationship between Economics and Arts. Accessed May 23, 2024.

Texto completo

El libro «The Value of Culture: On the Relationship between Economics and Arts», editado por Arjo Klamer, explora la intersección entre la economía y las artes. La cultura se manifiesta en todos los aspectos de la vida humana, incluyendo las actividades cotidianas. Tanto la cultura como el arte tienen su propio valor, aunque los valores económicos también imponen restricciones. Los patrocinios y subsidios artísticos sugieren un valor que va más allá del precio de mercado. ¿Cuál es entonces el verdadero valor de la cultura? A diferencia del enfoque habitual en problemas formales, que ha «des-culturizado» y «des-moralizado» la práctica económica, este libro reúne a economistas, filósofos, historiadores, científicos políticos y artistas para desentrañar el valor de la cultura. Está dirigido no solo a economistas y científicos sociales, sino también a cualquier persona involucrada en el mundo de las artes y la cultura.

La experiencia sensible de las bibliotecas

Evans, Christophe, ed. L’expérience sensible des bibliothèques : Six textes sur les publics des grands établissements. Éditions de la Bibliothèque publique d’information, 2020. https://directory.doabooks.org/handle/20.500.12854/84086.

Aunque diferentes, estas aproximaciones científicas y profesionales están articuladas sobre un mismo fundamento de valores y, sobre todo, sobre un mismo tipo de terreno que constituye un dispositivo específico: el de los grandes establecimientos (la Biblioteca pública de información del Centro Pompidou, la Biblioteca Nacional de Francia y la Biblioteca Vasconcelos de México). Evidentemente, nada impide a los lectores y lectoras asociar algunas de las cuestiones aquí descritas y analizadas en detalle con otras categorías de bibliotecas, especialmente con establecimientos de menor tamaño. La noción de apego a la institución, el reconocimiento de su dimensión hospitalaria y protectora, el «modelado» de los servicios por los usuarios o la manera tanto singular como colectiva en la que son apropiados, son de hecho fenómenos que se pueden observar más allá de los grandes establecimientos, fuera de las bibliotecas y hasta del ámbito cultural. Experimentar la experiencia de los públicos es, para retomar las palabras de Alain-Marie Bassy, pasar del espacio instituido por los profesionales al espacio restituido por los usuarios.

Impacto de la adicción a las pantallas en el Aprendizaje de los estudiantes

Langreo, Lauraine. «Students Are Addicted to Screens. What It Means for Learning.» Education Week, December 16, 2022. https://www.edweek.org/technology/students-are-addicted-to-screens-what-it-means-for-learning/2022/12.

La preocupación por el tiempo que los niños pasan frente a las pantallas digitales no es nueva. Sin embargo, con el aumento del trabajo escolar en línea, aumentan las preocupaciones sobre el impacto en el bienestar de los estudiantes.

El uso promedio de pantallas para niños de 8 a 18 años aumentó drásticamente un 17 por ciento entre 2019 y 2021, según una encuesta publicada a principios de este año por Common Sense Media.

La Academia Americana de Pediatría (AAP) recomienda que los niños de 2 a 5 años no pasen más de una hora al día mirando cualquier tipo de pantalla digital. Sin embargo, la AAP no especifica límites de tiempo para el uso escolar o recreativo para niños en edad escolar.

Impacto en el Desarrollo y las Habilidades Sociales

El impacto que el aumento del tiempo de pantalla probablemente tendrá en el desarrollo y las habilidades sociales de los estudiantes de K-12 aún está por verse. Los educadores deben sopesar los beneficios potenciales del uso ampliado de dispositivos digitales contra los posibles efectos negativos del aumento del tiempo de pantalla.

¿Cuánto tiempo de pantalla es demasiado? Dos expertos hablaron con Education Week sobre cuán preocupados deberían estar los educadores por todo el tiempo que los estudiantes pasan mirando pantallas, ya sea de Chromebook, iPad o celulares, especialmente si también pasan horas viendo televisión o jugando videojuegos.

Un meta-análisis publicado en la revista JAMA Pediatrics encontró que más tiempo general en pantallas cada día, independientemente de su calidad, está vinculado a un menor desarrollo del lenguaje.

Otras investigaciones también han planteado preguntas sobre el efecto que todo este uso digital podría tener en las habilidades de lectura de los estudiantes.

El Vínculo del Tiempo de Pantalla con el Mal Comportamiento y Bajos Puntajes en Pruebas Los maestros dicen que ven los efectos de la mayor exposición digital en el aula. Una mayoría de educadores dijo que los desafíos de aprendizaje de los estudiantes aumentaron junto con su mayor tiempo de pantalla y que el comportamiento de los estudiantes empeoró con más tiempo de pantalla, según una encuesta del Centro de Investigación de EdWeek.

Aquí está lo que algunos directores dijeron sobre cómo la proliferación de dispositivos digitales está afectando a los estudiantes, maestros y la vida escolar en general.

Cómo Gestionar el Tiempo de Pantalla de los Estudiantes En esta guía descargable, los maestros y expertos en aprendizaje remoto proporcionan nueve formas fáciles de encontrar un equilibrio saludable entre el tiempo en pantalla y fuera de pantalla para los estudiantes.

El Papel de la Alfabetización Mediática Dado que los estudiantes pasan más tiempo en línea, también están en contacto con más desinformación y publicidad, que han sido potenciadas por los grandes datos y algoritmos. Como resultado, hay un creciente impulso para enseñar habilidades de alfabetización mediática en las escuelas para ayudar a los estudiantes a navegar estos desafíos. Nueva Jersey podría ser el primer estado en exigir a las escuelas públicas que enseñen habilidades de alfabetización mediática.

Otros defensores de la alfabetización mediática también están alentando a padres y maestros a comenzar temprano a enseñar a los niños cómo ser más responsables en línea. Esperar hasta más tarde en la escuela primaria, o incluso en la secundaria, pone a los niños en desventaja, dicen los educadores.