Un distrito escolar de Iowa utilizó inteligencia artificial para determinar qué libros prohibir en las bibliotecas escolares

Sarah Kuta. «Why This School District Used A.I. to Help Determine Which Books to Ban». Smithsonian Magazine. Accedido 16 de abril de 2024. https://www.smithsonianmag.com/smart-news/why-this-school-district-used-ai-to-help-remove-library-books-180982762/.


El distrito escolar optó por emplear ChatGPT, un chatbot impulsado por inteligencia artificial, para discernir qué libros eliminar de sus bibliotecas. El procedimiento implicó inicialmente la creación de una lista de libros frecuentemente cuestionados, seguido por la consulta a ChatGPT sobre la presencia de descripciones o representaciones de actividades sexuales en dichas obras.

El Distrito Escolar de la Comunidad de Mason City de Iowa utilizó inteligencia artificial para determinar qué libros prohibir en las bibliotecas escolares, en respuesta a nuevas leyes estatales que prohíben libros que no son «apropiados para la edad».

La legislación estatal requiere que las escuelas ofrezcan libros «apropiados para la edad» que no incluyan «descripciones o representaciones visuales de un acto sexual». Ante estas restricciones, los educadores se encontraron con dificultades para cumplir con la normativa, ya que no recibieron orientación clara del estado y el Departamento de Educación de Iowa no tiene planes de ofrecer claridad adicional.

El distrito optó por utilizar ChatGPT, un chatbot alimentado por inteligencia artificial, para determinar qué libros eliminar. Hasta el momento, el distrito ha retirado 19 libros con la ayuda de la IA, incluyendo títulos como «El cuento de la criada» de Margaret Atwood, «Amada» de Toni Morrison y «Viernes de fútbol» de Buzz Bissinger.

El proceso implicó compilar una lista de libros comúnmente cuestionados y luego preguntar a ChatGPT si contenían descripciones o representaciones de actos sexuales. Sin embargo, se informa que los resultados de la IA no fueron consistentes cuando Popular Science repitió el proceso, lo que sugiere que el chatbot podría no ser la herramienta más precisa para el trabajo.

A pesar de las limitaciones de la IA, los líderes del distrito argumentan que era la mejor manera de cumplir con la ley dadas las limitaciones de tiempo y recursos disponibles. Aunque la determinación de la «apropiación para la edad» seguirá siendo responsabilidad de los educadores humanos.

El distrito también destacó que, en sus registros, no han encontrado desafíos formales a libros por parte de padres en los últimos 20 años, lo que sugiere confianza en la selección de materiales proporcionados por la escuela.

Finalmente, se señala que otros distritos escolares de Iowa están retirando más libros que el Distrito de Mason City, posiblemente debido a interpretaciones más amplias de la legislación. Sin embargo, el distrito se enfoca únicamente en cumplir con la regulación específica relacionada con contenido sexual, dejando otros libros fuera del alcance de la prohibición.

Las tendencias tecnológicas en bibliotecas para 2024: Impacto de la Inteligencia Artificial

Tanzi, N. «Library Tech Trends for 2024.» Publicado el 28 de diciembre de 2023. The Digital Librarian. Disponible en: https://the-digital-librarian.com/2023/12/28/library-tech-trends-for-2024/.

Tendencias tecnológicas en 2024 las bibliotecas enfrentarán desafíos financieros al invertir en colecciones digitales y streaming, mientras abordan el uso de inteligencia artificial en la censura y en el lugar de trabajo. También destaca la importancia del entrenamiento del personal y la evaluación de herramientas AI específicas para bibliotecas.

Las tendencias tecnológicas en bibliotecas para 2024 están profundamente influenciadas por la inteligencia artificial (IA) y nuestra reacción ante ella.

Perspectivas para las Colecciones Digitales de Bibliotecas

Restricciones Financieras: Las bibliotecas continuarán invirtiendo considerablemente en sus colecciones de libros electrónicos, audiolibros, películas/música en streaming, revistas electrónicas y otros contenidos digitales en 2024. Sin embargo, los aumentos en los costos de los libros electrónicos, la postura cada vez más hostil de los principales editores hacia el préstamo bibliotecario y la incertidumbre legislativa podrían llevar a soluciones insatisfactorias, como limitar el uso de los usuarios, enfocarse en títulos populares o emplear modelos de préstamo más rentables.

Oportunidades de Streaming: Se observa un aumento en la inversión de las bibliotecas en servicios de streaming de video, como Hoopla y Kanopy. Aunque estas opciones bibliotecarias a menudo luchan por igualar la cantidad y calidad de títulos ofrecidos por plataformas comerciales, recientes aumentos de precios y la introducción de anuncios podrían renovar el interés en las opciones gratuitas y sin publicidad.

Censura impulsada por IA: Existe el potencial de que la IA se utilice como herramienta de censura. Algunas organizaciones, como el Distrito Escolar Comunitario de Mason City en Iowa, ya están utilizando ChatGPT para determinar qué libros entran en conflicto con una nueva ley estatal y deben ser retirados.

IA y el Lugar de Trabajo de la Biblioteca

Política y Procedimiento de IA: Las bibliotecas crearán sus propias pautas y límites organizativos para definir el uso apropiado de la IA, guiadas por la ética profesional, mientras esperan un marco legal para la IA. Es importante llenar el vacío informativo para el personal, lo que a su vez ayudará a proteger a los usuarios.

Entorno de Trabajo Infundido con IA: Se espera una integración creciente de la IA en plataformas de colaboración en la nube utilizadas en el espacio de trabajo de la biblioteca, como Office 365, Google Workspace y Canva para Equipos.

Capacitación del Personal: Es fundamental invertir en la capacitación del personal en el uso de herramientas de búsqueda conversacional, generadores de imágenes a partir de texto y modelos de lenguaje de gran tamaño.

Evaluación de Herramientas de IA Específicas para Bibliotecas: Se anticipa que los vendedores de bibliotecas, así como nuevas empresas, ofrecerán herramientas potenciadas por IA, como bases de datos infundidas con IA y chatbots de bibliotecas. Tener políticas, procedimientos y personal capacitado permitirá evaluar estas herramientas con confianza.

Tendencias en Programación Bibliotecaria

IA y Programación Virtual: La IA tiene un gran potencial para romper barreras lingüísticas y mejorar la accesibilidad. La mejora en la subtitulación de programación en vivo y grabada, así como el desarrollo de un traductor universal de video por parte de Google, son ejemplos de cómo la IA puede mejorar las ofertas virtuales de la biblioteca.

Programas de Desmitificación de IA: A medida que las bibliotecas capacitan a su personal en IA, ese conocimiento se trasladará hacia afuera, donde hay un fuerte interés de los usuarios. Se pueden ofrecer primers sobre IA en general, ética de IA, privacidad y demostraciones prácticas de generadores de imágenes a partir de texto y chatbots.

Realidad Aumentada y Virtual en la Era de la IA: La adopción de la RA y RV en las bibliotecas ha avanzado de manera intermitente. Se espera que la IA infunda nueva vida en estas tecnologías al combinar generadores de imágenes a partir de texto, procesamiento de lenguaje natural de asistentes virtuales y tecnología portátil.

Prácticas editoriales depredadoras y cuestionables: cómo reconocerlas y evitarlas

Braak, Pascal, Dirk van Gorp, Chantal Hukkelhoven, y Tessa de Roo. «Predatory and Questionable Publishing Practices: How to Recognise and Avoid Them», 20 de marzo de 2024. https://doi.org/10.5281/zenodo.10688081

PDF

Esta guía, escrita por especialistas en acceso abierto en universidades de los Países Bajos, brinda información y consejos prácticos para los autores sobre cómo evitar revistas cuestionables y depredadoras.

El papel de los editores es crucial en la producción y difusión de la investigación académica. Facilitan la revisión por pares, brindan apoyo editorial, manejan la producción y distribución, y garantizan la disponibilidad de las publicaciones científicas.

Publicar con un editor de buena reputación aumenta la visibilidad de los investigadores y su trabajo, y puede ayudar a impulsar el impacto de los resultados de la investigación. Hay miles de editores (de acceso abierto) confiables en todo el mundo y en cada disciplina académica que ofrecen servicios de publicación de alta calidad guiados por las mejores prácticas y estándares internacionales.

Es beneficioso para los académicos publicar en una revista, libro o serie de conferencias autoritaria y de buena calidad producida por un editor de buena reputación en su campo de investigación. Sin embargo, hay una creciente preocupación sobre el aumento del número de editores y revistas que llevan a cabo prácticas de publicación presuntamente cuestionables, como la revisión por pares de baja calidad y/o la adquisición agresiva, y los editores depredadores fraudulentos.

Los editores depredadores pueden perjudicar a los académicos y a sus instituciones financieramente y en cuanto a la reputación al cobrar una tarifa por ninguna revisión por pares o por ningún servicio de publicación en absoluto. Los editores depredadores y las prácticas de publicación cuestionables tienen un efecto negativo en la credibilidad del registro académico publicado y en la comunidad académica en su conjunto.

¿Cómo se pueden reconocer y evitar estas prácticas y editores? ¿Qué sucede si se ha enviado un artículo a, o se encuentra en un proceso de publicación con, un editor y algo sale mal o parece inexacto?

Algunas cosas a considerar al decidir si comenzar a construir con «IA» en bibliotecas y archivos.

«Some things to consider when deciding whether to start building with “AI” in libraries and archives.» Inkdroid. Accedido 16 de abril de 2024. https://inkdroid.org/2024/03/12/ai/.

Se destacan cinco áreas de preocupación: sesgo, propiedad intelectual, verificabilidad, impacto en el trabajo humano y sostenibilidad. Señala que los modelos de aprendizaje automático (ML) se construyen con datos, lo que puede perpetuar sesgos y problemas de privacidad. Además, plantea inquietudes sobre la propiedad intelectual y el impacto ambiental de la IA, especialmente en términos de consumo energético y seguridad cibernética.

En un panel de trabajo sobre inteligencia artificial (IA), el autor reflexiona sobre sus experiencias y preocupaciones en relación con el uso de IA en bibliotecas y archivos. Aunque ha trabajado con modelos de IA y herramientas como Hugging Face y Google, estas experiencias solo han reforzado sus preocupaciones sobre la aplicación de estas tecnologías en el sector del patrimonio cultural.

Para abordar estas preocupaciones, el autor sugiere tácticas como evaluar la transparencia en el entrenamiento de modelos de IA, considerar qué contenido compartir con herramientas de IA generativas y priorizar la participación de los trabajadores afectados en la implementación de IA en el trabajo. También insta a las bibliotecas y archivos a buscar formas de reducir el consumo energético y a mejorar la seguridad y la privacidad en el uso de IA.

Sesgo

Los modelos de ML se construyen utilizando datos. Los avances recientes en Aprendizaje Profundo han sido en gran medida el resultado de aplicar algoritmos de décadas pasadas a cantidades cada vez mayores de datos recopilados de la web. Los datos utilizados para entrenar estos modelos son significativos porque los modelos necesariamente reflejan los datos que se utilizaron para crearlos. Desafortunadamente, las corporaciones son cada vez más reservadas sobre los datos que se han utilizado para entrenar estos modelos

Algunos conjuntos de datos comúnmente utilizados como CommonCrawl representan colecciones significativamente grandes de datos web, pero la web es un lugar grande, y se han tomado decisiones sobre qué sitios web se recopilaron. CommonCrawl no es representativo de la web en su totalidad. Además, los LLM codifican sesgos que están presentes en la sociedad actual. Usar y depender ciegamente de LLMs corre el riesgo de afianzar aún más estos sesgos y participar en el racismo sistémico.

A medida que los LLMs se utilizan para generar cada vez más contenido web, también existe el riesgo de que estos datos se recopilen nuevamente y se utilicen para entrenar modelos futuros. Este proceso se ha llamado Colapso del Modelo y se ha demostrado que conduce a un proceso de olvido. OpenAI lanzó una herramienta para identificar contenido generado con un LLM y tuvo que cerrarla 6 meses después porque no funcionaba, y no está claro siquiera si se puede hacer con fiabilidad. ¿Qué significaría entrenar solo estos modelos con datos anteriores a 2023.

Propiedad Intelectual

Dado que los LLMs se han construido con datos recopilados de la web, esto incluye muchos tipos de contenido, desde conjuntos de datos con licencia abierta diseñados para ser compartidos, hasta libros con derechos de autor como los encontrados en los conjuntos de datos de libros, que se rumorea que se han ensamblado a partir de bibliotecas en la sombra como Library Genesis y SciHub. En el último año, hemos visto varios juicios, incluido uno del Gremio de Autores que desafía el uso de materiales con derechos de autor por parte de OpenAI en la construcción de sus modelos GPT.

En cierto modo, este tipo de demandas no son nuevas en la web. Napster fue demandado por la Recording Industry Association of American; Google Books fue demandado por la Authors Guild a mediados de la década de 2000; Internet Archive ha sido demandado recientemente por su plataforma Open Library. Pero lo que hace que las LLM sean un poco diferentes es la forma en que transforman el contenido que han recopilado, en lugar de ponerlo a disposición del público textualmente. La Oficina de Derechos de Autor de EE.UU. publicó el año pasado un aviso de investigación para recabar información sobre el uso de materiales protegidos por derechos de autor en herramientas de IA.

New York Times también ha interpuesto una demanda porque OpenAI utilizó millones de sus noticias publicadas abiertamente para entrenar sus modelos sin licencia. OpenAI está intentando negociar contratos de licencia a posteriori con muchas grandes empresas.

El funcionamiento de los LLM representa un gran cambio en la evolución del ecosistema web. Los motores de búsqueda como Google rastrean las páginas web para indexarlas y ofrecen a los usuarios resultados de búsqueda que enlazan con el sitio web original. Del mismo modo, las plataformas de redes sociales han proporcionado un lugar para debatir contenidos web compartiendo enlaces a los mismos, lo que lleva a otros usuarios al editor web.

En el paradigma LLM, los usuarios nunca abandonan la interfaz ChatGPT y el editor original queda completamente al margen del círculo virtuoso. Los LLM están recopilando los bienes comunes de la web y amenazan con ahogar las mismas fuentes de contenido que utilizaban. Los editores perderán la posibilidad de saber cómo se utilizan sus contenidos.

Verificabilidad

Una de las razones por las que ChatGPT no enlaza a sitios web como citas es que no sabe a qué enlazar. En los LLM, la red neuronal no registra información sobre la procedencia de un dato concreto. A medida que los LLM se integran en herramientas de búsqueda más tradicionales, el reto consiste en conseguir que el texto generado sea verificable, en el sentido de que los resultados incluyan citas en línea, que deberían respaldar la afirmación en la que se utilizan.

La verificabilidad es importante para entender cuándo el contenido generado no se ajusta al mundo, lo que se denomina una «alucinación». También es importante para explicar por qué el modelo generó la respuesta que generó, cuando se intenta depurar por qué alguna interacción salió mal. La explicabilidad es un área de investigación activa en la comunidad de ML/AI, y no está claro que, dado el tamaño del modelo y el tamaño de los datos de entrenamiento, se pueda hacer que los modelos sean explicables, porque a un nivel fundamental no entendemos por qué funcionan. Se ha demostrado que las aplicaciones de IA generativa que incluyen citas no son fiables y proporcionan una falsa sensación de seguridad.

La falta de explicabilidad de los LLM plantea verdaderos problemas a las bibliotecas y archivos, cuya razón de ser es proporcionar a los usuarios documentos, ya sean libros, mapas, fotografías, grabaciones sonoras, películas, cartas, etc. Describimos estos documentos y los conservamos para facilitar el acceso a ellos, de modo que los usuarios puedan deducir su significado. Si utilizamos un LLM para generar una respuesta a una consulta o petición, y no podemos respaldar la respuesta con citas de estos documentos, esto supone un problema. Por ello, los profesionales de bibliotecas y archivos tienen un papel que desempeñar en la evaluación de cómo las herramientas de IA citan documentos como prueba.

Empleo

Parte de la propuesta de valor detrás de herramientas recientes de IA como Copilot de GitHub, ChatGPT o DALL-E es que democratizan el acceso a alguna habilidad, ya sea escribir código, ser autor de noticias o crear ilustraciones. Pero, ¿es democrático socavar sistemáticamente a los trabajadores creativos, robándoles su contenido sin haberles pedido utilizarlo en primer lugar?

Cuando se toma la decisión de utilizar estas herramientas, se está sustituyendo potencialmente la habilidad de una persona por un servicio. Además, estás atando tu propia organización a los caprichos de una corporación a la que nada le gustaría más que te desprendieras de la experiencia de tu organización y te hicieras completamente dependiente de su servicio. Es una trampa.

Si el pasado sirve de guía, también podemos esperar que los empleos creativos cualificados sean sustituidos por trabajos peor pagados que impliquen la limpieza mundana de los desaguisados que ha provocado la automatización. O en palabras del guionista C. Robert Cargill : «El miedo inmediato a la IA no es que los guionistas veamos nuestro trabajo sustituido por contenidos generados artificialmente. Es que nos paguen mal por reescribir esa basura en algo que podríamos haber hecho mejor desde el principio. Esto es a lo que se opone el WGA y lo que quieren los estudios.»

Los LLM como ChatGPT se construyen utilizando una técnica llamada Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF). Lo importante aquí es la retroalimentación humana. ¿Quién proporciona esta información? ¿Son usuarios del sistema? ¿Qué tipos de sesgos sistemáticos introduce esta formación? ¿Se trata de «trabajadores fantasma» mal pagados?

Sostenibilidad

Probablemente, el aspecto más preocupante de la última oleada de tecnologías de IA es su impacto medioambiental. Los recientes avances en LLM no se han conseguido gracias a una mejor comprensión del funcionamiento de las redes neuronales, sino utilizando algoritmos ya existentes con cantidades ingentes de datos y recursos informáticos. Este entrenamiento puede llevar meses y debe repetirse para mantener los modelos actualizados.

Al parecer, el entrenamiento inicial de GPT-4 requirió 100 millones de dólares. El entrenamiento se basa en unidades de procesamiento gráfico (GPU), que son más rápidas que las CPU para los tipos de cálculo que exigen los LLM, pero requieren hasta cuatro veces más energía para funcionar. Los centros de datos necesitan agua para refrigerarse, a veces en entornos donde escasea. Esto no es sólo un problema para el entrenamiento de los modelos, es un problema mayor para su consulta, que se ha estimado entre 60 y 100 veces más en términos de utilización de energía. Otro problema que acecha aquí es la falta de datos de los centros de datos que proporcionen transparencia sobre lo que está ocurriendo.

¿Es esta realmente la dirección correcta en la que debemos dirigirnos cuando intentamos reducir los costes energéticos a nivel mundial para limitar el calentamiento global?

La industria tecnológica está incentivada para intentar que las infraestructuras de IA sean más eficientes. Pero es probable que se mantenga la paradoja de Jevons: el progreso tecnológico aumenta la eficiencia con la que se utiliza un recurso, pero la caída del coste de uso induce un aumento de la demanda suficiente como para que se incremente el uso del recurso.

Seguridad y privacidad

La IA generativa es una tecnología de doble uso. A los expertos les preocupa cada vez más que se utilice para crear desinformación, así como interacciones falsas en línea. Hemos tenido casos judiciales en los que los escritos presentados por abogados contenían citas de casos que no existían. Las robo-llamadas de voz generadas por IA han sido declaradas ilegales por el uso de herramientas de IA para suplantar la voz de Biden. Los malos actores pueden manipular imágenes y vídeos para dirigirse a grupos específicos porque las herramientas son más potentes y accesibles. Hay formas posibles de mitigar esto utilizando fuentes de información fiables y formas demostrables de compartir la procedencia de los medios.

Dado que los mecanismos de generación de contenidos de los LLM son inexplicables, son susceptibles de sufrir ataques como el que Simon Willison denomina «prompt injection«. En este caso, se crea un mensaje para subvertir el diseño original del sistema y generar la respuesta deseada. Esto tiene serias ramificaciones para el uso de la tecnología LLM como pegamento entre otros sistemas automatizados. De hecho, esto fue demostrado recientemente por investigadores que utilizaron las API de OpenAI y Google para ejecutar código arbitrario y filtrar información personal.

IA generativa y derechos humanos

Walsh, D. «Where Generative AI Meets Human Rights», 3 de abril de 2024. https://hai.stanford.edu/news/where-generative-ai-meets-human-rights.


En el debate sobre el cruce entre la inteligencia artificial generativa y los derechos humanos, expertos de diversas áreas han abordado las implicaciones únicas de esta tecnología y cómo canalizar su potencial para beneficiar a la humanidad. Se destacan preocupaciones sobre la opacidad y el potencial uso indebido de la IA generativa, así como la necesidad de una regulación inclusiva y transparente.

Desde el lanzamiento de ChatGPT por parte de OpenAI en noviembre de 2022, la inteligencia artificial generativa ha adquirido un papel central en la esfera pública y privada en menos de 18 meses. Esta tecnología ha sido objeto de discusión entre responsables políticos, economistas, científicos sociales, padres, maestros e inversores, y se ha destacado en eventos como «Human Rights Dimensions of Generative AI,», organizado por el Centro de Derechos Humanos y Justicia Internacional.

El Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Volker Türk, ha señalado los impactos sin precedentes de la inteligencia artificial avanzada, incluida la generativa, en los derechos humanos. Se destaca la necesidad de colocar a las personas en el centro de la tecnología para garantizar que los beneficios de la inteligencia artificial lleguen a todos. La discusión contó con la participación de expertos como Eileen Donahoe del Departamento de Estado de EE. UU., Alex Walden de Google, Peggy Hicks de la Oficina de Derechos Humanos de la ONU, Nate Persily de la Facultad de Derecho de Stanford y Raffi Krikorian de Emerson Collective.

La inteligencia artificial plantea desafíos únicos, como ser una tecnología fundamental que afecta a todas las demás, siendo más opaca y menos predecible. A pesar de su potencial para democratizar el acceso, la disponibilidad de algoritmos de código abierto ha generado preocupaciones sobre su uso indebido, como en el caso de la proliferación de pornografía infantil generada por IA.

Los panelistas expresaron preocupaciones sobre la capacidad de la sociedad y los responsables políticos para mantenerse al día con el rápido avance de la tecnología, así como sobre la regulación insuficiente en áreas donde es más probable que ocurran violaciones de derechos humanos. También se destacó el riesgo de que la desinformación generada por IA socave la confianza en la información verídica.

La regulación efectiva de la inteligencia artificial generativa debe incorporar consideraciones de derechos humanos y fomentar la transparencia en estas herramientas. Además, se enfatiza la importancia de la participación inclusiva en la elaboración de políticas y la necesidad de abordar los desafíos con matices en lugar de una visión polarizada.

A pesar de los desafíos planteados, los expertos mantienen una actitud optimista pero cautelosa sobre el futuro de la inteligencia artificial generativa y su impacto en los derechos humanos. Sin embargo, subrayan la necesidad de abordar los problemas actuales de la sociedad, como las divisiones sociales, para garantizar un desarrollo tecnológico que beneficie a todos.

Oscar es una innovadora aplicación de cuentos para niños que utiliza inteligencia artificial para generar historias personalizadas y cautivadoras.

Oscar AI Kids Stories

https://oscarstories.com

Apple

Android

Oscar es una innovadora aplicación de cuentos para niños, desarrollada en Viena, que utiliza inteligencia artificial para generar historias personalizadas y cautivadoras. Esta aplicación permite que los niños sean los protagonistas de sus propias aventuras, llevándolos a lugares como el espacio profundo, un castillo medieval o el fondo del mar, convirtiendo así sus sueños en historias personalizadas.


Los fundadores Dima Rubanov y Matthias Neumayer, dos emprendedores de Viena, crearon Oscar, una aplicación de cuentos inspirada en el ahijado de uno de ellos. La constante demanda de historias protagonizadas por Oscar y sus amigos impulsó la creación de esta aplicación, que ofrece una fuente inagotable de cuentos antes de dormir para padres e hijos.

Lo que distingue a Oscar es su capacidad para generar historias originales gracias a un algoritmo basado en ChatGPT, asegurando así una experiencia única en cada lectura y eliminando el contenido repetitivo. Además, las historias pueden adaptarse a la edad, intereses y nivel de lectura de cada niño, ofreciendo una experiencia más personalizada. Cada historia está acompañada de ilustraciones vibrantes que enriquecen la experiencia de lectura.

Oscar también se preocupa por la seguridad y la educación de los niños, por lo que todas las historias son cuidadosamente seleccionadas para incluir valiosas lecciones de vida, como honestidad, bondad, valentía y empatía.

La aplicación ofrece una versión de prueba gratuita y, si el usuario queda satisfecho, puede adquirir nuevas historias individualmente. Además, Oscar ofrece la posibilidad de convertir estas historias personalizadas en audiolibros, con voces calmantes que ayudan a conciliar el sueño.

Aunque la aplicación ofrece muchas ventajas, una característica que se echa en falta es la posibilidad de descargar las historias y convertirlas en libros físicos, lo que permitiría a familiares y amigos regalarlas como obsequios. En resumen, AI Kids Stories con su aplicación Oscar ofrece una experiencia única y enriquecedora para los niños, convirtiendo el momento de dormir en el momento más especial del día.

Bibliotecas públicas y habilidades digitales en España en 2022 (2024)

«Public Libraries and Skills: 2022 Factsheets | Public Libraries 2030». Accedido 16 de abril de 2024. https://publiclibraries2030.eu/2024/02/public-libraries-and-skills-2022-factsheets/.

PL2030 ha recopilado hojas informativas sobre estadísticas clave de las bibliotecas públicas junto con los datos del DESI (Digital Economy and Society Index) de los Estados miembros de la UE, en colaboración con nuestros socios nacionales, y el Mapa Mundial de Bibliotecas de la Federación Internacional de Asociaciones de Bibliotecarios y Bibliotecas (IFLA). Las fichas muestran datos sobre el número de bibliotecas, usuarios, préstamos de libros y personal bibliotecario. Además, las fichas destacan estadísticas nacionales sobre el porcentaje de personas con conocimientos digitales básicos, usuarios habituales de Internet y mujeres especialistas en TIC, entre otros datos.

A medida que las bibliotecas asumen más responsabilidades relacionadas con los servicios y las tecnologías digitales en este periodo de rápida transformación digital, estas fichas por países constituyen un valioso recurso para poner de relieve las similitudes y diferencias en los contextos locales y nacionales de toda Europa. 2022 es un año especialmente interesante para recopilar datos, ya que es el primer año posterior a Covid-19 en el que las bibliotecas de toda Europa comenzaron a abrirse plenamente al público.

Descubre los datos sobre las bibliotecas públicas y las competencias digitales de Europa en 2022.

En España hay 4.563 bibliotecas públicas, es decir, una biblioteca pública por 10.395 habitantes. En 2022, se registraron 36,2 millones de préstamos de libros en las bibliotecas públicas españolas, de ellos 2,5 millones fueron de préstamos de libros electrónicos. En España, hay 10.498 empleados en el personal de bibliotecas públicas. Las bibliotecas fueron visitadas 55,3 millones de veces. Tienen 13,4 millones de usuarios. España ocupa el séptimo lugar en el Índice de Economía y Sociedad Digital (DESI) de la UE.

HABILIDADES EN ESPAÑA:

Información obtenida de: El Índice de Economía y Sociedad Digital (DESI) de la UE 2022; Eurostat; Unión Europea; Mapa de Bibliotecas del Mundo de la IFLA; y el Ministerio de Cultura de España.

  • España ocupa el séptimo lugar en el Índice de la Economía y Sociedad Digital de la Unión Europea (DESI).
  • El 93% de los individuos son usuarios habituales de Internet.
  • El 63% es la proporción de mujeres de 16 a 74 años con al menos habilidades digitales básicas.
  • El 19% de los especialistas en TIC son mujeres.
  • El 78% de los jóvenes (de 16 a 19 años) tienen habilidades digitales básicas o superiores.
  • El 65% posee al menos habilidades digitales básicas.
  • El 8% d entre 16-24 años participa en eventos de ciudadanía activa

Otros países

AustriaCroatiaCzech RepublicDenmarkEstoniaFinlandGermanyHungaryIrelandItalyLatviaLithuaniaLuxembourgThe NetherlandsPolandPortugalSlovakiaSloveniaSpainSweden

La historia de 8 empleados de Google que inventaron la IA moderna

Levy, Steven. «8 Google Employees Invented Modern AI. Here’s the Inside Story». Wired. Accedido 16 de abril de 2024. https://www.wired.com/story/eight-google-employees-invented-modern-ai-transformers-paper/.

8 empleados de Google inventaron la IA moderna. Esta es su historia. Se conocieron por casualidad, se engancharon a una idea y escribieron el artículo «Transformers», el avance tecnológico más importante de la historia reciente.

El artículo narra la historia detrás del famoso paper «Attention Is All You Need», escrito en 2017 por ocho investigadores de Google. Este paper introdujo la arquitectura de los «transformers», parte del nombre del acrónimo del modelo GPT, que revolucionó el campo de la inteligencia artificial al proporcionar una forma más efectiva de procesar grandes cantidades de texto. El artículo destaca cómo este equipo de investigadores, liderado por Jakob Uszkoreit, Ashish Vaswani y Noam Shazeer, desarrolló la idea de utilizar la autoatención como un mecanismo fundamental en lugar de las redes neuronales recurrentes tradicionales.

El proceso de desarrollo implicó la colaboración de varios investigadores de diferentes orígenes y nacionalidades, como Illia Polosukhin, Niki Parmar y Llion Jones, entre otros. A medida que experimentaban con la autoatención, descubrieron que esta técnica superaba las limitaciones de las redes neuronales recurrentes, especialmente en la traducción de textos largos.

Noam Shazeer jugó un papel crucial al unirse al equipo y mejorar la implementación de la autoatención, llevando la arquitectura de los transformers a un nuevo nivel. Con su contribución, el equipo logró resultados prometedores en la traducción de textos y presentó el paper en la conferencia Neural Information Processing Systems en diciembre de 2017.

Aunque el paper inicialmente recibió críticas mixtas, generó un gran interés en la comunidad científica y fue aclamado como un hito en el campo de la inteligencia artificial. La arquitectura de los transformers ha sido ampliamente adoptada en Google y otras empresas, y ha demostrado ser fundamental en el desarrollo de modelos de lenguaje y sistemas de traducción automática más avanzados.

A punto de cumplirse su séptimo aniversario, el artículo «Attention» ha alcanzado un estatus legendario. Los autores partieron de una tecnología floreciente y en mejora -una variedad de IA llamada redes neuronales- y la convirtieron en algo más: un sistema digital tan potente que su resultado puede parecer el producto de una inteligencia extraterrestre. Esta arquitectura, denominada transformadores, es la salsa no tan secreta que se esconde detrás de todos esos alucinantes productos de IA, como ChatGPT y generadores gráficos como Dall-E y Midjourney. Shazeer bromea ahora diciendo que si hubiera sabido lo famoso que se iba a hacer el artículo, «quizá se habría preocupado más por el orden de los autores». Los ocho firmantes son ahora microcelebridades. «Hay gente que me pide selfies, ¡porque estoy en un periódico!», dice Llion Jones, que es (al azar, por supuesto) el nombre número cinco.

Características deseables de los identificadores persistentes

Chodacki, John, y Todd Carpenter. «Desirable Characteristics of Persistent Identifiers». Upstream, 19 de marzo de 2024. https://upstream.force11.org/desirable-characteristics-for-persistent-identifiers/.

En un panorama digital en rápida evolución, los identificadores persistentes (PID) se erigen en componentes cruciales para el avance y la difusión de la investigación, apuntalando la eficiencia, la transparencia y la interconectividad de la comunicación académica. Su aplicación estratégica, guiada por principios y prácticas reconocidos internacionalmente, es esencial para fomentar un entorno de investigación abierto y colaborativo.

Los identificadores persistentes (PIDs) en la investigación académica han recibido una creciente atención, particularmente en el contexto de la ciencia abierta. Varios principios, como los Principios FAIR (Encontrable, Accesible, Interoperable y Reutilizable) y los Principios de Infraestructura Académica Abierta (POSI), destacan la importancia de los PIDs para mejorar la eficiencia y transparencia de la comunicación académica.

Open Science Toolkit, publicado en 2022 por la UNESCO como parte de la fase de aplicación de su Recommendation on Open Science, incluye una guía sobre Bolstering Open Science Infrastructure for All, que detalla lo que la UNESCO considera «factores [que] deben tener en cuenta quienes desarrollan, financian y/o utilizan infraestructuras de ciencia abierta». Entre ellos figuran:

● Transparencia de costes y beneficios;
● Interoperabilidad para potenciar la reutilización;
● Cocreación cooperativa;
● Atención y beneficios compartidos; y
● Armonización con la política de ciencia abierta y supervisión.

Es importante señalar que en el apartado «Infraestructura básica», la UNESCO escribe: «Debe prestarse la debida atención a los identificadores únicos persistentes de los objetos digitales», dejando claro que consideran los PID una parte crucial de la infraestructura más amplia de la ciencia abierta a la que se aplican las consideraciones anteriores.

Los Principios de la Infraestructura Académica Abierta (POSI), desarrollado originalmente en 2015 y actualizado más recientemente en 2023, «ofrece un conjunto de directrices por las que las organizaciones e iniciativas de infraestructura académica abierta que apoyan a la comunidad investigadora pueden ser dirigidas y sostenidas». Algunas de las consideraciones que POSI enumera en el apartado de gobernanza, en particular que la infraestructura abierta debe tener, son las más relevantes para nuestra orientación sobre los PID:

● Cobertura en toda la empresa académica, siendo inclusiva para una amplia gama de disciplinas académicas, geografías, instituciones y actores;
● Gobernada por las partes interesadas, ya que esto «genera confianza en que la organización tomará decisiones impulsadas por el consenso de la comunidad y un equilibrio de intereses»;
● Gobernanza transparente, ya que esto ayuda a construir y mantener la confianza en la comunidad; e
● Incentivos para cumplir la misión, en particular que «las organizaciones y los servicios revisen periódicamente el apoyo de la comunidad y la necesidad de sus actividades».

Scholarly Communication Infrastructure Guide,, publicada por el Grupo de Trabajo de Infraestructura Compartida de HELIOS en 2023, se basa en la visión de la UNESCO de una infraestructura científica abierta. Esta guía hace hincapié en la transparencia, la colaboración, las capacidades técnicas, la gobernanza, el cumplimiento de las normas de acceso público y la puntualidad. Aunque no presiona a favor de proveedores o soluciones concretos, guía a los responsables institucionales a través de las preguntas importantes que deben plantearse a la hora de decidir comprar, construir o asociarse en infraestructuras académicas. Estas mismas preguntas podrían adaptarse y plantearse a la hora de decidir si adoptar determinados PID o servicios relacionados. Por ejemplo:

● ¿Son transparentes y asequibles los precios a corto plazo y los costes a largo plazo?
● ¿Existen oportunidades de asociación con proveedores de código abierto o sin ánimo de lucro?
● ¿Se basa la infraestructura en formatos y protocolos estándar e interoperables?
● ¿Cuál es el plan de sostenibilidad de la organización u organizaciones rectoras que apoyan la infraestructura?
● ¿Pueden los usuarios proporcionar orientación sobre su dirección, usabilidad y desarrollo?
● ¿La infraestructura es propiedad y/o está gobernada por miembros de la comunidad académica?
● ¿Permitirá la infraestructura cumplir los requisitos políticos de los organismos de financiación?

Otra fuente de orientación sobre las características y principios deseables para los PID es el artículo fundacional de 2017 “Identifiers for the 21st Century,», que hace hincapié en varios criterios clave para la infraestructura de EPI:

● Construida para la conexión y la expansión
● Promover la interoperabilidad
● Llenar las lagunas específicas de la comunicación de la investigación
● Garantizar la disponibilidad abierta de los metadatos
● Establecer la fiabilidad de los identificadores persistentes
● Hacer hincapié en la propiedad y la gobernanza de la comunidad
● Fomentar la sostenibilidad de la organización

La implementación estratégica de PIDs, alineada con estos principios y prácticas, es esencial para fomentar un entorno de investigación abierto y colaborativo. Algunas características deseables de la infraestructura de PIDs incluyen la disponibilidad abierta de metadatos básicos, el uso de servicios de resolución establecidos, la documentación de políticas de identificación, servicios de monitoreo y reporte, facilidad de asignación y curación de metadatos, estructuras estandarizadas y extensibilidad, y gobernanza comunitaria. Estas características, combinadas con la adopción de principios globales de ciencia abierta y una colaboración entre la comunidad académica, financiadores y responsables de políticas, pueden garantizar que los PIDs contribuyan a un paisaje académico más inclusivo y transparente.

Análisis del comportamiento de los prestatarios de libros en bibliotecas de Canadá en 2023

Canadian book borrowers in 2023
Aline Zara BookNet Canada, April 15, 2024

Ver informe

En el estudio sobre los consumidores de libros canadienses en 2023, se revela que los usuarios que optan por tomar prestados libros de las bibliotecas, ya sea en persona u online, han aumentado significativamente desde 2020. La mayoría de estos consumidores visita la biblioteca entre una y cuatro veces al mes, principalmente para recoger reservas, explorar nuevas lecturas y realizar estudios o trabajos.

En 2023, los prestatarios de libros de las bibliotecas canadienses visitaron la biblioteca en línea y en persona más que nunca. Desde 2020, el porcentaje de prestatarios de libros canadienses que visitaron la biblioteca en línea al menos una vez al mes ha aumentado un 72%, pasando del 50% en 2020 al 86% en 2023. El porcentaje de prestatarios de libros que visitaron la biblioteca en persona también aumentó un 24%, del 59% en 2020 al 73% en 2023, como se muestra en el siguiente gráfico.

En cuanto al formato de los libros, los usuarios prefieren mayoritariamente los libros impresos, seguidos de los libros electrónicos y los audiolibros. Además, la encuesta muestra que muchos lectores canadienses utilizan la biblioteca no solo para libros, sino también para DVDs, revistas e internet.

La mayoría de los usuarios de bibliotecas prestan libros para su propio disfrute, aunque una proporción significativa también presta para otros miembros de la familia. Además, los usuarios están familiarizados con varios premios literarios, tanto nacionales como internacionales, y su elección de libros se ve influenciada por una variedad de factores, incluyendo la navegación en línea y las recomendaciones en redes sociales.

Por último, la adquisición de libros entre los usuarios de bibliotecas se extiende más allá del préstamo, con una considerable cantidad comprando libros nuevos, de segunda mano o recibiendo libros como regalo o descargas gratuitas.