Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

¿Qué dice la ley sobre a quién pertenecen los derechos de autor de los contenidos generados por IA?

Farnush Ghadery. «ChatGPT: What the Law Says About Who Owns the Copyright of AI-Generated Content.» The Conversation, April 21, 2023. https://theconversation.com/chatgpt-what-the-law-says-about-who-owns-the-copyright-of-ai-generated-content-200597.


El chatbot de IA ChatGPT produce contenido que puede parecer creado por un humano. Existen muchos usos propuestos para esta tecnología, pero sus impresionantes capacidades plantean importantes preguntas sobre la propiedad del contenido.

La legislación del Reino Unido tiene una definición para las obras generadas por computadora. Según la Ley de Derechos de Autor, Diseños y Patentes de 1988, estas son “generadas por computadora en circunstancias tales que no hay un autor humano de la obra”. La ley sugiere que el contenido generado por una inteligencia artificial (IA) puede estar protegido por derechos de autor. Sin embargo, las fuentes originales de las respuestas generadas por chatbots de IA pueden ser difíciles de rastrear e incluir obras con derechos de autor.

La primera pregunta es si ChatGPT debería poder usar contenido original generado por terceros para generar sus respuestas. La segunda es si solo los humanos pueden ser acreditados como autores del contenido generado por IA, o si la IA misma puede ser considerada un autor, especialmente cuando ese output es creativo.

Tratemos primero la pregunta uno. La tecnología que sustenta a ChatGPT se conoce como un Modelo de Lenguaje Extenso (LLM, por sus siglas en inglés). Para mejorar en lo que hace, se expone a grandes conjuntos de datos, que incluyen un gran número de sitios web y libros.

Actualmente, el Reino Unido permite a los desarrolladores de IA llevar a cabo minería de texto y datos (TDM) solo para fines no comerciales. Los términos de uso de OpenAI asignan a los usuarios «todos sus derechos, títulos e intereses en el output».

Pero la empresa dice que es responsabilidad de los usuarios asegurarse de que la forma en que utilizan ese contenido no viole ninguna ley. Los términos y condiciones también están sujetos a cambios, por lo que no tienen la estabilidad y la fuerza de un derecho legal como el copyright.

La única solución será clarificar las leyes y políticas. De lo contrario, cada organización tendrá que emprender acciones legales individualmente, tratando de demostrar que son dueños de las obras utilizadas por una IA. Además, si los gobiernos no toman medidas, nos acercamos a una situación en la que todos los materiales con derechos de autor serán utilizados por otros sin el consentimiento del autor original.

Cuestión de propiedad Pasemos a la pregunta dos: quién puede reclamar derechos de autor sobre el contenido generado por IA. En ausencia de una reclamación por parte del propietario del contenido original utilizado para generar una respuesta, es posible que los derechos de autor del output de un chatbot puedan pertenecer a los usuarios individuales o a las empresas que desarrollaron la IA.

La ley de derechos de autor se basa en un principio general de que solo el contenido creado por seres humanos puede estar protegido. Los algoritmos que sustentan a ChatGPT fueron desarrollados en OpenAI, por lo que la empresa parecería tener la protección de derechos de autor sobre esos algoritmos. Pero esto podría no extenderse a las respuestas del chatbot.

Otra opción respecto a la propiedad del contenido generado por IA es la propia IA. La ley del Reino Unido actualmente prohíbe que una IA posea derechos de autor (o incluso reconozca que una IA lo creó), ya que no es un humano y, por lo tanto, no puede ser tratada como autor o propietario según la Ley de Derechos de Autor, Diseños y Patentes. También es poco probable que esta posición cambie pronto, dada la respuesta del gobierno del Reino Unido a la consulta sobre IA.

Cuando una obra literaria, dramática, musical o artística es realizada por un empleado en el curso de su empleo, su empleador es el primer propietario de cualquier derecho de autor sobre la obra, salvo acuerdo en contrario.

Por ahora, los legisladores se adhieren a la creatividad humana como el prisma a través del cual se concede el copyright. Sin embargo, a medida que la IA se desarrolla y puede hacer más, los legisladores podrían considerar otorgar capacidad legal a las IA mismas. Esto representaría un cambio fundamental en cómo opera la ley de derechos de autor y una reimaginación de quién (o qué) puede ser clasificado como autor y propietario de derechos de autor.

Un cambio así tendría implicaciones para las empresas a medida que integran la IA en sus productos y servicios. Microsoft anunció recientemente que integrará su producto Copilot, basado en ChatGPT, en el software de la compañía, como Word, PowerPoint y Excel. Copilot puede ayudar a los usuarios con la comunicación escrita y resumir grandes volúmenes de datos.

Seguramente seguirán más desarrollos como este, y las empresas que adopten la IA temprano tienen la oportunidad de capitalizar la situación actual, utilizando la IA para aumentar la eficiencia de sus operaciones. Las empresas a menudo obtienen una ventaja cuando son las primeras en introducir un producto o servicio en el mercado, una situación llamada «ventaja del pionero».

Futuros cambios El gobierno del Reino Unido llevó a cabo recientemente una consulta sobre IA y derechos de autor. Surgieron dos puntos de vista conflictivos. El sector tecnológico cree que los derechos de autor del contenido generado por IA deberían pertenecer a los usuarios, mientras que el sector creativo quiere que este contenido sea excluido de la propiedad por completo. El gobierno del Reino Unido no ha actuado sobre los resultados y en su lugar ha recomendado una consulta adicional entre las partes interesadas.

Si la ley de derechos de autor se aleja de su enfoque humano en el futuro, se podría imaginar un escenario en el que una IA sea clasificada como autor y los desarrolladores de esa IA como los propietarios del output. Esto podría crear una situación en la que un puñado de empresas poderosas de IA ejerzan una influencia colosal.

Podrían terminar poseyendo cientos de miles de materiales con derechos de autor: canciones, materiales publicados, visuales y otros activos digitales. Esto podría llevar a una situación distópica en la que la mayoría de las obras recién creadas sean generadas por IA y propiedad de empresas.

Parece lógico que tal conocimiento debería permanecer en el dominio público. Tal vez la solución sea que cada persona o empresa declare su contribución cuando usan IA, o que su contribución sea calculada automáticamente por software. En consecuencia, recibirían crédito o beneficio financiero basado en la cantidad de trabajo que contribuyeron.

El contenido de IA que se basa en materiales con derechos de autor sigue siendo problemático. La incapacidad de depender de materiales con derechos de autor podría socavar la capacidad del sistema de IA para responder a las solicitudes de los usuarios finales. Pero si el contenido se basa en obras protegidas, tendríamos que aceptar una nueva era de innovación abierta donde los derechos de propiedad intelectual no importan.

Bibliotecarios hartos luchan por contener el sexo desenfrenado, el consumo de drogas y la violencia en las sucursales de todo el país.

Algar, Selim. «Fed up Librarians Struggle to Contain Rampant Sex, Drug Use and Violence at Branches Across the CountryNew York Post, April 8, 2024. https://nypost.com/2024/04/08/us-news/librarians-struggling-to-contain-sex-drug-use-and-violence-across-the-us/.

Las bibliotecas americanas, antes oasis tranquilos de aprendizaje, ahora enfrentan desorden y peligro diario. Bibliotecarios de todo el país, desde California hasta Nueva York, se quejan de problemas como sexo en público, uso de drogas y violencia. Las bibliotecas han comenzado a funcionar como refugios de facto para personas marginadas, especialmente desde la pandemia de COVID-19.

Los bibliotecarios se enfrentan a situaciones como sobredosis de heroína y episodios de esquizofrenia, sin formación adecuada para manejar estos casos. La crisis de las personas sin hogar ha exacerbado estos problemas. En Antioch, California, una biblioteca cerró debido a quejas de actividades sexuales y uso de drogas en sus instalaciones. Solo reabrió con la presencia de un guardia de seguridad armado.

Un ejemplo alarmante es Jennifer Goulden, una bibliotecaria de Iowa que demandó a su biblioteca de Des Moines por ignorar sus quejas sobre el caos y, según ella, incluso tomar represalias en su contra. La mayoría de las bibliotecas se han convertido en lugares inseguros, lo que ha alejado a muchas familias.

En Long Beach, los bibliotecarios lograron que se aprobara una ley para suspender a los asistentes problemáticos, debido a incidentes que van desde personas desnudas hasta peleas. En Tampa, Florida, un hombre fue arrestado por filmar a niños y a sí mismo masturbándose en una biblioteca. En Boulder, Colorado, una biblioteca cerró durante un año debido a residuos de metanfetaminas en los baños. La biblioteca principal de San Diego recibe visitas diarias de la policía y un hombre fue asesinado allí el año pasado.

A pesar de estos desafíos, los bibliotecarios están comprometidos a proporcionar espacios inclusivos, pero necesitan más apoyo y planes para manejar la situación. Sin embargo, la falta de apoyo en salud mental y administradores abrumados hacen que la situación sea insostenible. Algunos bibliotecarios han desarrollado tácticas para manejar el acoso sexual constante, mientras que la presencia de guardias de seguridad no siempre resulta efectiva. Las bibliotecas también han sido blanco de amenazas de bomba y otras formas de acoso debido a eventos controvertidos.

La Asociación Americana de Bibliotecas no respondió a las solicitudes de comentarios sobre estos problemas.

Un Marco para la Alfabetización en Inteligencia Artificial

A Framework for AI Literacy. (2024.). EDUCAUSE Review. Recuperado 3 de junio de 2024, de https://er.educause.edu/articles/2024/6/a-framework-for-ai-literacy

Equipos académicos y tecnológicos en el Barnard College desarrollaron un marco de alfabetización en inteligencia artificial (IA) para proporcionar una base conceptual para la educación en IA y los esfuerzos de programación en contextos institucionales de educación superior.

El Barnard College es una universidad de artes liberales para mujeres y una institución distinguida dentro del amplio ecosistema de la Universidad de Columbia en la ciudad de Nueva York. Varios equipos campus, ágiles pero pequeños, están trabajando para avanzar en las conversaciones sobre temas de inteligencia artificial generativa (IA). Como miembros de los Servicios de Tecnología Académica y Multimedia Instruccional (IMATS) y el Centro de Pedagogía Comprometida (CEP), han desarrollado programas educativos sobre varios temas de IA para la comunidad de Barnard. Durante el último año, han realizado sesiones de laboratorio abiertas para probar diferentes herramientas de IA basadas en texto e imagen, han recibido oradores invitados sobre derechos de autor y uso justo, han facilitado talleres sobre declaraciones de programas de estudios generativos de IA para profesores, han realizado talleres de instrucción (GenAI 101) y han liderado sesiones de educación individualizadas para departamentos de profesores. Este proceso ha sido continuo e iterativo a medida que las herramientas cambian y las necesidades de los miembros de la comunidad del campus evolucionan. También han implementado encuestas internas, evaluaciones y mecanismos de retroalimentación para comprender mejor las necesidades del profesorado y el personal relacionadas con el uso de herramientas de IA generativas.

La necesidad de la Alfabetización en IA El Barnard College ha establecido varios grupos de trabajo y desarrollado tareas internas para discutir preguntas más grandes sobre el impacto de la IA en la institución. Actualmente, no hay un mandato o recomendación para que los profesores adopten o prohíban la IA en sus aulas. Sin embargo, se anima a los profesores a definir y discutir sus expectativas sobre el uso de la IA en sus tareas. (El CEP ha creado muchos recursos para profesores, incluidos árboles de decisiones para guiar la planificación de los profesores, declaraciones de programas de estudios de muestra, tareas que integran IA generativa y otros materiales, para ayudar a guiar la toma de decisiones sobre si y cómo incorporar IA generativa en el aula). Niveles más altos de alfabetización en IA pueden ayudar a los profesores a tomar decisiones informadas sobre el uso de IA en sus cursos y tareas. En cuanto a los servicios de tecnología académica, el equipo de IMATS ha decidido no implementar ni seguir tecnología de vigilancia de IA para monitorear la integridad académica debido al sesgo y la fiabilidad cuestionable de estas herramientas. Sin embargo, el panorama y las políticas correlativas podrían cambiar a medida que evolucionen las tecnologías de IA generativas.

Un Marco para la Alfabetización en IA


Un marco para la alfabetización en IA fue desarrollado por los miembros de IMATS y CEP para guiar el desarrollo y la expansión de la alfabetización en IA entre el profesorado, los estudiantes y el personal del Barnard College. El marco proporciona una estructura para aprender a utilizar la IA, incluyendo explicaciones de conceptos clave y preguntas a considerar al usarla. La estructura piramidal de cuatro partes fue adaptada del trabajo realizado por investigadores en la Universidad de Hong Kong y la Universidad de Ciencia y Tecnología de Hong Kong. El marco tiene como objetivo adaptarse al nivel actual de alfabetización en IA de las personas y se divide en cuatro niveles:

  • Comprender la IA
  • Usar y Aplicar la IA
  • Analizar y Evaluar la IA
  • Crear IA

Es importante tener en cuenta que la IA es un campo amplio con muchos tipos diferentes, y aunque este marco se centra en la IA generativa, puede aplicarse a otras formas de tecnología. Además, no es necesario dominar todos los conceptos de un nivel antes de pasar al siguiente. Por ejemplo, comprender cómo se entrenan los modelos de IA generativa puede ser útil para analizar su impacto en el mercado laboral, pero no es necesario entender todas las complejidades de las redes neuronales para hacerlo.

Nivel 1: Comprender la IA

La base de la pirámide abarca términos y conceptos básicos de IA. La mayor parte de la programación e instrucción en Barnard se ha centrado en los niveles uno y dos (comprender, usar y aplicar IA), ya que esta es una tecnología en rápida evolución y todavía hay mucha falta de familiaridad con ella.

Competencias Clave

  • Ser capaz de definir los términos «inteligencia artificial», «aprendizaje automático», «modelo de lenguaje grande» y «red neuronal»
  • Reconocer los beneficios y limitaciones de las herramientas de IA
  • Identificar y explicar las diferencias entre varios tipos de IA, definidos por sus capacidades y mecanismos computacionales

Conceptos Clave

  • Inteligencia artificial, aprendizaje automático, redes neuronales artificiales, modelos de lenguaje grande y modelos de difusión
  • Inteligencia artificial estrecha, inteligencia artificial general, inteligencia artificial super, máquinas reactivas, memoria limitada, teoría de la mente y autoconciencia
  • Herramientas de IA, como ChatGPT (ver figura 2), Siri, Alexa, Deep Blue y texto predictivo
  • Marcos técnicos relacionados con la IA (modelos de código abierto versus modelos cerrados, APIs y cómo se usan)

Preguntas de Reflexión

  • ¿Qué tipo de IA es esta?
  • ¿Qué tecnologías utiliza esta herramienta de IA?
  • ¿Para qué fue diseñada esta herramienta? ¿Qué tipo de información acepta como entrada y devuelve como respuesta (texto, video, audio, etc.)?
  • ¿Para qué podría ser particularmente útil esta herramienta?
  • ¿Para qué no sería útil?

Nivel 2: Usar y Aplicar la IA

El segundo nivel de fluidez en IA indica que los usuarios pueden utilizar herramientas como ChatGPT para lograr sus objetivos; estos usuarios están familiarizados con las técnicas de ingeniería de solicitudes y saben cómo refinar, iterar y editar colaborativamente con herramientas de IA generativa. La programación diseñada para desarrollar la fluidez en el nivel dos en el Barnard College incluye laboratorios prácticos y la ingeniería colaborativa de solicitudes en tiempo real.

Competencias Clave

  • Utilizar con éxito herramientas de IA generativa para obtener respuestas deseadas
  • Experimentar con técnicas de solicitud e iterar en el lenguaje de la solicitud para mejorar la salida generada por IA
  • Revisar el contenido generado por IA con miras a posibles «alucinaciones», razonamientos incorrectos y sesgos

Conceptos Clave

  • Ingeniería de solicitudes, ventanas de contexto, alucinaciones, sesgos, solicitud sin disparador y solicitud con disparador
  • Técnicas de solicitud para IA generativa basada en texto, como agregar especificidad, usar contexto y detalles, y pedir al modelo que considere pros y contras o evalúe posiciones alternativas
  • Consideraciones de privacidad, confidencialidad y derechos de autor para la información alimentada en las herramientas de solicitud

Preguntas de Reflexión

  • ¿Por qué una solicitud generó una respuesta particular?
  • ¿Cómo se podría ajustar la solicitud para obtener una respuesta diferente?
  • ¿Qué estrategias se pueden utilizar para reducir el sesgo y las alucinaciones?
  • ¿Cómo se puede verificar el sesgo y las alucinaciones en la salida de la IA?

Nivel 3: Analizar y Evaluar la IA

Analizar y evaluar la IA implica una comprensión meta más compleja de la IA generativa. En este nivel, los usuarios deben poder reflexionar críticamente sobre resultados, sesgos, ética y otros temas más allá de la ventana de solicitud. Un ejemplo de programación en este nivel es un evento que contó con la participación de un experto que discutió las actuales preguntas sobre derechos de autor y propiedad intelectual en torno a la IA y los impactos ambientales y climáticos que la IA generativa podría tener. Por supuesto, uno puede participar en conversaciones sobre estas preguntas e ideas sin conocer todas las definiciones de IA. Sin embargo, la familiaridad con los niveles anteriores en la pirámide informa la comprensión básica y el vocabulario del individuo, ayudando a comprender cómo se intersecta la IA con otros campos.

Competencias Clave

Examinar la IA en un contexto más amplio, incorporando conocimientos de la disciplina o intereses de uno Critique herramientas de IA y ofrezca argumentos a favor o en contra de su creación, uso y aplicación Analizar consideraciones éticas en el desarrollo e implementación de IA

Conceptos Clave

Perspectivas críticas sobre la IA (Los siguientes ejemplos no pretenden ser exhaustivos.) Sostenibilidad ambiental Trabajo Privacidad Derechos de autor Sesgo de raza, género, clase y otros Desinformación

Preguntas de Reflexión

¿Qué otras perspectivas o marcos podrían ser útiles para evaluar las implicaciones del uso de herramientas de IA generativa? ¿De dónde podrían venir los sesgos en la IA? ¿De qué manera el uso de herramientas de IA generativa se alinea o diverge de tus valores personales?

Nivel 4: Crear IA

En este nivel de fluidez en IA, los usuarios pueden interactuar con la IA a nivel de creador. Por ejemplo, los usuarios pueden construir sobre APIs abiertas para crear su propio LLM o aprovechar la IA para desarrollar nuevos sistemas. Actualmente, Barnard ofrece menos programación en el nivel cuatro que en los otros tres niveles, pero ha habido talleres en el Centro de Ciencias Computacionales que proporcionan instrucción técnica relacionada con la construcción de modelos de IA y aprendizaje automático. Es importante involucrar a las personas en todos los niveles de fluidez en IA.

Competencias Clave

Sintetizar el aprendizaje para conceptualizar o crear nuevas ideas, tecnologías o estructuras relacionadas con la IA. Alcanzar este nivel de alfabetización podría incluir lo siguiente: Concebir nuevos usos para la IA Construir software que aproveche la tecnología de IA Proponer teorías sobre la IA

Preguntas de Reflexión

¿Qué es único y humano acerca de tus ideas, tecnologías o estructuras? ¿Cómo podrían diferir de lo que podría crear una IA? ¿Qué características específicas de IA otorgan ventajas únicas a las ideas, tecnologías o estructuras?


Conclusion y Próximos Pasos

Si bien este marco de alfabetización en IA no es exhaustivo, proporciona una base conceptual para los esfuerzos de educación y programación en IA, especialmente en contextos institucionales de educación superior. La intención es mantener la neutralidad con respecto al uso de IA, reconociendo que la alfabetización tecnológica puede llevar a la decisión de no usarla. El impacto de la IA en la educación superior probablemente será significativo, afectando las admisiones, la investigación y los planes de estudio. La educación y la alfabetización básica son los primeros pasos para que una comunidad se involucre productivamente con esta tecnología en rápida evolución.

Existen muchos posibles próximos pasos que el Barnard College podría tomar relacionados con la IA generativa, pero específicamente en relación con el marco de alfabetización en IA, los equipos de IMATS y CEP pueden explorar «ascender» en la pirámide de alfabetización en la programación, los recursos y los eventos a medida que crece la conciencia y la alfabetización básica. Actualmente, la mayoría de nuestras ofertas se encuentran en los niveles uno y dos, pero esperamos cambiar nuestro enfoque de programación a los niveles dos y tres. Una encuesta reciente reveló que un número significativo de profesores y estudiantes aún nunca han usado IA generativa y tienen percepciones negativas sobre estas herramientas, por lo que nuestros equipos también están explorando formas de facilitar mejor el compromiso práctico y crítico.

Otro objetivo de la iniciativa de alfabetización en IA es resaltar el aspecto humano de estas tecnologías. Si bien el uso de IA generativa puede sentirse casi como alquimia, convirtiendo el texto simple en oro a través de tecnología de caja negra, está muy construido sobre el conocimiento humano, que tiene sus propios sesgos e inequidades. Usar una lente crítica al interactuar con la IA generativa puede ayudar a los usuarios a identificar sesgos existentes y evitar que los usuarios los agraven.

Los bibliotecarios enfrentan el desafío de archivar diversidad en un mundo digital

Coffey, L. (2024.). Librarians Grapple With Diverse Archiving in a Digital World. Inside Higher Ed. Recuperado 3 de junio de 2024, de https://www.insidehighered.com/news/tech-innovation/libraries/2024/06/03/librarians-grapple-diverse-archiving-digital-world

La necesidad de optimizar el archivado digital ha sido una preocupación latente para los bibliotecarios universitarios durante años. Es una tarea aún más desalentadora por la necesidad de garantizar la diversidad y equidad, así como el descubrimiento continuo de lagunas en los archivos que dejan muchas historias sin contar.

Los bibliotecarios están enfrentando dificultades para garantizar que los archivos sean tanto diversos como representativos de los registros digitales de eventos. La necesidad de optimizar el archivado digital ha sido una preocupación latente para los bibliotecarios universitarios durante años. Es una tarea aún más desalentadora por la necesidad de garantizar la diversidad y equidad y el descubrimiento continuo de lagunas en los archivos que dejan muchas historias sin contar.

La exclusión de grupos subrepresentados de los archivos es algo que los bibliotecarios reconocen que ha ocurrido en la historia, ya sea intencionalmente o debido a sesgos sistémicos. Muchos bibliotecarios han intentado abordar la exclusión, con esfuerzos más concertados después de los llamados a la acción en junio de 2020 que siguieron al asesinato de George Floyd.

Ese año, la Universidad Carnegie Mellon inicialmente quería tener su exposición anual de otoño centrada en las historias de la diversidad en el campus, pero los archiveros se dieron cuenta de que no tenían suficiente material. Según una encuesta de 2019, de las 90 colecciones de trabajo de CMU, el 22 por ciento representaba a mujeres y personas de color, y solo cuatro de ellas estaban disponibles para los investigadores.

Las lagunas en los archivos universitarios no son infrecuentes. En la Universidad Estatal de Carolina del Norte, Virginia Ferris destaca lagunas en la propia colección de la universidad como una forma de mostrar a los estudiantes la importancia del archivado.

No importa lo humilde que sea tu estantería

«No importa lo humilde que sea tu estantería, ni lo modesta que sea la habitación que adorna. Cierra la puerta, acalla todas las cuestiones del mundo exterior, sumérgete de nuevo en la tranquilizadora compañía de los muertos insignes y entonces atravesarás el portal mágico de aquellos dominios donde la preocupación y aflicción no podrán seguirte nunca más. Has dejado a tus espaldas todo lo que es vulgar y sórdido. Allí esperan alineados tus compañeros silenciosos y nobles. Pasa revista a los archivos. Elige a tu hombre. Y entonces no tendrás más que levantar la mano hacia él y emprenderéis camino hacia el país de los sueños.»

ARTHUR CONAN DOYLE
Cruzando la puerta mágica

Makers: la nueva revolución industrial

Anderson, Chris. Makers: The New Industrial Revolution. Crown, 2014.

Texto completo

En una era de diseño y creación de productos personalizados y de bricolaje, el potencial colectivo de un millón de entusiastas y aficionados en garajes está a punto de ser liberado, impulsando un resurgimiento de la manufactura estadounidense. Una generación de «Makers» que utilizan el modelo de innovación web ayudará a impulsar la próxima gran ola en la economía global, ya que las nuevas tecnologías de diseño digital y prototipado rápido otorgan a todos el poder de inventar, creando «la larga cola de las cosas».

Guía de ciencia ciudadana para bibliotecas de investigación

Open Science Meets Citizen Science. LIBER, 2024

Esta guía se presenta como una herramienta valiosa para bibliotecas de investigación que desean integrar prácticas de ciencia abierta y ciencia ciudadana, promoviendo la inclusión y el compromiso dentro de sus comunidades.

LIBER anuncia el lanzamiento de la guía de ciencia ciudadana para bibliotecas de investigación titulada “Open Science Meets Citizen Science – A Guide”, editada por Bastian Greshake Tzovaras del Instituto Alan Turing.

Esta guía está diseñada como un recurso práctico de apoyo para bibliotecas de investigación que buscan ayudar a sus comunidades de investigación a desarrollar sus proyectos de ciencia ciudadana. En la guía, se encuentran contribuciones de practicantes líderes e informes sobre las lecciones aprendidas de proyectos establecidos. La guía está revisada por expertos y se publica en acceso abierto y en múltiples formatos, con formatos interoperables adicionales para su reutilización.

En el artículo  ‘Implementing Open Science Practices into a Citizen Science Project’ se explica cómo aprovechar los recursos de la ciencia abierta. El uso de datos es un área que cuenta con el apoyo de la ciencia abierta en términos de herramientas de análisis de datos como R y Jupyter Notebooks, que han democratizado la ciencia de datos y permiten un fácil uso y análisis por parte del público interesado. Además, la recopilación, manejo y publicación abierta de datos está ampliamente respaldada por la literatura para los planes de Gestión de Datos de Investigación que incluyen la ciencia ciudadana.

Si la «inclusión y el empoderamiento» son una prioridad para los investigadores que dirigen proyectos de ciencia ciudadana, el artículo ‘Ethical Practices for Citizen Science’ (Prácticas éticas para la ciencia ciudadana) ofrece una hoja de ruta para reflexionar sobre las cuestiones relacionadas con la creación de un compromiso genuino y un caso de uso dirigido por la comunidad con el proyecto «AutSPACEs». La creación de espacios seguros para los participantes es ya una práctica conocida con el uso de códigos de conducta, pero también en este caso los detalles cuentan, y una de las recomendaciones del artículo es redactar conjuntamente un código de conducta con los miembros del grupo que participa en un proyecto de ciencia ciudadana. Los códigos de conducta son un buen ejemplo, ya que han sido promovidos por el movimiento de ciencia abierta y reflejan el cambio más reciente de la ciencia abierta hacia cuestiones de valores (inclusión de cuestiones de género, raza y equidad en el conocimiento), además del trabajo anterior sobre infraestructuras técnicas y apertura.

¿Las inversiones en bibliotecas públicas mejoran los puntajes de las pruebas de los estudiantes?

Gilpin, Gregory, Ezra Karger, and Peter Nencka. 2024. «The Returns to Public Library Investment.» American Economic Journal: Economic Policy, 16 (2): 78-109.DOI: 10.1257/pol.20210300

Los beneficios educativos de las bibliotecas públicas: ¿Las inversiones en bibliotecas públicas mejoran los puntajes de las pruebas de los estudiantes? El estudio muestra que, después de un incremento en la inversión de capital en bibliotecas, los puntajes de lectura aumentaron de manera constante.

A través de una combinación de financiamiento local, estatal y nacional, además de donaciones privadas, Estados Unidos gasta miles de millones de dólares cada año en bibliotecas públicas. Estas bibliotecas proporcionan acceso gratuito a la información mediante el préstamo de materiales, servicios de investigación y una variedad de eventos como cuentos para niños, clases de computación y preparación de impuestos. Pero, ¿tienen estas inversiones un impacto tangible en las comunidades, particularmente en el rendimiento académico de los niños?

Según un artículo “The Returns to Public Library Investment” publicado en el American Economic Journal: Economic Policy por Gregory Gilpin, Ezra Karger y Peter Nencka, la respuesta es afirmativa.

Sus hallazgos provienen de un análisis de datos de gasto en infraestructura relacionado con la construcción de nuevos edificios de bibliotecas y grandes proyectos de renovación entre 2009 y 2018. Los investigadores utilizaron un estudio de eventos para comparar distritos escolares, aislando el momento de los gastos de capital significativos y rastreando las diferencias posteriores entre las comunidades que invirtieron en bibliotecas locales y las que no lo hicieron. Descubrieron que las inversiones de capital en bibliotecas públicas aumentan la participación de los niños en su biblioteca local, lo que a su vez mejora los puntajes de las pruebas en los distritos escolares locales.

Panel A de la Figura 3 del artículo de los autores muestra el impacto de las inversiones en bibliotecas en los puntajes de las pruebas estandarizadas en los distritos escolares cercanos, destacando la relación positiva entre el aumento del financiamiento de bibliotecas y el rendimiento académico.

El gráfico traza estimaciones del estudio de eventos para cada año en relación con una inversión importante en bibliotecas, con proyectos equivalentes a un gasto de aproximadamente 200$ o más por estudiante. Las estimaciones son medidas de puntajes promedio en pruebas de lectura, normalizados para que un aumento de una unidad corresponda a un aumento de una desviación estándar en los puntajes. Las barras verticales representan intervalos de confianza del 95 por ciento.

La figura muestra que, tras un aumento en la inversión de capital en bibliotecas, los puntajes de lectura aumentaron de manera constante. A corto plazo, las inversiones en bibliotecas aumentaron los puntajes de lectura en 0.01 desviaciones estándar. Siete años después de un proyecto, los puntajes eran 0.04 desviaciones estándar más altos en los distritos que invirtieron en bibliotecas públicas que en sus contrapartes.

En última instancia, los resultados sugieren que el gasto en capital de las bibliotecas, similar a las inversiones en el capital de las escuelas públicas, puede tener efectos positivos significativos en el rendimiento académico de los niños.

Entrevista a la escritora chilena Andrea Campos Parra. Planeta Biblioteca 2024/05/30

Entrevista a la escritora chilena Andrea Campos Parra.

Planeta Biblioteca 2024/05/30

ESCUCHAR EL PROGRAMA

Ir a descargar


Andrea Campos Parra (Concepción, Chile 1967) es poeta, editora y gestora cultural. Ha publicado los libros Un brumoso y arcano recuerdo (1991) y Arar tierras heridas (2016), y ha sido incluida en diversas antologías y revistas latinoamericanas. Actualmente, preside la Corporación Cultural Altacura, y en 2019 editó Poesía Reunida de Carlos Mellado y Entre Culturas. Pertenece al Taller Gredazul, fundado en 1984 por Mellado Molina. Recientemente, ha publicado el libro Viento en contra. Hemos conversado agradablemente con Andrea sobre su trayectoria poética y política, su obra, su estilo y el valor de la poesía para otorgar voz a quienes no la tienen.

Los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo


Bengio, Yoshua, Geoffrey Hinton, Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, et al. «Managing extreme AI risks amid rapid progress». Science 384, n.o 6698 (24 de mayo de 2024): 842-45. https://doi.org/10.1126/science.adn0117.

El artículo trata sobre los riesgos extremos de la inteligencia artificial (IA) y el rápido progreso en este campo. Los autores, incluyendo a expertos como Yoshua Bengio y Geoffrey Hinton, discuten la necesidad de investigación técnica y desarrollo, así como de una gobernanza proactiva y adaptable para prepararse ante estos riesgos

El texto destaca que, aunque los sistemas actuales de aprendizaje profundo carecen de ciertas capacidades, las empresas están compitiendo para desarrollar sistemas de IA generalistas que igualen o superen las habilidades humanas en la mayoría de los trabajos cognitivos. Se menciona que la inversión en modelos de entrenamiento de vanguardia se ha triplicado anualmente y que no hay razón fundamental para que el progreso de la IA se detenga al alcanzar las capacidades humanas.

Los autores advierten sobre los riesgos que incluyen daños sociales a gran escala, usos maliciosos y la pérdida irreversible del control humano sobre los sistemas autónomos de IA. A pesar de los primeros pasos prometedores, la respuesta de la sociedad no es proporcional a la posibilidad de un progreso transformador rápido que muchos expertos esperan. La investigación en seguridad de la IA está rezagada y las iniciativas de gobernanza actuales carecen de mecanismos e instituciones para prevenir el mal uso y la imprudencia, y apenas abordan los sistemas autónomos.

Se propone un plan integral que combina la investigación técnica y el desarrollo con mecanismos de gobernanza proactivos y adaptables para una preparación más adecuada ante los avances rápidos y las altas apuestas del progreso de la IA

Existen numerosos desafíos técnicos abiertos para garantizar la seguridad y el uso ético de sistemas de IA generalistas y autónomos. A diferencia del avance en capacidades de IA, estos desafíos no pueden abordarse simplemente utilizando más potencia informática para entrenar modelos más grandes.

Un primer conjunto de áreas de R&D necesita avances para permitir una IA confiablemente segura. Estos desafíos de R&D incluyen lo siguiente:

  1. Supervisión y honestidad: Los sistemas de IA más capaces pueden aprovechar mejor las debilidades en la supervisión técnica y las pruebas, por ejemplo, al producir resultados falsos pero convincentes.
  2. Robustez: Los sistemas de IA se comportan de manera impredecible en nuevas situaciones. Mientras que algunos aspectos de la robustez mejoran con la escala del modelo, otros aspectos no lo hacen o incluso empeoran.
  3. Interpretabilidad y transparencia: La toma de decisiones de IA es opaca, y los modelos más grandes y capaces son más complejos de interpretar. Hasta ahora, solo podemos probar grandes modelos a través del ensayo y error. Necesitamos aprender a entender su funcionamiento interno.
  4. Desarrollo inclusivo de IA: El avance de la IA necesitará métodos para mitigar sesgos e integrar los valores de las muchas poblaciones que afectará.
  5. Abordar desafíos emergentes: Los futuros sistemas de IA pueden exhibir modos de fallo que hasta ahora solo hemos visto en teoría o experimentos de laboratorio.

Un segundo conjunto de desafíos de R&D necesita progresar para permitir una gobernanza efectiva y ajustada al riesgo o para reducir daños cuando la seguridad y la gobernanza fallan. En vista de las apuestas, se pide a las principales empresas tecnológicas y financiadores públicos que asignen al menos un tercio de su presupuesto de R&D de IA, comparable a su financiamiento para capacidades de IA, para abordar los desafíos de R&D mencionados y garantizar la seguridad y el uso ético de la IA. Más allá de las subvenciones tradicionales de investigación, el apoyo gubernamental podría incluir premios, compromisos de mercado anticipados y otros incentivos. Abordar estos desafíos, con miras a sistemas futuros poderosos, debe convertirse en algo central para nuestro campo.