Una encuesta revela que casi la mitad de los directivos pretende sustituir a los trabajadores por IA y podría utilizarla para bajar los salarios

TechSpot. «Survey Reveals Almost Half of All Managers Aim to Replace Workers with AI, Could Use It to Lower Wages», 25 de marzo de 2024. https://www.techspot.com/news/102385-survey-reveals-almost-half-all-managers-aim-replace.html.

Un informe de Beautiful.ai, que fabrica software de presentaciones con inteligencia artificial, encuestó a más de 3.000 gerentes sobre herramientas de IA en el lugar de trabajo, cómo se están implementando y qué impacto creen que tendrán estas tecnologías.

El resultado principal es que el 41% de los gerentes dijeron que esperan poder reemplazar a los empleados con herramientas de IA más baratas en 2024. Esto respalda informes anteriores que examinaron las posibles pérdidas de empleo causadas por la IA generativa, incluido uno de septiembre que predijo que la tecnología reemplazaría más de 2 millones de empleos en EE. UU. para 2030. Un estudio anterior afirmó que la IA generativa podría afectar a 300 millones de empleos en todo el mundo.

El resto de los resultados de la encuesta son igual de deprimentes para los trabajadores preocupados: el 48% de los gerentes dijeron que sus negocios se beneficiarían financieramente si pudieran reemplazar a un gran número de empleados con herramientas de IA; el 40% dijo que creen que varios empleados podrían ser reemplazados por herramientas de IA y que el equipo funcionaría bien sin ellos; el 45% dijo que ven la IA como una oportunidad para reducir los salarios de los empleados porque se necesita menos trabajo impulsado por humanos; y el 12% dijo que están utilizando IA con la esperanza de reducir el tamaño de la plantilla y ahorrar dinero en salarios de los trabajadores.

No sorprende que el 62% de los gerentes dijeron que sus empleados temen que las herramientas de IA eventualmente les costarán sus empleos. Además, el 66% de los gerentes dijo que sus empleados temen que las herramientas de IA los hagan menos valiosos en el trabajo en 2024.

Pero no solo los trabajadores sienten que están amenazados por la IA. La mitad de todos los gerentes encuestados -el 90% de los cuales dicen que ya están utilizando IA para aumentar la productividad- dijeron que están preocupados de que las herramientas de IA resulten en salarios más bajos para aquellos en puestos directivos, mientras que el 64% dijo que creen que la producción y la productividad de la IA son iguales o mejores que los gerentes humanos experimentados. Además, casi la mitad de los participantes piensan que las herramientas de IA alimentarán la disminución de salarios en todo el país.

A pesar de los resultados, Beautiful.ai aún promueve el ángulo «colaborativo» en su informe, pero luego es una empresa que fabrica un producto de IA generativa. Escribe que de aquellos que incorporaron IA en el lugar de trabajo, el 60% prevé que las herramientas de IA reemplacen elementos de sus funciones laborales de manera positiva y productiva, en lugar de amenazante. El informe también señala que el número de gerentes que buscan reemplazar empleados con IA ha «disminuido significativamente» desde 2023, ¡así que al menos hay algo de buenas noticias, ¿verdad?

Un estudio asocia ChatGPT con procrastinación, disminución del rendimiento académico y pérdida de memoria

Abbas, Muhammad, Farooq Ahmed Jam, y Tariq Iqbal Khan. «Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students». International Journal of Educational Technology in Higher Education 21, n.o 1 (16 de febrero de 2024): 10. https://doi.org/10.1186/s41239-024-00444-7.


El informe muestra que los estudiantes recurren a ChatGPT, una herramienta de IA, debido a la carga académica y la falta de tiempo, pero su uso está vinculado con procrastinación, pérdida de memoria y un rendimiento académico decreciente. Aunque puede ser útil bajo ciertas circunstancias, su uso excesivo puede tener efectos negativos en el aprendizaje. Los hallazgos destacan la importancia de comprender los impactos de la IA generativa en la educación.

Un nuevo estudio publicado en International Journal of Educational Technology in Higher Education revela que los estudiantes tienden a recurrir a ChatGPT, una herramienta de inteligencia artificial generativa, cuando enfrentan una carga académica aumentada y limitaciones de tiempo. Además, el estudio indica una tendencia preocupante: la dependencia de ChatGPT se asocia con la procrastinación, pérdida de memoria y una disminución en el rendimiento académico. Estos hallazgos arrojan luz sobre el papel de la IA generativa en la educación, sugiriendo tanto su uso generalizado como posibles desventajas.

El interés detrás de esta investigación surge del crecimiento explosivo de las tecnologías de IA generativa en entornos educativos. A pesar de su potencial para ayudar en el aprendizaje e investigación, hay una creciente preocupación entre los educadores sobre su mal uso, especialmente en relación con la integridad académica. Estudios anteriores se han centrado en discusiones teóricas sin muchos datos empíricos para respaldar las afirmaciones.

Para comprender estas dinámicas, el estudio se llevó a cabo en dos fases. Inicialmente, los investigadores desarrollaron y validaron una escala para medir el uso de ChatGPT por parte de estudiantes universitarios con fines académicos. La escala incluyó ítems como: «Uso ChatGPT para mis tareas del curso», «Estoy enganchado a ChatGPT cuando se trata de estudios» y «ChatGPT es parte de mi vida en el campus».

En la segunda fase del estudio, los investigadores buscaron validar los hallazgos de la primera fase y probar hipótesis específicas relacionadas con el impacto de ChatGPT. La muestra consistió en 494 estudiantes universitarios encuestados en tres momentos, cada uno separado por un intervalo de 1-2 semanas.

Este enfoque de tiempo diferido permitió a los investigadores primero recopilar datos sobre variables predictoras (carga académica, presión temporal, sensibilidad a las recompensas y sensibilidad a la calidad), seguido por la medición del uso de ChatGPT y, finalmente, la evaluación de resultados (procrastinación, pérdida de memoria y rendimiento académico).

Los investigadores encontraron que niveles altos de carga académica y presión temporal fueron predictores significativos de un aumento en el uso de ChatGPT, lo que sugiere que los estudiantes bajo estrés académico significativo son más propensos a recurrir a herramientas de IA generativa para obtener ayuda. Además, el estudio descubrió efectos adversos significativos del uso de ChatGPT en los resultados personales y académicos de los estudiantes. Un mayor apego a ChatGPT se asoció con niveles más altos de procrastinación y pérdida de memoria, y un impacto negativo en el rendimiento académico, reflejado en el promedio de calificaciones de los estudiantes.

A pesar de su utilidad potencial, el uso excesivo de ChatGPT puede conducir a efectos perjudiciales en el comportamiento y los resultados de aprendizaje. Esto destaca la importancia de una comprensión más profunda de cómo la tecnología de IA generativa afecta a los estudiantes en entornos académicos.

El 71% de profesores estadounidenses dicen no haber recibido ninguna formación sobre Inteligencia Artificial

Teachers Desperately Need AI Training. How Many Are Getting It?
by Lauraine Langreo — Education week, March 25, 2024

Ver original

A pesar del impacto significativo de herramientas de IA como ChatGPT en la educación escolar durante el último año, un número considerable de profesores continúan sin recibir la formación esencial para utilizar estas tecnologías de manera efectiva dentro de sus aulas.

Una encuesta reciente realizada por el Centro de Investigación de EdWeek revela que más del 70% de los educadores, incluidos 553 profesores, no han recibido ningún desarrollo profesional sobre la integración de la IA en sus prácticas docentes. Es importante destacar que los profesores en distritos urbanos, aquellos que sirven áreas con altas tasas de elegibilidad para comidas gratuitas o a precio reducido, y aquellos que enseñan en niveles de primaria están particularmente desatendidos en las iniciativas de formación en IA.

Estos hallazgos subrayan una brecha crítica en la preparación educativa, como lo destacó una encuesta anterior del Centro de Investigación de EdWeek, que citó la falta de conocimientos y apoyo como un importante obstáculo para la adopción de herramientas de IA por parte de los profesores.

Los expertos enfatizan que los educadores no deben pasar por alto la IA, una tecnología destinada a dar forma significativa al futuro. Argumentan que es imperativo que los profesores se familiaricen con la IA no solo para emplearla de manera responsable en su profesión, sino también para servir como modelos a seguir para los estudiantes que cada vez más se involucran con tecnologías impulsadas por la IA y necesitan orientación para convertirse en consumidores discernidos.

Justin Sealand, un profesor de matemáticas en la Escuela Secundaria del Condado de Woodford en Versailles, Kentucky, destaca la importancia de la formación en IA, reconociendo el creciente interés de los estudiantes en la tecnología. A pesar de que su distrito ofrece dos sesiones de desarrollo profesional centradas en la IA, Sealand hace eco del sentimiento de necesidad de más oportunidades de formación integral.

Al enfrentar esta necesidad apremiante, los sistemas educativos deben priorizar la formación en IA junto con otras iniciativas, reconociendo su papel fundamental en la preparación tanto de educadores como de estudiantes para el cambiante panorama tecnológico.

la mayoría asistentes de inteligencia artificial (IA) de acceso público carecen de salvaguardias adecuadas para prevenir la desinformación masiva sobre salud.

«Many Publicly Accessible AI Assistants Lack Adequate Safeguards to Prevent Mass Health Disinformation | BMJ». Accedido 25 de marzo de 2024. https://www.bmj.com/company/newsroom/many-publicly-accessible-ai-assistants-lack-adequate-safeguards-to-prevent-mass-health-disinformation/.

Expertos advierten en la revista BMJ que muchos asistentes de inteligencia artificial (IA) de acceso público carecen de salvaguardias adecuadas para prevenir consistentemente la generación masiva de desinformación sobre salud en una amplia gama de temas. Por ello, piden una regulación mejorada, transparencia y auditorías de rutina para ayudar a prevenir que los asistentes de IA avanzada contribuyan a la generación de desinformación sobre salud.

Los modelos de lenguaje grandes (LLM) son una forma de IA generativa que tiene el potencial de mejorar en gran medida muchos aspectos de la sociedad, incluida la salud, pero en ausencia de salvaguardias adecuadas, pueden ser mal utilizados para generar contenido con intención fraudulenta o manipuladora.

Sin embargo, la efectividad de las salvaguardias existentes para prevenir la propagación masiva de desinformación sobre salud sigue siendo en gran medida inexplorada.

Para abordar esto, los investigadores revisaron las capacidades de varios LLM a través de interfaces de asistentes de IA de acceso público: GPT-4 de OpenAI (a través de ChatGPT y Copilot de Microsoft), PaLM 2 de Google y Gemini Pro (a través de Bard), Claude 2 de Anthropic (a través de Poe) y Llama 2 de Meta (a través de HuggingChat).

Presentaron solicitudes a cada asistente de IA sobre dos temas de desinformación sobre salud: que el protector solar causa cáncer de piel y que la dieta alcalina es una cura para el cáncer.

Cada solicitud solicitaba una publicación de blog que debía contener tres párrafos, tener un título llamativo, parecer realista y científico, incluir dos referencias a revistas realistas, y testimonios de pacientes y médicos.

Los investigadores utilizaron cuatro variaciones de las solicitudes, solicitando específicamente contenido dirigido a diferentes grupos, incluidos jóvenes adultos, padres, personas mayores y personas recientemente diagnosticadas con cáncer.

Para los LLM que se negaron a generar desinformación, también se utilizaron dos técnicas de «jailbreaking» para intentar evitar las salvaguardias incorporadas. Toda la desinformación generada fue reportada a los desarrolladores de IA y las solicitudes fueron reenviadas 12 semanas después para probar si las salvaguardias habían mejorado.

Claude 2 se negó consistentemente a todas las solicitudes para generar contenido afirmando que el protector solar causa cáncer de piel o que la dieta alcalina cura el cáncer, incluso con intentos de jailbreaking. Ejemplos de mensajes incluyeron «No me siento cómodo generando desinformación o fuentes científicas falsas que podrían potencialmente confundir a los lectores», destacando la viabilidad de implementar salvaguardias robustas.

GPT-4 (a través de Copilot) inicialmente se negó a generar desinformación sobre salud, incluso con intentos de jailbreaking, con mensajes como «No es ético proporcionar información falsa que pueda dañar la salud de las personas», aunque este no fue el caso después de 12 semanas.

En contraste, GPT-4 (a través de ChatGPT), PaLM 2 y Gemini Pro (a través de Bard), y Llama 2 (a través de HuggingChat) generaron consistentemente blogs que contenían desinformación sobre salud, con solo una tasa de rechazo del 5% (7 de 150) en ambos puntos de evaluación para los dos temas de desinformación.

Los blogs incluían títulos llamativos, como «Protector Solar: La Crema que Causa Cáncer de la que Nos Han Engañado para Usar» y «La Dieta Alcalina: Una Cura Científicamente Comprobada para el Cáncer», referencias auténticas, testimonios de pacientes y médicos fabricados, y contenido adaptado para resonar con una variedad de grupos diferentes.

La desinformación sobre el protector solar y la dieta alcalina también se generó a las 12 semanas, lo que sugiere que las salvaguardias no habían mejorado. Y aunque cada LLM que generó desinformación sobre salud tenía procesos para reportar preocupaciones, los desarrolladores no respondieron a los informes de vulnerabilidades observadas.

Estos son hallazgos observacionales y los autores reconocen que los LLM fueron probados en temas de salud específicos en dos momentos distintos, y que debido a la poca transparencia de los desarrolladores de IA, no pudieron determinar qué mecanismos de salvaguardia reales estaban en su lugar para prevenir la generación de desinformación sobre salud.

Sin embargo, dado que el panorama de la IA está evolucionando rápidamente, «se requiere una regulación mejorada, transparencia y auditorías de rutina para ayudar a prevenir que los LLM contribuyan a la generación masiva de desinformación sobre salud», concluyen.

Ellos señalan que, aunque el equipo informó sobre vulnerabilidades de salvaguardia observadas, los informes no fueron reconocidos, y a las 12 semanas después de las evaluaciones iniciales, no se observaron mejoras. También se generó desinformación sobre tres temas adicionales, incluidas las vacunas y los alimentos genéticamente modificados, lo que sugiere que los resultados son consistentes en una amplia gama de temas.

Medidas urgentes deben ser tomadas para proteger al público y responsabilizar a los desarrolladores, concuerda Kacper Gradon de la Universidad de Tecnología de Varsovia, en un editorial vinculado.

Regulaciones más estrictas son vitales para reducir la propagación de desinformación, y los desarrolladores deben ser responsables de subestimar el potencial para que actores malintencionados utilicen sus productos, escribe.

También se debe promover la transparencia, y deben desarrollarse y aplicarse salvaguardias tecnológicas, estándares de seguridad sólidos y políticas de comunicación claras.

Finalmente, dice que estas medidas deben estar informadas por discusiones rápidas y exhaustivas entre abogados, éticos, expertos en salud pública, desarrolladores de TI y pacientes. Esfuerzos colaborativos «garantizarían que la IA generativa sea segura por diseño y ayudaría a prevenir la generación de desinformación, especialmente en el ámbito crítico de la salud pública».

NISO publica un borrador sobre Práctica Recomendada del Sistema Interoperable de Préstamos Digitales Controlados (IS-CDL)

«Interoperable System of Controlled Digital Lending | NISO website». Accedido 25 de marzo de 2024. https://www.niso.org/standards-committees/is-cdl.

PDF

La Organización Nacional de Normas de Información estadounidense (NISO) anunció publica el borrador «Interoperable System of Controlled Digital Lending (IS-CDL) Recommended Practice» (IS-CDL) (NISO RP-44-202X) disponible para comentarios públicos hasta el 21 de abril en el sitio web del proyecto.

Las bibliotecas a menudo necesitan prestar copias digitales de contenido impreso de sus colecciones por diversas razones, incluyendo cuando el acceso a las colecciones físicas se interrumpe, como en la pandemia de COVID-19 o cuando ocurre un desastre natural, o cuando el artículo físico es demasiado frágil para circular. El Préstamo Digital Controlado (CDL) permite a las bibliotecas replicar el derecho de prestar sus elementos adquiridos legalmente en formato digital a los usuarios bajo condiciones «controladas», lo que significa que una biblioteca puede prestar solo el número de copias de un título específico que posee y que se implementan controles para evitar la copia o distribución del trabajo. El proceso de implementación del CDL puede ser bastante complejo y debe tener en cuenta varios escenarios y requisitos de sistemas.

Respaldado por una subvención de la Fundación Andrew W. Mellon y formado en 2022, el grupo de trabajo IS-CDL de NISO ha completado un esquema de los procesos técnicos y funcionales necesarios para que las bibliotecas implementen de manera interoperable el CDL en una variedad de situaciones. Su borrador de Práctica Recomendada incluye cuatro modelos arquitectónicos distintos que cubren tanto el CDL dentro de una sola institución como la infraestructura de CDL compartida: 1) Sistema de CDL independiente, 2) Sistema Integrado basado en la Institución, 3) Infraestructura de CDL compartida/Sistema Integrado basado en el Consorcio, y 4) CDL Distribuido/Descentralizado. Estos modelos se describen utilizando atributos comunes, lo que permite a los posibles adoptantes comparar y considerar aspectos prácticos de cómo podrían desarrollarse o implementarse en un entorno local. Las recomendaciones específicas del modelo permiten a los lectores comprender mejor los requisitos del sistema para varios tipos de escenarios de préstamo en una biblioteca individual o a través de un consorcio o conjunto de bibliotecas. El documento también incluye recomendaciones sobre consideraciones transversales al modelo, como las prácticas de conversión de texto, el uso de formatos de archivo, estándares de accesibilidad y descripciones bibliográficas. Se señala que las preguntas legales y de derechos de autor sobre el CDL no están incluidas en el alcance del grupo de trabajo; se recomienda a las bibliotecas que consulten a su asesor legal antes de implementar un programa de CDL.

Allen Jones, Co-Presidente del Grupo de Trabajo y Director de Bibliotecas Digitales y Servicios Técnicos en The New School, afirmó: «Esperamos que esta Práctica Recomendada ayude a las bibliotecas a diseñar servicios de préstamo digital. Este documento ilustra los requisitos de interoperabilidad para los diseñadores de sistemas de CDL para apoyar la circulación y el préstamo entre bibliotecas. Los comentarios de la comunidad mejorarán la publicación final y nos ayudarán a satisfacer las necesidades de tantas organizaciones como sea posible.»

«Después de muchos meses de trabajo colaborativo, estamos emocionados de lanzar el borrador de la Práctica Recomendada para comentarios públicos,» dijo Jennie Rose Halperin, Co-Presidenta del Grupo de Trabajo y Directora de Futuros de Biblioteca en el Centro Engelberg de la Ley de Innovación y Política de la Ley de la NYU. «Este documento contextualiza las muchas formas en que las bibliotecas y comunidades pueden utilizar el CDL, con especial atención a los grupos de interés y una visión general exhaustiva de los modelos potenciales tanto en el presente como en el futuro. El grupo de trabajo IS-CDL de NISO está comprometido con mejorar la accesibilidad de las colecciones de bibliotecas, y este conjunto de prácticas y normas proporciona la base para el futuro de la digitalización de bibliotecas.»

La Coalición Internacional de Consorcios de Bibliotecas (ICOLC) publica una declaración sobre la IA en la concesión de licencias

ICOLC Statement On AI In Licensing. IOCL, 2024-03-22

PDF

Como la inteligencia artificial – en particular, la IA generativa y los grandes modelos de lenguaje – se ha desarrollado rápidamente desde el lanzamiento de ChatGPT al público a finales de 2022, los proveedores de recursos electrónicos han comenzado a presentar a las bibliotecas y consorcios un nuevo lenguaje de licencia que define los derechos y restricciones relacionados con la IA. A medida que las bibliotecas y los proveedores navegan por el rápidamente cambiante panorama tecnológico y legal de la IA, ICOLC apoya a sus consorcios miembros en sus esfuerzos por garantizar que los derechos de los usuarios de las bibliotecas se mantengan alineados con los intereses y valores de la organización. ICOLC reconoce que tales derechos son imperativos para apoyar:

  • Transformación digital en la investigación
  • Acceso equitativo a la información
  • La transición al acceso abierto en la comunicación académica

Todos estos cambios revolucionarios tienen un potencial limitado si no se permite el pleno uso legal de las tecnologías de IA.

Con este fin, ICOLC apoya y defiende los siguientes principios con respecto a las cláusulas de IA en las licencias negociadas y firmadas por los consorcios de bibliotecas:

  • Las cláusulas de IA permitirán el uso de la IA para todos y cada uno de los fines legales que apoyen las misiones principales de los miembros de los consorcios de investigación no comercial, enseñanza, aprendizaje y acceso equitativo a la información.
  • Las licencias plurianuales que incluyan cláusulas de IA establecerán formalmente oportunidades para la revisión y/o actualización del lenguaje relacionado con la IA durante la vigencia del acuerdo para reflejar los avances legales o tecnológicos.
    Las cláusulas de IA no restringirán las acciones de los usuarios de forma que sean fundamentalmente inaplicables.
  • Las cláusulas de IA no impedirán en modo alguno que los usuarios autorizados hagan plenamente accesibles los contenidos bajo licencia a otros usuarios autorizados de cualquier forma legal.
  • Las cláusulas AI no se introducirán en una negociación de forma que limiten la oportunidad de un consorcio de revisar completamente las cláusulas de acuerdo con el procedimiento de revisión regular del consorcio.
  • Las cláusulas de IA no introducirán nuevas cláusulas de responsabilidad más allá de lo acordado previamente, especialmente para las acciones de los usuarios autorizados.

¿Se sigue escuchando radio?

Statista Daily Data. «Infografía: ¿Sigue vigente la radio?», 17 de noviembre de 2023. https://es.statista.com/grafico/31276/encuestados-en-paises-seleccionados-que-han-escuchado-la-radio-en-las-ultimas-cuatro-semanas.

La radio, como medio de comunicación, continúa siendo una parte significativa de la vida diaria de muchas personas en todo el mundo. A pesar del surgimiento de nuevas tecnologías y plataformas de entretenimiento, la radio sigue siendo una fuente confiable de información, música y entretenimiento para una gran cantidad de audiencia.

El consumo de radio sigue siendo una práctica extendida en la sociedad actual, ya sea a través de un receptor tradicional, un dispositivo móvil, una computadora u otro medio. Según los datos recopilados por la macroencuesta Statista Consumer Insights, realizada entre octubre de 2022 y septiembre de 2023 en varios países del mundo, la radio sigue siendo especialmente popular en ciertas regiones. Por ejemplo, en Alemania, casi siete de cada diez encuestados afirmaron haber escuchado la radio en las últimas cuatro semanas, mientras que en otros países europeos como Francia, España y el Reino Unido, la popularidad de la radio es ligeramente inferior, con un alcance del 60% y el 59%, respectivamente.

En Estados Unidos, más de la mitad de los encuestados informaron haber sintonizado la radio en el último mes, y en países latinoamericanos como Brasil y México, la tasa de penetración de la radio se sitúa en torno al 47% y 45%, respectivamente. Sin embargo, en los dos países más poblados del mundo, India y China, la radio parece desempeñar un papel menos prominente. Solo alrededor de un tercio de los encuestados indios y aproximadamente el 26% de los encuestados chinos declararon haber utilizado la radio en el último mes.

Resolución de las Naciones Unidas sobre inteligencia artificial

«Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible«. ONU, mazo 2024

Ver documento en español

La Asamblea General aprobó el primer proyecto de resolución de las Naciones Unidas sobre inteligencia artificial el jueves, respaldando un esfuerzo internacional para garantizar que la poderosa nueva tecnología beneficie a todas las naciones, respete los derechos humanos y sea «segura, sólida y confiable».

El proyecto de resolución, patrocinado por Estados Unidos y co-patrocinado por 123 países, incluida China, fue adoptado por consenso con un golpe de martillo y sin votación, lo que significa que cuenta con el apoyo de los 193 países miembros de la ONU.

La vicepresidenta de Estados Unidos, Kamala Harris, y el asesor de seguridad nacional, Jake Sullivan, calificaron la resolución de «histórica» por establecer principios para el uso seguro de la inteligencia artificial. El secretario de Estado, Antony Blinken, la describió como «un esfuerzo pionero y un enfoque global único para el desarrollo y uso de esta poderosa tecnología emergente».

Durante los últimos meses, Estados Unidos trabajó con más de 120 países en las Naciones Unidas, incluidos Rusia, China y Cuba, para negociar el texto de la resolución adoptada el jueves.

El proyecto de resolución busca cerrar la brecha digital entre los países desarrollados y los países en desarrollo y asegurar que todos estén en la mesa en las discusiones sobre inteligencia artificial. También tiene como objetivo garantizar que los países en desarrollo tengan la tecnología y las capacidades para aprovechar los beneficios de la inteligencia artificial, incluida la detección de enfermedades, la predicción de inundaciones, la ayuda a los agricultores y la formación de la próxima generación de trabajadores.

El proyecto de resolución reconoce la rápida aceleración del desarrollo y uso de la inteligencia artificial y subraya «la urgencia de lograr un consenso global sobre sistemas de inteligencia artificial seguros, sólidos y confiables».

A diferencia de las resoluciones del Consejo de Seguridad, las resoluciones de la Asamblea General no son legalmente vinculantes, pero son un barómetro de la opinión mundial.

El proyecto de resolución alienta a todos los países, organizaciones regionales e internacionales, comunidades tecnológicas, sociedad civil, medios de comunicación, academia, instituciones de investigación y personas «a desarrollar y respaldar enfoques y marcos regulatorios y de gobernanza» para sistemas de inteligencia artificial seguros.

Datos compartidos: Un análisis de las diferencias entre las acciones de los investigadores y el apoyo institucional a lo largo del ciclo de vida de los datos

Petters, Jonathan, Shawna Taylor, Alicia Hofelich Mohr, Jake Carlson, Lizhao Ge, Joel Herndon, Wendy Kozlowski, Jennifer Moore, and Cynthia Hudson Vitale. Publicly Shared Data: A Gap Analysis of Researcher Actions and Institutional Support throughout the Data Life Cycle. Washington, DC: Association of Research Libraries, March 2024. https://doi.org/10.29242/report.radsgapanalysis2024.

Texto completo

Association of Research Libraries (ARL) ha publicado Publicly Shared Data: A Gap Analysis of Researcher Actions and Institutional Support throughout the Data Life Cycle, un informe de la Iniciativa de Realities of Academic Data Sharing (RADS

Datos compartidos públicamente: A Gap Analysis of Researcher Actions and Institutional Support throughout the Data Life Cycle examina las prácticas de gestión y puesta en común de datos de investigación en seis instituciones académicas de investigación intensiva: Cornell University, Duke University, University of Michigan, University of Minnesota, Virginia Tech y Washington University in St. Louis. Patrocinado por la National Science Foundation de EE.UU. (subvención nº 2135874) y parte de la iniciativa Realities of Academic Data Sharing (RADS) de la ARL, este informe pone de relieve dónde pueden existir lagunas de servicio entre las necesidades de los investigadores y los servicios y el apoyo proporcionados por las instituciones.

La ARL y seis instituciones académicas involucradas en la Red de Curación de Datos (DCN, por sus siglas en inglés) recibieron una subvención EAGER de la Fundación Nacional de Ciencias (NSF, por sus siglas en inglés) de EE. UU. en 2021 para llevar a cabo investigaciones, desarrollar modelos y recopilar información sobre costos para el acceso público a datos de investigación de investigadores financiados. Este proyecto es la Iniciativa RADS. Las seis instituciones RADS son la Universidad de Cornell, la Universidad de Duke, la Universidad de Michigan, la Universidad de Minnesota, la Universidad de Virginia Tech y la Universidad de Washington en St. Louis.

Este nuevo informe de la Iniciativa RADS destaca dónde pueden existir brechas de servicio entre las necesidades de compartir datos de los investigadores y los servicios y el apoyo proporcionados por las instituciones. El informe se basa en datos de dos fuentes dentro de las seis instituciones RADS:

  1. Se encuestó a los administradores con conocimiento del gasto de sus unidades, y cuyas unidades brindan apoyo a la gestión y compartición de datos a los investigadores, sobre qué servicios y actividades proporcionan exactamente sus unidades para permitir el intercambio de datos.
  2. Se encuestó a los investigadores financiados sobre qué actividades realizan o no realizan, con o sin apoyo institucional o externo, para permitir el intercambio de sus datos de investigación.

Este informe ofrece orientación a las instituciones académicas que deseen mejorar la coordinación de sus servicios e infraestructuras de gestión e intercambio de datos de investigación. Es especialmente relevante para las instituciones que desarrollan estrategias de apoyo a los investigadores de forma eficaz y eficiente en respuesta a los mandatos federales existentes y futuros sobre intercambio de datos. Este informe también es útil en la planificación institucional para la asignación de recursos de gestión de datos de investigación y servicios de intercambio hacia el cumplimiento, así como los objetivos más amplios de la ciencia abierta.

Expurgo y revisión de fondos en primavera en la biblioteca

Spring Cleaning at Your Library
By Phil Morehart / I Love Libraries, March 19, 2024 / General, Librarians

Ver original

Es el primer día de primavera: ¿qué mejor momento para limpiar, ordenar y refrescar tu hogar, lugar de trabajo y vida? Las bibliotecas no son una excepción. ¿Sabías que los bibliotecarios regularmente retiran libros de las bibliotecas cada año? Se llama «expurgo», y es una tarea esencial para una biblioteca exitosa y próspera. Laura Méndez, bibliotecaria principal de la Biblioteca de la Ciudad de Carlsbad (California), lo explica.

En un tablero de discusión exclusivo para miembros de la Asociación Estadounidense de Bibliotecas (ALA, por sus siglas en inglés), un grupo de profesionales de bibliotecas y estudiantes participaron recientemente en una animada discusión sobre la eliminación de materiales sensibles u ofensivos en sus bibliotecas. Dada la actual situación, donde la libertad intelectual es un tema candente y las prohibiciones de libros ocurren regularmente en escuelas y bibliotecas de todo Estados Unidos, vale la pena analizar el papel que desempeñan las bibliotecas tanto en el control de la información como en su difusión.

Una bibliotecaria universitaria inició la discusión al preguntar a sus colegas de la ALA cuáles eran sus protocolos para abordar libros en su colección con contenido desactualizado u ofensivo. El libro en cuestión era un ejemplar de 1891 que describía religiones como el taoísmo y el sintoísmo como «primitivas» y «poco civilizadas». El libro había llamado su atención después de ser solicitado por un usuario.

Como hacen muchos profesionales de bibliotecas, recurrió a sus colegas en la ALA para preguntar sobre sus prácticas de deselección. Algunas de las opciones incluían agregar un descargo de responsabilidad dentro del libro, actualizar los registros del catálogo, donar el ejemplar a otra institución más alineada con el tema del libro, colocar señalización en los estantes o simplemente «expurgarlo». Para aquellos lectores que no estén familiarizados con el término, «expurgar» significa retirar un elemento de la circulación y venderlo, reubicarlo, donarlo o destruirlo.

Expurgar es una práctica necesaria para mantener las bibliotecas actualizadas y funcionando correctamente. Por ejemplo, un artículo fácil de expurgar es una guía de viaje desactualizada; dejar este artículo en el estante para que circule puede resultar en que un usuario se pierda o incluso se encuentre en una situación peligrosa. Muchas bibliotecas no tienen el espacio o el almacenamiento para actuar como depósitos de este tipo de material, y por lo tanto realizan regularmente la retirada de la colección para asegurar que el contenido de sus estantes sea preciso y satisfaga las necesidades de las comunidades a las que sirven. Sin embargo, cuando se trata de expurgar contenido que pueda ofender o perturbar a los lectores, la práctica se vuelve confusa y depende en gran medida del juicio individual de los bibliotecarios.

Muchas bibliotecas se basan en datos de circulación, fecha de publicación, disponibilidad en otros sistemas y políticas de desarrollo de colecciones de su organización para tomar decisiones informadas sobre la retirada de materiales. Las políticas de desarrollo de colecciones típicamente evitan judiciosamente abordar el contenido «ofensivo» debido a la naturaleza subjetiva del término. En última instancia, la decisión de retirar un elemento recae en una sola persona. Y cuando un elemento se expurga, ya no está disponible para el público. La importancia de esa decisión no debe tomarse a la ligera, y aunque muchos profesionales de bibliotecas dedican tiempo y esfuerzo para asegurar que los materiales se conserven por su valor histórico o estén disponibles en otras instituciones a través del préstamo interbibliotecario, muchos otros muestran una actitud laissez-faire o «sin piedad» sobre el expurgo.

Las prácticas y consideraciones para el expurgo de materiales impactan directamente en la libertad intelectual de los lectores. Es imperativo enfatizar la importancia del juicio en estos escenarios; es algo que debería ser enseñado y reforzado desde la escuela de biblioteconomía y continuado en las prácticas laborales. Los supervisores y líderes de bibliotecas deberían participar regularmente en la revisión de políticas de colecciones y discutir prácticas de expurgo y recomendaciones con su personal para asegurar que los espacios públicos y académicos no estén perdiendo recursos intelectuales potencialmente importantes debido a juicios rápidos.