Archivo de la etiqueta: Noticias

Donald Trump despide de forma repentina a Carla Hayden, la Bibliotecaria del Congreso de Estados Unidos

Wu, Nicholas, Lisa Kashinsky y Katherine Tully-McManus. “Librarian of Congress Carla Hayden Is Fired by Trump.” Politico. 8 de mayo de 2025. https://www.politico.com/live-updates/2025/05/08/congress/librarian-of-congress-carla-hayden-fired-00337506

La destitución de Hayden ha abierto un debate más amplio sobre el papel de las instituciones culturales, la autonomía profesional y la creciente politización de los cargos públicos en Estados Unidos. Su salida forzada podría tener repercusiones duraderas en la forma en que se definen y protegen los roles culturales clave en la democracia estadounidense.

El 8 de mayo de 2025, el presidente Donald Trump despidió de forma repentina a Carla Hayden, quien hasta entonces ejercía como Bibliotecaria del Congreso de Estados Unidos. La noticia fue confirmada tanto por un portavoz oficial de la Biblioteca del Congreso como por un correo electrónico enviado a Hayden por el subdirector de Personal Presidencial, Trent Morse, en el que se notificaba que su puesto quedaba «terminado con efecto inmediato».

La destitución fue interpretada por muchos como un acto abrupto y sin precedentes, especialmente porque Hayden estaba en pleno ejercicio de un mandato de diez años para el cual había sido confirmada en 2016 por una amplia mayoría del Senado (74 votos a favor y 18 en contra), tras ser nominada por el expresidente Barack Obama.

Carla Hayden hizo historia como la primera mujer y la primera persona afroamericana en liderar la Biblioteca del Congreso, la institución bibliotecaria más grande del mundo. Antes de asumir ese cargo, había desempeñado un papel destacado en el sistema de bibliotecas públicas, particularmente como directora de la Biblioteca Gratuita Enoch Pratt de Baltimore. Durante su gestión al frente de la Biblioteca del Congreso, Hayden promovió la modernización digital, el acceso abierto y una mayor inclusión social, además de fortalecer la presencia pública de la biblioteca a través de las redes sociales y eventos culturales.

Sin embargo, en los días previos a su despido, Hayden fue objeto de fuertes críticas por parte de algunos sectores conservadores. Un grupo activista de línea dura llamado American Accountability Foundation la acusó en redes sociales de ser «woke», de tener posturas contrarias a Trump y de «promover la transición de género en menores», aunque no presentaron pruebas concretas. Estas críticas coincidieron con cuestionamientos por parte de legisladores republicanos durante una audiencia del Comité de Administración de la Cámara de Representantes, en la que se discutieron los retrasos y el aumento de costos en el proyecto de renovación del emblemático edificio que alberga la institución.

La reacción de los demócratas fue inmediata. El congresista Joe Morelle, principal demócrata en el comité que supervisa la biblioteca, calificó el despido como un ataque contra una servidora pública ejemplar. El líder de la minoría demócrata en el Senado, Chuck Schumer, fue más allá al decir que este acto formaba parte de «la campaña implacable de Trump por desmantelar los contrapesos democráticos y castigar a los funcionarios que no se someten a su voluntad». Ante esta situación, Morelle anunció su intención de presentar una propuesta legislativa para transferir al Congreso el poder de nombrar y destituir al Bibliotecario del Congreso, con el fin de evitar decisiones unilaterales por parte del Ejecutivo, como ya se hizo recientemente con el cargo de Arquitecto del Capitolio tras una serie de escándalos.

Wiley retracta de 26 artículos por la posible participación de fábricas de artículos científicos en ellos

Marcus, Adam. «Wiley Journal Retracts 26 Papers for ‘Compromised Peer Review.’» Retraction Watch, February 19, 2025. https://retractionwatch.com/2025/02/19/environmental-toxicology-wiley-journal-retractions-compromised-peer-review/#more-131105

Los artículos retirados de Environmental Toxicology tienen en común que todos los autores están afiliados a universidades chinas, y muchos de los correos electrónicos de los autores no corresponden a dominios académicos legítimos, sino que contienen secuencias aleatorias de letras y números. Este patrón sugiere la posible participación de fábricas de artículos científicos, que producen y publican trabajos sin un proceso científico genuino.

La revista Environmental Toxicology de Wiley ha realizado la retractación de más de una veintena de artículos en los últimos meses debido a problemas relacionados con el proceso de revisión por pares, lo que ha puesto en evidencia ciertas irregularidades en el manejo editorial de la publicación. Este problema, que se detectó en varias fases, incluyó lotes de retractaciones en noviembre de 2024, enero y más recientemente en febrero de 2025. La investigación interna de Wiley concluyó que estos artículos fueron aceptados exclusivamente debido a un proceso de revisión por pares dudosa, es decir, un procedimiento en el que las evaluaciones de los manuscritos no fueron realizadas de manera justa ni objetiva.

Los artículos en cuestión, todos ellos publicados en Environmental Toxicology, tienen un denominador común: todos los autores están afiliados a universidades de China, y la mayoría de los correos electrónicos de los autores correspondientes no estaban relacionados con dominios universitarios o de instituciones de investigación reconocidas, sino que contenían secuencias aleatorias de letras y números. Este patrón ha sido identificado como una posible señal de actividades vinculadas a fábricas de artículos científicos (Paper Mills), donde se crean y se publican artículos sin un verdadero proceso científico detrás de ellos.

El representante de la oficina de prensa de Wiley explicó que la editorial había identificado patrones preocupantes en la revisión de los manuscritos en proceso, así como en algunos artículos previamente publicados. El caso de Environmental Toxicology forma parte de una investigación más amplia que también ha afectado a otras publicaciones de Wiley, incluidas las retractaciones masivas de artículos en el International Wound Journal en junio de 2024, también por problemas de revisión por pares dudosa. Desde finales de 2022, Wiley ha tenido que retirar más de 11.000 artículos publicados en revistas adquiridas de Hindawi, que la editorial compró en 2021.

Dentro de las retractaciones recientes, nueve de ellas incluyeron declaraciones de uno o más de los autores que no estuvieron de acuerdo con la retirada del artículo. Por ejemplo, Zheng Lufeng, profesor asociado de la Universidad Farmacéutica de China en Nanjing, fue coautor correspondiente de uno de los artículos retirados titulado “MiR-375 impair breast cancer cell stemness by targeting the KLF5/G6PD signaling axis.” Lufeng expresó que los autores no participaron en el proceso de revisión por pares y que esta era una responsabilidad del editor, no de los autores. También solicitó que los editores modificaran los avisos de retractación para indicar que la retirada de los artículos no tenía nada que ver con la implicación directa de los autores en los problemas de la revisión.

Hasta ahora, la mayoría de los artículos retirados fueron publicados en 2024 o en línea bajo el servicio EarlyView de Wiley, lo que implica que la mayoría de los trabajos afectados no habían pasado aún por el proceso de publicación final y revisión completa. Según los avisos de retractación, todos los artículos fueron retirados de común acuerdo entre el Editor en Jefe de la revista y Wiley Periodicals LLC. Paul B. Tchounwou, quien era el editor en jefe de la revista hasta noviembre de 2024, y Christyn Bailey, la actual editora en jefe, no respondieron a las solicitudes de comentarios sobre esta situación.

Este escándalo ha puesto nuevamente en evidencia las vulnerabilidades de los procesos editoriales en el ámbito académico, especialmente en lo que respecta a la integridad de la revisión por pares. Las editoriales enfrentan presiones crecientes por garantizar la calidad de los artículos que publican, lo que genera preocupaciones sobre el auge de prácticas fraudulentas como las fábricas de artículos científicos, que afectan la credibilidad de la investigación académica global. A medida que las editoriales, como Wiley, continúan enfrentando estos desafíos, el proceso de revisión por pares se mantiene como uno de los pilares más importantes para preservar la fiabilidad y la calidad de la investigación publicada.

Además, esta situación también subraya la importancia de la transparencia y la responsabilidad en las publicaciones científicas. El uso de correos electrónicos y dominios no verificados o no asociados con universidades o instituciones de investigación legítimas es una señal de alerta que puede poner en riesgo la calidad de la investigación publicada y afectar la confianza de la comunidad científica. El debate sobre la efectividad del proceso de revisión por pares sigue siendo un tema relevante en el campo académico, con nuevas medidas y plataformas que buscan garantizar la calidad, la integridad y la transparencia en la publicación de trabajos científicos.

Sam Altman, CEO de OpenAI, admite que los beneficios de la IA podrían no distribuirse ampliamente

Wiggers, Kyle. «OpenAI CEO Sam Altman Admits That AI’s Benefits May Not Be Widely DistributedTechCrunch, 9 de febrero de 2025. https://techcrunch.com/2025/02/09/openai-ceo-sam-altman-admits-that-ais-benefits-may-not-be-widely-distributed/

En un ensayo reciente en su blog personal, Sam Altman, CEO de OpenAI, expresó que la compañía está abierta a ideas inusuales, como el concepto de un «presupuesto de cómputo», para permitir que todos en el mundo utilicen IA y garantizar que sus beneficios sean distribuidos de manera más equitativa. Altman destacó que, aunque los avances tecnológicos mejoran indicadores como la salud y la prosperidad económica, la igualdad no está garantizada por la tecnología y puede requerir intervenciones tempranas.

El concepto del «presupuesto de cómputo» de Altman podría ser difícil de ejecutar, ya que la IA ya está impactando el mercado laboral con recortes de empleos. Expertos advierten que el desempleo masivo podría ser una consecuencia si no se implementan políticas gubernamentales adecuadas y programas de reentrenamiento.

Altman también habló sobre la inteligencia artificial general (AGI), que define como un sistema de IA capaz de resolver problemas complejos a nivel humano en diversas áreas. Aunque la AGI está cerca, según Altman, no será perfecta y necesitará supervisión humana. La verdadera utilidad de la AGI, según él, provendrá de su escala masiva, con miles o millones de sistemas de IA trabajando en diversas tareas.

A pesar de los altos costos asociados al desarrollo de IA, Altman mencionó que el costo de usar un nivel determinado de IA disminuye cada 12 meses. OpenAI está trabajando en la creación de una red de datos masiva y buscando inversiones de hasta 40 mil millones de dólares.

En cuanto a la seguridad de la AGI, Altman indicó que OpenAI tomará decisiones y limitaciones impopulares para asegurar que la tecnología no sea mal utilizada, especialmente por gobiernos autoritarios. Además, subrayó que OpenAI tiene como objetivo empoderar a los individuos, sin perder de vista la necesidad de equilibrar la seguridad con la autonomía personal.

Una colación de defensores de la privacidad demanda al «Departamento de Eficiencia Gubernamental» (DOGE) y a Elon Musk por poner en peligro la intimidad de millones de personas

Electronic Frontier Foundation. «EFF Sues OPM, DOGE, and Musk for Endangering the Privacy of MillionsElectronic Frontier Foundation, 11 de febrero de 2025. https://www.eff.org/press/releases/eff-sues-opm-doge-and-musk-endangering-privacy-millions

La EFF y una coalición de defensores de la privacidad liderada por Lex Lumina han presentado una demanda solicitando a un tribunal federal que impida a la Oficina de Gestión de Personal (OPM) de Estados Unidos revelar información privada y sensible de millones de estadounidenses a Elon Musk y su «Departamento de Eficiencia Gubernamental» (DOGE).

Electronic Frontier Foundation (EFF) y una coalición de defensores de la privacidad acaban de presentar una demanda en la que solicitan a un tribunal federal que bloquee al Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk el acceso a la información privada de millones de estadounidenses que almacena la Oficina de Gestión de Personal (OPM), y que elimine cualquier dato que se haya recopilado o eliminado hasta el momento. En la demanda también se nombra a la OPM y se pide al tribunal que impida que la OPM siga compartiendo datos con la DOGE.

Parte de la carta dice:

«Hola Partidario de la Libertad Digital:
No aceptaremos el saqueo descarado de los datos sensibles de millones de personas.

Nuestro caso es bastante sencillo: Los datos de la OPM son extraordinariamente sensibles, la OPM se los dio al DOGE, y esto viola la Ley de Privacidad de 1974.

Por tus derechos digitales,

Corynne McSherry
Directora Jurídica de la EFF»

Los registros de la OPM son una de las mayores, si no la mayor, recopilación de datos de empleados en los EE.UU. Con nuestro co-abogado Lex Lumina, State Democracy Defenders Fund, y Chandra Law Firm, representamos a empleados federales actuales y antiguos cuya privacidad ha sido violada.

Este enorme tesoro de información incluye datos demográficos privados e historiales laborales de prácticamente todos los empleados y contratistas federales actuales y anteriores, así como de los solicitantes de empleo federal. La semana pasada, un juez federal bloqueó temporalmente el acceso del DOGE a un sistema crítico de pagos del Tesoro de EE.UU. en virtud de una demanda similar. Estas violaciones de la privacidad de los datos no deben permitirse.

¿Y ahora qué?

La cuestión no es «qué pasa si estos datos caen en malas manos». Los datos ya han caído en manos equivocadas, según la ley, y deben salvaguardarse inmediatamente. Las violaciones de la privacidad de los estadounidenses se han producido en múltiples agencias, sin supervisión ni salvaguardias, y la EFF se complace en unirse a la brigada de demandas para proteger esta información crítica.

Esto es sólo el principio de lo que puede ser una lucha difícil. Pero la EFF no es ajena a los adversarios duros. Con el apoyo de nuestros miembros, hemos defendido los derechos de los usuarios de tecnología en cientos de casos para proteger su libertad en línea. Me enorgullece estar a tu lado por el futuro de la privacidad, la libertad de expresión y la creatividad.

La BBC denuncia imprecisiones en los resúmenes de noticias generados por IA

Rahman-Jones, Imran. «AI Chatbots Unable to Accurately Summarise News, BBC FindsBBC News, February 11, 2025. https://www.bbc.com/news/articles/c0m17d8827ko.

Un estudio de la BBC encontró que cuatro chatbots de inteligencia artificial—ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity—fallan al resumir con precisión noticias, presentando distorsiones y errores significativos.

En el experimento, la BBC les pidió a estos modelos que resumieran 100 noticias de su sitio web y expertos evaluaron sus respuestas. Se detectó que el 51 % de las respuestas tenía problemas importantes y que el 19 % de aquellas que citaban contenido de la BBC contenían errores factuales, como datos y fechas incorrectas.

Algunos ejemplos de inexactitudes incluyen: Gemini afirmando erróneamente que el NHS no recomienda el vapeo para dejar de fumar, ChatGPT y Copilot diciendo que Rishi Sunak y Nicola Sturgeon aún estaban en el cargo tras haberlo dejado, y Perplexity tergiversando una noticia sobre Medio Oriente.

La directora de BBC News, Deborah Turness, advirtió que las empresas de IA están «jugando con fuego» y pidió que las compañías tecnológicas «retiren» estos resúmenes, como ya hizo Apple tras quejas previas de la BBC.

El informe también señala que los chatbots no solo presentan errores fácticos, sino que tienen dificultades para diferenciar entre opinión y hechos, editorializan y omiten contexto esencial. La BBC busca dialogar con las empresas de IA para encontrar soluciones y garantizar que los editores tengan control sobre el uso de su contenido.

El informe, además señala que, en general, Copilot y Gemini fueron los chatbots con mayores problemas, mientras que ChatGPT y Perplexity mostraron un desempeño algo mejor, aunque también presentaron errores significativos.

El futuro de la investigación en recuperación de información en la era de la IA generativa

Computing Community Consortium (CCC). Future of Information Retrieval Research in the Age of Generative AI CCC Visioning Workshop. Accessed December 5, 2024. https://cra.org/ccc/events/future-of-information-retrieval-research-in-the-age-of-generative-ai-ccc-visioning-workshop/.

El informe Future of Information Retrieval Research in the Age of Generative AI fue elaborado por destacados investigadores, incluyendo James Allan, Eunsol Choi, Daniel P. Lopresti y Hamed Zamani, bajo el auspicio del Computing Community Consortium (CCC). Publicado en diciembre de 2024, explora cómo los modelos de lenguaje generativo (LLMs) están redefiniendo la recuperación de información (IR) y establece una hoja de ruta para el desarrollo futuro en este campo.

Se basa en un taller de visión celebrado en julio de 2024, que reunió a 44 expertos de diversas disciplinas como IR, procesamiento del lenguaje natural (NLP) e inteligencia artificial (IA). El propósito fue analizar cómo la integración de tecnologías generativas podría transformar las interacciones de los usuarios con sistemas de información y cuáles serían los retos y oportunidades.

Durante el taller, se emplearon técnicas colaborativas inspiradas en las reglas de IDEO para fomentar ideas innovadoras y estructuradas. Los participantes debatieron en ocho sesiones temáticas, las cuales identificaron las principales direcciones de investigación necesarias para aprovechar el potencial de los sistemas IR-GenAI.

El informe identifica ocho áreas prioritarias:

  1. Evaluación de sistemas IR-GenAI: diseñar métricas y metodologías que capturen las capacidades únicas de los modelos generativos.
  2. Aprendizaje del feedback humano: integrar retroalimentación implícita y explícita para resolver problemas complejos que requieran razonamiento.
  3. Modelado de usuarios: entender cómo evolucionan las necesidades de los usuarios en sistemas de acceso a información potenciados por IA generativa.
  4. Cuestiones socio-técnicas: abordar los impactos éticos y sociales que surgen con estas tecnologías.
  5. Sistemas personalizados: desarrollar métodos que adapten los resultados de IR-GenAI a las necesidades individuales.
  6. Eficiencia y escalabilidad: optimizar el uso de recursos computacionales, datos y esfuerzos humanos.
  7. IR para mejorar agentes de IA: integrar técnicas de recuperación de información en agentes inteligentes.
  8. Modelos fundacionales para acceso a la información: diseñar modelos específicamente enfocados en la recuperación y descubrimiento de información.

En conclusión, el informe ofrece un resumen de las discusiones y sugiere acciones concretas para académicos, profesionales de la industria, campañas de evaluación y agencias de financiamiento. Se destaca la necesidad de colaboración interdisciplinaria y de crear tecnologías inclusivas que maximicen los beneficios de la IA generativa para la recuperación de información.

Este documento no solo proporciona una visión del futuro de IR, sino también un marco para avanzar en investigaciones y aplicaciones prácticas en la intersección de IA y recuperación de información.

Un sitio web de noticias impulsado por IA acusa accidentalmente de asesinato al fiscal del distrito

«AI-Powered News Site Accidentally Accuses District Attorney of Murder», Futurism. 18 de octubre de 2024. https://futurism.com/ai-accuses-district-attorney-of-murder.

Un controvertido sitio de noticias local impulsado por inteligencia artificial, Hoodline San José, cometió un grave error al acusar accidentalmente a un fiscal del distrito de asesinato. Un artículo publicado por este medio, que forma parte de una red de sitios de noticias locales en EE. UU., tenía el impactante título: «FISCAL DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA DE LOS RESTOS DE LA VÍCTIMA». Sin embargo, la realidad es que, aunque hubo un asesinato, el fiscal no fue el autor; simplemente había presentado cargos contra el verdadero sospechoso.

El error se originó cuando el sistema de inteligencia artificial de Hoodline interpretó incorrectamente un tuit de la oficina del fiscal del distrito de San Mateo, que anunciaba que un hombre local había sido acusado de asesinato. La IA distorsionó la información de tal manera que hizo parecer que el propio fiscal había cometido el crimen. Este tipo de acusaciones, sobre todo contra un funcionario público, es de suma gravedad en el periodismo.

Después de que el sitio fue señalado por Techdirt, se publicó una nota del editor que intentó explicar el error como un «error tipográfico» que cambió el significado del contenido y creó confusión entre el fiscal y el acusado, que son personas diferentes. Este incidente pone en tela de juicio la promesa de Hoodline de que su contenido editorial cuenta con un nivel significativo de supervisión humana, dado que el sitio utiliza abiertamente inteligencia artificial para generar «noticias» de manera sintética.

Además, el artículo firmado por Eileen Vargas, una de las muchas identidades de reporteros generadas por IA del sitio. Esta práctica ha sido objeto de crítica por pretender mostrar una diversidad racial que no refleja la realidad de la industria periodística, que es mayoritariamente blanca y masculina.

El error también podría tener implicaciones para Google, ya que la acusación falsa apareció en su sección de noticias. La situación plantea preguntas sobre cuánta libertad debería darse a un sitio de noticias que claramente carece de estándares editoriales y si se puede confiar en los algoritmos para filtrar contenido generado por IA.

Lo que queda claro es que errores como este, que un periodista humano bajo un proceso editorial adecuado probablemente no cometería, podrían volverse más comunes a medida que los editores deleguen el control a sistemas de IA económicos y poco supervisados.

Las gafas Ray-Ban Meta pueden usarse para reconocer a personas y acceder a información personal como dirección, número de teléfono y familiares a través del reconocimiento facial.

Matt Binder, «Ray-Ban Meta Glasses Can Be Used to Dox Strangers via Facial Recognition, According to Harvard Students. Here’s How to Protect Yourself.», Mashable, 3 de octubre de 2024, https://mashable.com/article/ray-ban-meta-smart-glasses-students-facial-recognition-dox-strangers.

Dos estudiantes de Harvard han transformado las Meta Ray-Ban Smart Glasses en una poderosa herramienta de reconocimiento facial que puede identificar a cualquier persona y revelar detalles personales como su dirección, número de teléfono y familiares. Lo lograron desarrollando una plataforma de inteligencia artificial llamada I-XRAY, que convierte las gafas inteligentes en un dispositivo de vigilancia personal. Aunque estas gafas están diseñadas para captar fotos y videos de manera más inmersiva, los estudiantes las han llevado un paso más allá al integrar un motor de búsqueda facial.

El proceso de I-XRAY tiene tres etapas clave. Primero, las gafas capturan el rostro de una persona a través de la cámara incorporada. Luego, el motor de búsqueda facial de I-XRAY identifica el rostro y le asigna un nombre. En segundo lugar, una vez que el sistema identifica el nombre, realiza búsquedas en varias bases de datos públicas y privadas para encontrar información adicional sobre la persona. Por último, I-XRAY organiza los datos recolectados —nombre, dirección, teléfono, familiares y más— en un solo documento.

En un video demostrativo, los estudiantes muestran cómo se acercan a personas en la calle y, con las gafas puestas, acceden instantáneamente a datos personales. Al hacer preguntas como «¿Asististe a tal escuela?», revelan que la información es exacta y de fácil acceso, lo que genera preocupación sobre las capacidades invasivas de esta tecnología. Este experimento no solo demuestra el potencial de la inteligencia artificial para la vigilancia, sino que pone en alerta sobre cómo este tipo de herramientas podría ser mal utilizada. Aunque los estudiantes aseguran que su intención no es violar la privacidad, sino iniciar un debate sobre los riesgos de los dispositivos inteligentes, el hecho de que cualquiera pueda acceder a información tan sensible plantea preguntas sobre la regulación de estas tecnologías.

Este dilema recuerda los primeros días del iPhone, cuando los usuarios intentaban «liberar» sus dispositivos, lo que generaba preocupaciones de seguridad. Los estudiantes de Harvard sostienen que, al igual que en aquellos días, estamos en un momento crítico donde debemos aprender a protegernos contra las amenazas antes de que sea demasiado tarde. Aunque no se puede prevenir completamente el uso de herramientas como I-XRAY, existen medidas que las personas pueden tomar para protegerse de la exposición a la vigilancia mediante tecnologías emergentes.

Entre estas medidas, se recomienda limitar la cantidad de información personal disponible públicamente en redes sociales y otras plataformas, utilizar configuraciones de privacidad más restrictivas y abogar por la regulación y supervisión del uso de tecnologías de reconocimiento facial y dispositivos inteligentes. Este caso demuestra lo rápido que la tecnología puede evolucionar y cambiar las dinámicas de privacidad en la vida cotidiana. La conversación sobre las gafas inteligentes de Meta y plataformas como I-XRAY está apenas comenzando, y es probable que continúe a medida que más tecnologías de este tipo lleguen al mercado.

¿Quién utiliza más las bibliotecas públicas? Hay una división por religión y política.

«Who uses public libraries the most? There’s a divide by religion, and politics. – The Washington Post», accedido 9 de octubre de 2024, https://www.washingtonpost.com/business/2024/10/04/who-uses-libraries/.

Encuesta



El uso de bibliotecas públicas en EE. UU. varía según factores como la religión, la política y la ubicación geográfica. Jóvenes, demócratas y personas con mayor nivel educativo son los principales usuarios, mientras que conservadores y habitantes rurales tienden a usarlas menos. El acceso y la participación social son claves para entender estas diferencias.

Se examina quiénes son los usuarios más frecuentes de las bibliotecas públicas en Estados Unidos, basándose en un análisis de encuestas. Uno de los hallazgos clave es que las personas más dadas a utilizar las bibliotecas tienden a ser jóvenes, adultos con educación superior, personas que asisten a servicios religiosos al menos una vez al mes, y votantes demócratas. Estos grupos destacan por utilizar las bibliotecas para acceder a libros, medios digitales, votar, o aprovechar recursos como ordenadores y espacios de trabajo.

Los grupos que menos utilizan las bibliotecas incluyen personas mayores de 45 años, conservadores, protestantes y habitantes de áreas rurales. Este último grupo tiende a tener menos acceso a bibliotecas debido a la lejanía geográfica o a presupuestos más limitados en sus bibliotecas locales. En general, se observa una tendencia en la que los republicanos, especialmente en áreas rurales, visitan menos las bibliotecas que los demócratas en zonas urbanas.

Un hallazgo interesante es que el uso de las bibliotecas no está directamente relacionado con las dificultades económicas. De hecho, cuanto mayor es el ingreso de una persona, más probable es que aproveche los servicios gratuitos de las bibliotecas. A su vez, aquellos que leen más libros, especialmente los que leen más de 100 libros al año, son los más inclinados a obtener la mayoría de ellos en las bibliotecas.

Además de las diferencias políticas y geográficas, hay otro grupo de personas que evita las bibliotecas: aquellos que no participan activamente en la vida social o política. Estos incluyen personas que no votan, no siguen las noticias, no están afiliadas a ningún partido político ni a ninguna religión. Aunque tienen una opinión favorable sobre las bibliotecas y consideran que son importantes, simplemente no las visitan ni leen mucho.

En resumen, el artículo destaca que el uso de las bibliotecas está relacionado con el nivel de participación en la sociedad y el entorno educativo y político, siendo los demócratas, los jóvenes y los educados los que más frecuentan estos espacios, mientras que los conservadores y las personas menos comprometidas políticamente o religiosamente tienden a usarlas menos.

Nuevas directrices sobre IA para ayudar a las bibliotecas de investigación

Lauren Coffey, «New AI Guidelines Aim to Help Research Libraries», Inside Higher Ed, accedido 8 de octubre de 2024, https://www.insidehighered.com/news/tech-innovation/libraries/2024/05/01/new-ai-guidelines-aim-help-research-librarians.

The Association of Research Libraries (ARL) ha publicado nuevas directrices sobre inteligencia artificial (IA) para ayudar a los bibliotecarios a afrontar el aumento de consultas relacionadas con esta tecnología emergente. Desde el lanzamiento de ChatGPT hace dos años, los bibliotecarios han asumido un papel clave en la investigación y el desarrollo de la IA, abordando inquietudes sobre derechos de autor y citaciones.

Las siete directrices se centran en el desarrollo y despliegue de la IA generativa, como los modelos de lenguaje de OpenAI, y buscan promover prácticas éticas y transparentes, así como construir confianza entre los interesados en el entorno de la investigación. Una encuesta reciente reveló que más del 75% de los bibliotecarios consideran urgente abordar las preocupaciones éticas y de privacidad relacionadas con la IA, tales como la violación de la privacidad y el uso indebido de datos.

Las directrices incluyen:

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca sobre la IA.
  2. Entender y concienciar sobre el sesgo en la IA: Ayudar a los usuarios a evaluar la información generada por la IA.
  3. Abogar por la apertura y la transparencia: Centrándose en los algoritmos y datos utilizados para crear la IA.
  4. Reconocer la importancia de los humanos en la IA: Asegurar que la ética y la accesibilidad sean consideradas en su uso.
  5. Priorizar la seguridad y privacidad: Abogar por leyes que protejan la información personal de los usuarios.
  6. Continuar con la aplicación de la ley de derechos de autor: Proteger los derechos de las bibliotecas para fines de investigación y educación.
  7. Promover la equidad en la información digital: Garantizar que las leyes de derechos de autor no sean superadas por contratos con empresas privadas.

Las líderes de ARL, Katherine Klosek y Cynthia Hudson Vitale, destacaron que estas directrices son un punto de referencia para abordar preocupaciones relacionadas con la IA y que están abiertas a futuras discusiones a medida que la tecnología y sus implicaciones evolucionan.