Archivo de la etiqueta: Privacidad

EE. UU. impulsa una “caza” digital de críticos del ICE: cientos de citaciones del DHS exigen a Google, Meta y Reddit revelar identidades

Toohey, Ellsworth. “DHS sent hundreds of subpoenas to Google, Meta, and Reddit demanding names of people who criticize ICE.” Boing Boing, February 16, 2026. https://boingboing.net/2026/02/16/dhs-sent-hundreds-of-subpoenas-to-google-meta-and-reddit-demanding-names-of-people-who-criticize-ice.html

Un informe reciente revela que el Departamento de Seguridad Nacional (DHS) de los Estados Unidos ha intensificado su uso de citaciones administrativas para intentar identificar a usuarios de internet que critican al Servicio de Inmigración y Control de Aduanas (ICE) en plataformas de redes sociales.

Según un artículo de Boing Boing, el DHS ha enviado cientos de citaciones sin orden judicial a gigantes tecnológicos como Google, Meta (propietaria de Facebook e Instagram) y Reddit, solicitando datos personales —incluidos nombres reales, direcciones de correo electrónico y códigos postales— vinculados a cuentas que publican contenidos críticos sobre las actividades de ICE o comparten información sobre la ubicación de sus agentes.

A diferencia de las órdenes judiciales tradicionales, estas citaciones administrativas pueden emitirse sin revisión previa de un juez, lo que ha generado inquietud entre defensores de las libertades civiles y expertos legales. Según The New York Times, varias de estas solicitudes han sido cumplidas por las plataformas mencionadas, aunque algunas empresas notifican a los usuarios afectados y les ofrecen un breve periodo —generalmente entre 10 y 14 días— para impugnar la citación en los tribunales antes de entregar los datos al gobierno.

Los críticos de esta práctica advierten que su uso extendido representa una expansión preocupante de la vigilancia gubernamental sobre la actividad en línea y una potencial amenaza a la protección de la libertad de expresión. Tradicionalmente, las citaciones administrativas se empleaban en investigaciones relacionadas con delitos graves, como el tráfico de menores; su aplicación para identificar críticos del ICE sugiere, según expertos citados en el informe, un cambio significativo en las prioridades de supervisión del DHS.

Este desarrollo no ha ocurrido en un vacío político: llega en un contexto de debates intensos sobre políticas migratorias, el papel del ICE y la regulación de la privacidad en línea, en el que grupos de derechos civiles —como la ACLU— han cuestionado la legitimidad y el alcance de las citaciones, denunciándolas como tácticas que podrían intimidar y silenciar a quienes ejercen su derecho constitucional a criticar al gobierno.

Search Party un sistema IA propiedad de Amazon para localizar perros perdidos que está generando controversia en torno a la vigilancia comunitaria

Koebler, Jason. “Leaked Email Suggests Ring Plans to Expand ‘Search Party’ Surveillance Beyond Dogs.” 404 Media, February 18, 2026. https://www.404media.co/leaked-email-suggests-ring-plans-to-expand-search-party-surveillance-beyond-dogs/

Un correo interno filtrado de Amazon‑propiedad Ring ha revelado que la controvertida funcionalidad de inteligencia artificial denominada Search Party, lanzada con el propósito de ayudar a encontrar perros perdidos utilizando cámaras conectadas en vecindarios, podría evolucionar hacia un sistema de vigilancia más amplio con objetivos de seguridad comunitaria, según un informe de 404 Media.

En el mensaje, enviado por el fundador y CEO de Ring, Jamie Siminoff, a los empleados poco después del lanzamiento de la herramienta en octubre de 2025, Siminoff describió que la función fue introducida “primero para encontrar perros” pero insinuó que esta plataforma podría ampliarse para “eliminar el crimen en los vecindarios”, mostrando la intención de que la infraestructura de cámaras y el aprendizaje automático asociado sirvan a usos más allá de su propósito original.

Search Party es una característica que se activa por defecto y crea una red de cámaras Ring en un área determinada que, mediante algoritmos de IA, analiza automáticamente el metraje grabado cuando se informa de un perro perdido para intentar localizarlo. Si una cámara detecta un posible avistamiento, se notifica al propietario del dispositivo, quien puede optar por compartir el video con quien busca al animal. La herramienta ha suscitado críticas por su activación por defecto y por la escala de la red de cámaras interconectadas, lo que ha despertado inquietudes sobre la normalización de una infraestructura de vigilancia en vecindarios.

La filtración ocurre en un contexto más amplio de escepticismo y rechazo público hacia las capacidades de vigilancia de Ring. La empresa enfrentó una reacción negativa importante tras la emisión de un anuncio en el Super Bowl que promocionaba Search Party, ya que muchos críticos interpretaron la publicidad como un preludio de un sistema de vigilancia encubierto que utiliza aparatos cotidianos como cámaras de puerta para monitorear barrios. Aunque Ring ha afirmado que Search Party no procesa biométricos humanos ni rastrea personas directamente, expertos en privacidad señalan que la tecnología subyacente y la expansión de funciones como Familiar Faces (identificación facial) y Fire Watch (detección de incendios) incrementan la capacidad de monitoreo automático y, por ende, los riesgos asociados a la protección de datos y libertades civiles.

Los defensores de la privacidad han advertido que una red tan extensa de dispositivos conectados por IA podría teoréticamente adaptarse para otros fines, incluidos la búsqueda de objetos o incluso personas, si futuros desarrollos así lo permiten. La reacción pública también llevó a Ring a cancelar una asociación planificada con la empresa de vigilancia Flock Safety, tras recibir críticas por el potencial uso de la herramienta para integrar a las fuerzas del orden en la recolección de evidencia a través de solicitudes de video. Ring declaró que la integración con Flock nunca se lanzó y que no se compartió ningún dato de usuario con esa empresa, enfatizando que la herramienta está diseñada para beneficiar a las comunidades y que la decisión de compartir videos recae en cada propietario.

El 64 % de las aplicaciones de terceros acceden a datos confidenciales sin autorización.

Reflectiz. The State of Web Exposure 2026. 2026. Reflectiz, enero 2026.

Texto completo

El informe The State of Web Exposure 2026 de Reflectiz presenta un análisis exhaustivo de la exposición de datos sensibles y riesgos de seguridad en la web derivados principalmente del uso de aplicaciones de terceros y herramientas digitales integradas en sitios web.

A partir del análisis de más de 4 700 sitios web de alto tráfico a nivel global, el estudio revela que el 64 % de las aplicaciones de terceros accede actualmente a datos sensibles sin una justificación de negocio válida, lo que representa un incremento significativo respecto al 51 % reportado en 2024. Esta tendencia señala una brecha de gobernanza y supervisión cada vez mayor en lo que concierne a la gestión de componentes web externos y su impacto en la seguridad de los datos.

El informe destaca varios hallazgos clave que ayudan a entender cómo se distribuyen y generan estos riesgos. En primer lugar, los equipos de marketing y digitales son responsables del 43 % de las exposiciones de terceros, superando con creces el 19 % generado por los departamentos de TI, lo que sugiere que la proliferación de etiquetas, scripts y herramientas para análisis y publicidad sin la debida supervisión técnica amplía la superficie de ataque. Asimismo, el riesgo en los entornos de pago ha aumentado, con un ascenso del 10 % al 14 % de aplicaciones en marcos de pago que carecen de una justificación clara, lo que puede abrir puertas a ataques de skimming y otras amenazas orientadas a la captura de información financiera.

Además de esto, sectores críticos como el gubernamental y el educativo muestran aumentos alarmantes en compromisos de seguridad: los sitios web de entidades gubernamentales con actividad maliciosa pasaron del 2 % al 12,9 %, mientras que uno de cada siete sitios del sector educativo presenta algún tipo de compromiso activo, cifra que cuadruplica la registrada el año anterior. El informe también identifica patrones técnicos asociados con sitios comprometidos, los cuales tienden a conectarse con 2,7 veces más dominios externos, cargar el doble de rastreadores y emplear dominios recientemente registrados 3,8 veces más que los sitios sin compromiso, lo que apunta a nuevos vectores de actividad maliciosa que dificultan aún más la gestión de la exposición web.

Para finalizar el documento proporciona indicadores de compromiso y mejores prácticas de control para equipos de seguridad y digitales, junto con benchmarks actualizados de liderazgo en seguridad. Estos benchmarks revelan que muy pocas organizaciones cumplen con los ocho criterios de seguridad evaluados, y únicamente un sitio web analizado —ticketweb.uk— logró una puntuación perfecta en el marco evaluado. Esta carencia de madurez en la gestión de la exposición web subraya la necesidad urgente de implementar soluciones especializadas y enfoques colaborativos entre los equipos de seguridad, TI y negocio para reducir riesgos, proteger datos sensibles y atender las crecientes expectativas de cumplimiento normativo y privacidad en un paisaje digital cada vez más complejo.

El futuro de los drones en EE. UU.: entre la innovación tecnológica y las amenazas a la privacidad

O’Donnell, J

Shoplifters Could Soon Be Chased Down by Drones.MIT Technology Review, 25 de septiembre de 2025. https://www.technologyreview.com/2025/09/25/1124088/shoplifters-could-soon-be-chased-down-by-drones/

La empresa Flock Safety, conocida por proveer drones a departamentos de policía, ha anunciado que ofrecerá ahora su tecnología al sector privado. Entre sus posibles clientes están grandes cadenas comerciales, hospitales, almacenes y empresas de energía, interesadas en reforzar la seguridad y reducir los robos.

En Estados Unidos, el futuro parece encaminarse hacia un uso masivo de drones con fines de seguridad, comercio y servicios. Keith Kauffman, ex jefe de policía y ahora responsable del programa de drones de la empresa Flock, describió un escenario en el que un dron, lanzado desde la azotea de una tienda, sigue a sospechosos de robo hasta su coche y transmite en directo la persecución a la policía. Para defensores de las libertades civiles, esta visión es preocupante porque refuerza un estado de vigilancia basado en tecnologías como lectores de matrículas y drones policiales, que permiten recopilar grandes cantidades de datos privados sin órdenes judiciales. De hecho, Flock enfrenta actualmente una demanda federal en Norfolk, Virginia, que cuestiona estas prácticas.

El destino de los drones en EE. UU. depende, en gran medida, de una regulación clave de la Administración Federal de Aviación (FAA), que establece cómo y dónde pueden volar. Hasta ahora, se requiere un permiso especial para operarlos más allá del alcance visual, lo que busca evitar colisiones y accidentes. Desde 2018, la FAA ha concedido exenciones para rescates, inspecciones y usos policiales, siendo más rápida en aprobar solicitudes de cuerpos de seguridad que de clientes privados.

Diversas industrias, desde el comercio electrónico hasta el transporte médico, han presionado para eliminar este sistema de permisos, argumentando que dificulta el desarrollo del sector. En 2020, el entonces presidente Donald Trump impulsó esta idea mediante una orden ejecutiva para asegurar la “dominación estadounidense en drones”. En agosto, la FAA presentó una nueva propuesta de norma que facilitaría los vuelos más allá de la línea de visión en áreas como entrega de paquetes, agricultura, estudios aéreos y seguridad pública.

Para las empresas y pilotos de drones, la propuesta es una victoria, ya que ampliaría su campo de acción. Sin embargo, organizaciones como la ACLU alertan de que supone un riesgo para la privacidad ciudadana, ya que permitiría la vigilancia persistente de personas, protestas y reuniones sin salvaguardas legales claras. El periodo de comentarios públicos sobre esta norma está abierto hasta el 6 de octubre, y se espera que la versión definitiva se publique en la primavera de 2026.

La manipulación de chatbots puede multiplicar por 12 la exposición de información privada

Zhan, Xiao; Carrillo, Juan-Carlos; Seymour, William; y Such, José. 2025. “Malicious LLM-Based Conversational AI Makes Users Reveal Personal Information.” En Proceedings of the 34th USENIX Security Symposium, USENIX Association.

Texto completo

Un estudio reciente de King’s College London ha puesto de relieve la vulnerabilidad de los chatbots de inteligencia artificial (IA) con apariencia conversacional humana, utilizados por millones de personas en su vida diaria. La investigación demuestra que estos sistemas pueden ser manipulados con relativa facilidad para conseguir que los usuarios revelen mucha más información personal de la que compartirían en un contexto habitual.

Los resultados son especialmente llamativos: cuando los chatbots son diseñados o modificados con intenciones maliciosas, los usuarios llegan a proporcionar hasta 12,5 veces más datos privados que en interacciones normales. Este incremento se logra mediante la combinación de técnicas de ingeniería de prompts —instrucciones específicas que orientan el comportamiento del modelo— y estrategias psicológicas bien conocidas, como la creación de confianza, la apelación emocional o el uso de preguntas aparentemente inocentes que llevan a respuestas más profundas de lo esperado.

El estudio recalca además que no es necesario poseer una alta especialización técnica para lograr esta manipulación. Dado que muchas compañías permiten el acceso a los modelos base que sustentan a sus chatbots, cualquier persona con conocimientos mínimos puede ajustar parámetros y configuraciones para orientar la conversación hacia la obtención de datos sensibles, lo que multiplica el riesgo de un uso indebido.

Las implicaciones son serias. El trabajo de King’s College London alerta sobre la fragilidad de la privacidad en entornos digitales donde la interacción con chatbots se percibe como inofensiva y rutinaria. En contextos como la atención al cliente, el asesoramiento médico o financiero, o incluso el acompañamiento emocional, la posibilidad de que un chatbot manipulado extraiga información confidencial plantea amenazas directas a la seguridad de las personas y a la protección de sus datos.

Ante este escenario, los investigadores subrayan la urgente necesidad de reforzar las medidas de seguridad y protección de datos en los sistemas de IA conversacional. Proponen, entre otras acciones:

  • Desarrollar protocolos de verificación más estrictos sobre el acceso y modificación de modelos base.
  • Implementar mecanismos de detección de manipulación en los propios chatbots.
  • Fomentar la educación digital de los usuarios, para que reconozcan patrones de conversación sospechosos.
  • Establecer regulaciones claras y exigentes que limiten el mal uso de estos sistemas.

En definitiva, el estudio concluye que, aunque los chatbots de IA tienen un enorme potencial para mejorar la interacción humano-máquina, su diseño y despliegue deben ir acompañados de fuertes garantías éticas y técnicas, de lo contrario podrían convertirse en herramientas de explotación de la privacidad a gran escala.

Modelos de IA confiables mediante tecnologías que mejoran la privacidad (PETs)

OECD. 2025. Sharing Trustworthy AI Models with Privacy‑Enhancing Technologies. OECD Artificial Intelligence Papers, no. 38. París: OECD Publishing. https://doi.org/10.1787/a266160b-en.

El documento aborda el papel de las tecnologías que mejoran la privacidad (Privacy-Enhancing Technologies, PETs) en el desarrollo de modelos de IA confiables. Clasifica los usos de estas tecnologías en dos grandes grupos: por un lado, aquellas que permiten mejorar el rendimiento de los modelos sin exponer los datos, como el federated learning, los entornos de ejecución confiables (TEEs) o la computación multipartita segura (SMPC); por otro, tecnologías que posibilitan la creación y compartición confidencial de modelos, como la privacidad diferencial y el cifrado homomórfico. Estas herramientas son fundamentales para proteger la privacidad y la propiedad intelectual, y para fomentar la colaboración en entornos sensibles. El informe señala que, si bien estas tecnologías tienen un gran potencial, no son soluciones mágicas: su utilidad requiere combinaciones cuidadosas y equilibradas, y todavía presentan desafíos en términos de eficiencia y facilidad de uso. Por ello, se recomienda que los gobiernos impulsen su adopción mediante marcos regulatorios flexibles, apoyo a la I+D y espacios de prueba como los regulatory sandboxes.

El uso de tecnologías como trusted execution environments (TEEs), federated learning, y secure multi-party computation para procesar y ensayar datos sin comprometer su confidencialidad. El uso de datos sintéticos y differential privacy ayuda a reducir la dependencia de datos reales. Para colaborar o compartir modelos sin revelar información protegida, se combinan herramientas como MPC, federated learning, HE, TEE y differential privacy. Estas herramientas permiten crear y utilizar modelos manteniendo su confidencialidad y la de sus datos subyacentes.

Aunque prometedoras, las PETs enfrentan retos técnicos —como complejidad, eficiencia, usabilidad y equilibrio entre utilidad y privacidad— y barreras regulatorias o institucionales que dificultan su adopción amplia.

El informe sugiere que los gobiernos fomenten el uso de PETs mediante:

  • Orientaciones y guías reguladoras
  • Regulatory sandboxes para innovación controlada
  • Apoyo a I +D +i
  • Desafíos o concursos para estimular el desarrollo
  • Compras públicas estratégicas
  • Desarrollo de habilidades y competencias institucionales

Impacto de la inteligencia artificial en la vida escolar: datos, riesgos y recomendaciones

Laird, Elizabeth, Madeliene Dwyer y Hugh Grant‑Chapman. Off Task: EdTech Threats to Student Privacy and Equity in the Age of AI. Washington, DC: Center for Democracy & Technology, septiembre de 2023. https://cdt.org/wp-content/uploads/2023/09/091923-CDT-Off-Task-web.pdf

El informe analiza críticamente cómo las tecnologías educativas (edtech), especialmente aquellas impulsadas por inteligencia artificial, están afectando la privacidad y la equidad en el entorno escolar estadounidense. A través de encuestas a estudiantes, familias y docentes de secundaria, se identifica un uso creciente de herramientas de filtrado de contenido, monitoreo estudiantil y plataformas de IA generativa, sin una reflexión adecuada sobre sus implicaciones éticas, sociales y pedagógicas.

Uno de los principales hallazgos es la falta de participación de las comunidades educativas en la toma de decisiones sobre estas tecnologías. Muchos estudiantes y padres expresan preocupación por su uso, pero apenas una minoría ha sido consultada o informada sobre su implementación. Además, el profesorado ha recibido escasa formación, lo que limita su capacidad para aplicar estas herramientas de forma crítica y justa. Esta falta de transparencia y educación crea un entorno donde las decisiones técnicas se imponen sin diálogo, debilitando la confianza en el sistema educativo.

El informe subraya también cómo el filtrado de contenido, aunque pensado para proteger a los estudiantes, a menudo bloquea información legítima y relevante para su aprendizaje. Esto se vuelve especialmente preocupante cuando los filtros restringen temas vinculados a la identidad racial, el género o la orientación sexual, reproduciendo sesgos y excluyendo a estudiantes LGBTQ+ o pertenecientes a minorías. Así, estas herramientas pueden actuar como formas digitales de censura o exclusión.

Resultados:

62 % de los estudiantes y 73 % de los padres/madres están preocupados por el uso de edtech, pero:

Solo 38 % de los estudiantes y 31 % de los padres/madres afirman haber sido consultados por sus escuelas sobre el uso de estas tecnologías.

Casi el 100 % de las escuelas utilizan sistemas de filtrado web.

71 % de los estudiantes informan que estos filtros dificultan sus tareas escolares.

41 % de estudiantes LGBTQ+ reportan tener más dificultades que sus compañeros para acceder a información relevante para su identidad.

39 % de estudiantes afroamericanos afirman que los filtros bloquean contenidos sobre historia o cultura negra.

58 % de los estudiantes han usado herramientas de IA generativa al menos una vez.

24 % han sido sancionados por su uso.

57 % de los docentes no han recibido ninguna formación sobre estas tecnologías.

37 % no sabe si su escuela tiene políticas sobre IA generativa.

Solo 34 % de los docentes han recibido formación sobre privacidad digital en el último año.

El 52 % de los docentes afirman que les cuesta confiar en el trabajo de los estudiantes desde que se empezó a usar IA generativa.

Por otro lado, el monitoreo digital de la actividad estudiantil —incluso fuera del horario escolar y en dispositivos personales— está en aumento. Este tipo de vigilancia genera consecuencias graves: sanciones disciplinarias desproporcionadas, denuncias a las autoridades e incluso situaciones en las que estudiantes LGBTQ+ han sido “sacados del armario” sin su consentimiento. Las medidas de vigilancia no solo afectan la privacidad, sino también el bienestar emocional y la seguridad de los estudiantes más vulnerables.

El uso de inteligencia artificial generativa, como ChatGPT, ha crecido rápidamente en los entornos escolares, pero sin preparación institucional. La mayoría del profesorado no ha recibido formación sobre su uso ni conoce las políticas escolares al respecto. Esto ha llevado a que muchos estudiantes sean sancionados por utilizar estas herramientas, aunque no existan normas claras que regulen su aplicación. Al mismo tiempo, los docentes expresan preocupación por la pérdida de confianza en el trabajo autónomo del alumnado, lo que genera tensiones en la relación educativa.

El informe advierte que estas tecnologías afectan de forma desproporcionada a estudiantes con discapacidades, de bajos ingresos o pertenecientes a colectivos marginados, amplificando desigualdades estructurales. Por ello, no se trata únicamente de un problema de privacidad, sino de una cuestión de derechos civiles y justicia educativa. CDT concluye con una serie de recomendaciones urgentes: establecer marcos normativos claros, formar adecuadamente al personal docente, y garantizar la participación significativa de estudiantes y familias en todas las decisiones relacionadas con la tecnología en las aulas.

Recomendaciones:

Incluir a estudiantes y familias en la toma de decisiones sobre EdTech

  • Involucrar activamente a las comunidades escolares en la evaluación, selección y supervisión de las tecnologías utilizadas en clase.
  • Fomentar la transparencia sobre las herramientas empleadas y sus finalidades.

Revisar políticas de filtrado de contenido

  • Asegurar que los filtros no limiten el acceso a información educativa legítima, especialmente en temas de identidad, salud mental o justicia social.
  • Evitar que los filtros reproduzcan sesgos discriminatorios.

Limitar el monitoreo estudiantil

  • Establecer políticas claras sobre qué se monitorea, cuándo, cómo y por qué.
  • Asegurar que el monitoreo no continúe fuera del horario escolar ni en dispositivos personales sin consentimiento informado.

Crear políticas claras sobre el uso de IA generativa

  • Proporcionar directrices coherentes y accesibles para el alumnado y profesorado sobre cómo se puede o no utilizar la inteligencia artificial generativa.
  • Integrar estas políticas en los planes pedagógicos.

Formar al profesorado

  • Ofrecer formación continua sobre privacidad digital, equidad tecnológica y uso ético de la inteligencia artificial.

La crisis de confianza en la IA: una oportunidad estratégica para las bibliotecas

Rakestraw, Scott. “The AI Trust Crisis.” LinkedIn Pulse, March 22, 2025. https://www.linkedin.com/pulse/ai-trust-crisis-scott-rakestraw-04b2c/

La inteligencia artificial (IA) está transformando diversos sectores, pero la confianza pública en ella ha disminuido, especialmente debido a preocupaciones sobre la privacidad y los deepfakes. Las bibliotecas están adoptando la IA para mejorar sus servicios, pero también enfrentan desafíos en cuanto a privacidad y fiabilidad. Para integrar la IA de manera ética, las bibliotecas deben capacitar a su personal, diseñar programas formativos y asegurar la protección de los datos de los usuarios.

La inteligencia artificial (IA) está transformando todos los sectores, pero la confianza del público en ella está cayendo drásticamente. Según una encuesta de YouGov en marzo de 2025, el escepticismo sobre la IA ha aumentado del 36% al 44% en tres meses, con preocupaciones sobre deepfakes (58%) y privacidad (53%). Sin embargo, su adopción sigue creciendo, con más personas usándola para crear currículums, investigar y desarrollar proyectos creativos.

En España, la percepción pública de la IA es mixta. Según una encuesta del Centro de Investigaciones Sociológicas (CIS), la mayoría de los españoles muestra más preocupación y miedo que optimismo y confianza hacia la IA. Temen que la IA pueda perjudicar el mercado laboral y la creación artística, y abogan por una regulación estricta en su programación y uso. Además, un 93,7% de los encuestados expresa preocupación por la privacidad de sus datos en Internet. A pesar de estas preocupaciones, la adopción de herramientas basadas en IA está en aumento. Casi la mitad de los españoles ha utilizado ChatGPT en el último año, lo que indica una creciente familiaridad con estas tecnologías. Sin embargo, persiste la demanda de transparencia y regulación, con un 92,7% de los ciudadanos considerando que las empresas deben informar cuando utilizan IA

Las bibliotecas no son la excepción. Estas instituciones están adoptando la IA para mejorar la experiencia del usuario, ofreciendo recomendaciones personalizadas, servicios de búsqueda avanzada y gestión eficiente de datos. Sin embargo, este avance también plantea desafíos, como la privacidad de datos y la fiabilidad de la información generada por IA. Las bibliotecas están liderando la alfabetización en IA, capacitando a sus usuarios para interactuar de manera responsable con esta tecnología y preparándolos para el mercado laboral digital del futuro.

En este contexto, las bibliotecas tienen la oportunidad de posicionarse como centros de alfabetización en IA, ayudando a las comunidades a comprender y utilizar esta tecnología de manera informada y ética. Al hacerlo, no solo refuerzan su papel como guardianes del conocimiento, sino que también contribuyen a cerrar la brecha digital y fomentar una sociedad más preparada para los desafíos del futuro.

La implementación de inteligencia artificial (IA) en bibliotecas requiere una estrategia integral que involucre a todos los niveles de la organización. Desde la dirección hasta el personal de atención al público, cada grupo debe asumir un rol clave para garantizar una adopción eficaz y ética de esta tecnología.

Directores y gerentes: Convertir las bibliotecas en centros de alfabetización en IA

Los líderes bibliotecarios tienen la responsabilidad de posicionar sus instituciones como referentes en educación digital y alfabetización en IA. Para lograrlo, es fundamental diseñar programas formativos que ayuden a los usuarios a comprender el impacto de la IA en la sociedad, su funcionamiento y sus riesgos. Además, deben promover la formación del personal para que pueda integrar estas herramientas en los servicios bibliotecarios y fomentar la colaboración con expertos en IA, universidades y otros centros de conocimiento.

Otro aspecto clave es la comunicación con la comunidad. Explicar los beneficios de la IA sin ignorar sus riesgos permitirá que las bibliotecas refuercen su rol como espacios de confianza. También es esencial establecer políticas de uso ético de la IA dentro de la institución, garantizando la protección de los datos personales de los usuarios y la transparencia en los procesos de toma de decisiones.

¿Qué estrategias se recomiendan?

Los líderes bibliotecarios tienen la responsabilidad de posicionar sus instituciones como referentes en educación digital y alfabetización en IA. Para lograrlo, es fundamental diseñar programas formativos que ayuden a los usuarios a comprender el impacto de la IA en la sociedad, su funcionamiento y sus riesgos. Además, deben promover la formación del personal para que pueda integrar estas herramientas en los servicios bibliotecarios y fomentar la colaboración con expertos en IA, universidades y otros centros de conocimiento.

Otro aspecto clave es la comunicación con la comunidad. Explicar los beneficios de la IA sin ignorar sus riesgos permitirá que las bibliotecas refuercen su rol como espacios de confianza. También es esencial establecer políticas de uso ético de la IA dentro de la institución, garantizando la protección de los datos personales de los usuarios y la transparencia en los procesos de toma de decisiones.

Los equipos de tecnología desempeñan un papel crucial en la integración de la IA en las bibliotecas. Deben evaluar la infraestructura actual para identificar las mejoras necesarias para la implementación de herramientas basadas en IA. Esto implica analizar la capacidad de los sistemas de gestión bibliotecaria, la interoperabilidad con otras plataformas y la seguridad de los datos almacenados.

Otro aspecto clave es la estandarización de la integración de IA en los servicios bibliotecarios. Definir protocolos claros garantizará un uso eficiente y responsable de la tecnología. Además, es fundamental fortalecer la gobernanza de datos, estableciendo mecanismos para proteger la privacidad de los usuarios y evitar sesgos en los algoritmos utilizados.

Para que estos cambios sean efectivos, los equipos tecnológicos también deben trabajar en conjunto con otros departamentos, asegurando que la implementación de la IA esté alineada con los objetivos estratégicos de la biblioteca y responda a las necesidades reales de los usuarios.

El personal de atención al público es el primer punto de contacto con los usuarios y, por lo tanto, debe estar preparado para responder preguntas sobre IA, orientar en el uso de nuevas herramientas y recopilar comentarios sobre las experiencias de los visitantes. Para ello, es esencial que reciban formación continua sobre inteligencia artificial, tanto en sus aplicaciones prácticas como en sus implicaciones éticas y sociales.

Además, este equipo puede desempeñar un papel activo en la promoción del pensamiento crítico en relación con la IA. A través de talleres, clubes de lectura especializados y actividades interactivas, pueden ayudar a los usuarios a comprender cómo la inteligencia artificial influye en la información que consumen y en su vida cotidiana.

Por último, el personal debe actuar como un puente entre los usuarios y los equipos directivos y tecnológicos, transmitiendo sus inquietudes y sugerencias para mejorar la implementación de IA en la biblioteca. Esta retroalimentación es clave para adaptar los servicios a las necesidades del público y garantizar que la tecnología se utilice de manera inclusiva y accesible para todos.

Normas ISO sobre Inteligencia Artificial

International Organization for Standardization. ISO/IEC 22989:2022: Information Technology—Artificial Intelligence—Artificial Intelligence Concepts and Terminology. International Organization for Standardization. Última modificación el 2022. https://www.iso.org/es/contents/data/standard/07/42/74296.html

International Organization for Standardization. ISO/IEC 23894:2023: Artificial Intelligence — Guidance on Risk Management. International Organization for Standardization. Última modificación en 2023. https://www.iso.org/es/contents/data/standard/07/73/77304.html

La norma ISO/IEC 22989:2022, titulada «Tecnologías de la información — Inteligencia artificial — Conceptos y terminología de inteligencia artificial», establece una terminología común y describe los conceptos fundamentales en el ámbito de la inteligencia artificial (IA). Esta norma, publicada en julio de 2022, tiene como objetivo facilitar la comunicación entre diversos actores, incluyendo empresas, investigadores y organismos reguladores, proporcionando un lenguaje común que mejore la comprensión y la interoperabilidad en el desarrollo y uso de sistemas de IA.

Principales aspectos de la ISO/IEC 22989:2022:

  1. Definición de conceptos clave: La norma aborda una amplia gama de términos relacionados con la IA, tales como:
    • Tipos de IA: Diferencia entre IA general (capaz de realizar múltiples tareas como un humano) e IA estrecha (diseñada para tareas específicas).
    • Aprendizaje automático (Machine Learning): Explica métodos como aprendizaje supervisado, no supervisado, por refuerzo y transferencia de aprendizaje.
    • Redes neuronales: Introduce términos como perceptrón, redes neuronales convolucionales (CNN) y redes neuronales recurrentes (RNN).
    • Confiabilidad de la IA: Aborda factores como sesgo algorítmico, explicabilidad, transparencia y controlabilidad.
    • Ciclo de vida de los sistemas de IA: Desde el diseño y desarrollo hasta la operación y monitoreo continuo.
  2. Facilitación de la interoperabilidad: Al establecer un marco de referencia común, la norma promueve la interoperabilidad entre diferentes tecnologías y sistemas de IA, lo que es esencial en un entorno tecnológico diverso y en constante evolución. iso.org
  3. Mejora de la transparencia y confianza: Proporcionar definiciones claras y consistentes ayuda a mejorar la transparencia en los sistemas de IA, lo que a su vez aumenta la confianza de los usuarios y facilita la adopción ética y responsable de estas tecnologías.
  4. Aplicaciones prácticas: La norma es aplicable a una amplia gama de organizaciones, incluyendo empresas comerciales, agencias gubernamentales y organizaciones sin fines de lucro. Su adopción puede beneficiar a sectores como el desarrollo de asistentes virtuales, sistemas de detección de fraudes y otras aplicaciones de IA, permitiendo a las organizaciones tomar decisiones más informadas y alineadas con las mejores prácticas internacionales. iso.org

La ISO/IEC 22989:2022 es una herramienta esencial para profesionales y organizaciones involucradas en el desarrollo, implementación y regulación de sistemas de IA. Su adopción contribuye a la construcción de sistemas más confiables, eficientes y éticamente alineados, promoviendo una mayor comprensión y colaboración en el campo de la inteligencia artificial.

La norma ISO/IEC 23894, titulada Artificial Intelligence — Guidance on Risk Management, publicada en 2023 proporciona directrices sobre cómo gestionar los riesgos asociados con la inteligencia artificial (IA). Se enfoca en la identificación, evaluación y mitigación de riesgos en el ciclo de vida de los sistemas de IA, incluyendo aspectos éticos, operativos y de seguridad. La norma busca asegurar que las organizaciones adopten prácticas responsables para minimizar los impactos negativos de la IA, fomentando una implementación más segura y confiable de estas tecnologías.

Una colación de defensores de la privacidad demanda al «Departamento de Eficiencia Gubernamental» (DOGE) y a Elon Musk por poner en peligro la intimidad de millones de personas

Electronic Frontier Foundation. «EFF Sues OPM, DOGE, and Musk for Endangering the Privacy of MillionsElectronic Frontier Foundation, 11 de febrero de 2025. https://www.eff.org/press/releases/eff-sues-opm-doge-and-musk-endangering-privacy-millions

La EFF y una coalición de defensores de la privacidad liderada por Lex Lumina han presentado una demanda solicitando a un tribunal federal que impida a la Oficina de Gestión de Personal (OPM) de Estados Unidos revelar información privada y sensible de millones de estadounidenses a Elon Musk y su «Departamento de Eficiencia Gubernamental» (DOGE).

Electronic Frontier Foundation (EFF) y una coalición de defensores de la privacidad acaban de presentar una demanda en la que solicitan a un tribunal federal que bloquee al Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk el acceso a la información privada de millones de estadounidenses que almacena la Oficina de Gestión de Personal (OPM), y que elimine cualquier dato que se haya recopilado o eliminado hasta el momento. En la demanda también se nombra a la OPM y se pide al tribunal que impida que la OPM siga compartiendo datos con la DOGE.

Parte de la carta dice:

«Hola Partidario de la Libertad Digital:
No aceptaremos el saqueo descarado de los datos sensibles de millones de personas.

Nuestro caso es bastante sencillo: Los datos de la OPM son extraordinariamente sensibles, la OPM se los dio al DOGE, y esto viola la Ley de Privacidad de 1974.

Por tus derechos digitales,

Corynne McSherry
Directora Jurídica de la EFF»

Los registros de la OPM son una de las mayores, si no la mayor, recopilación de datos de empleados en los EE.UU. Con nuestro co-abogado Lex Lumina, State Democracy Defenders Fund, y Chandra Law Firm, representamos a empleados federales actuales y antiguos cuya privacidad ha sido violada.

Este enorme tesoro de información incluye datos demográficos privados e historiales laborales de prácticamente todos los empleados y contratistas federales actuales y anteriores, así como de los solicitantes de empleo federal. La semana pasada, un juez federal bloqueó temporalmente el acceso del DOGE a un sistema crítico de pagos del Tesoro de EE.UU. en virtud de una demanda similar. Estas violaciones de la privacidad de los datos no deben permitirse.

¿Y ahora qué?

La cuestión no es «qué pasa si estos datos caen en malas manos». Los datos ya han caído en manos equivocadas, según la ley, y deben salvaguardarse inmediatamente. Las violaciones de la privacidad de los estadounidenses se han producido en múltiples agencias, sin supervisión ni salvaguardias, y la EFF se complace en unirse a la brigada de demandas para proteger esta información crítica.

Esto es sólo el principio de lo que puede ser una lucha difícil. Pero la EFF no es ajena a los adversarios duros. Con el apoyo de nuestros miembros, hemos defendido los derechos de los usuarios de tecnología en cientos de casos para proteger su libertad en línea. Me enorgullece estar a tu lado por el futuro de la privacidad, la libertad de expresión y la creatividad.