Archivo de la etiqueta: Privacidad

Las alucinaciones de ChatGPT provocan una queja de privacidad de la UE

«ChatGPT’s Hallucinations Draw EU Privacy Complaint», POLITICO 29 de abril de 2024. https://www.politico.eu/article/chatgpts-hallucinations-get-eu-privacy-complaint/.

El «alucinar» de ChatGPT y la invención de información vulneran las normas de privacidad de la Unión Europea, según una queja presentada por el grupo de privacidad noyb ante la autoridad de protección de datos de Austria. El grupo de privacidad noyb exige que los reguladores inicien una investigación sobre la conjetura salvaje de ChatGPT sobre la fecha de nacimiento de uno de sus activistas.

Noyb, una organización sin fines de lucro con sede en Viena fundada por el activista Max Schrems, afirmó que su queja fue desencadenada por el fracaso de ChatGPT en proporcionar la fecha de nacimiento correcta de Schrems, haciendo una conjetura en su lugar. El chatbot no informa a los usuarios que no tiene los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es un dato personal según el GDPR, que establece varios requisitos sobre cómo se debe manejar la información personal.

Noyb afirma que el comportamiento del chatbot viola el Reglamento General de Protección de Datos (GDPR) en cuanto a privacidad, exactitud de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no revelará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE, cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogada de protección de datos de noyb.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales, no al revés», dijo.

El New York Times informó anteriormente que «los chatbots inventan información al menos el 3 por ciento de las veces, y hasta el 27 por ciento».

POLITICO también preguntó a ChatGPT sobre la fecha de nacimiento de Schrems y obtuvo tres respuestas diferentes: 24 de junio, 17 de septiembre y 17 de octubre. El cumpleaños de Schrems es en realidad el 1 de octubre, según noyb.

Noyb ahora está pidiendo a la autoridad austriaca que investigue a OpenAI para verificar la exactitud de los datos personales que maneja para alimentar sus grandes modelos de lenguaje. También solicitan a la autoridad que garantice que la empresa cumpla con la solicitud del demandante de acceder a sus propios datos personales.

El grupo de privacidad también pide una «multa administrativa efectiva, proporcionada y disuasiva». «Por ahora, OpenAI parece ni siquiera pretender que puede cumplir con el GDPR de la UE», dijo. Violaciones del GDPR de la UE pueden resultar en una multa de hasta el 4 por ciento de los ingresos globales de una empresa.

Noyb dijo que cualquier investigación regulatoria probablemente se manejaría «a través de la cooperación de la UE». La base de OpenAI en la UE está en Irlanda y los reguladores de privacidad irlandeses pueden ser sus supervisores principales.

La autoridad austriaca confirmó que recibió la queja y dijo que evaluará si necesita ser remitida a otra autoridad nacional. OpenAI no estuvo disponible de inmediato para hacer comentarios.

El pionero de la IA está enfrentando presiones de otros reguladores europeos. La autoridad de protección de datos de Italia prohibió temporalmente a ChatGPT el año pasado operar en el país debido a la presunta violación de las normas de la UE para el manejo de datos personales.

La Junta Europea de Protección de Datos (EDPB), que reúne a los reguladores nacionales de privacidad, luego estableció un grupo de trabajo sobre ChatGPT para coordinar los esfuerzos nacionales.

Regulación de la inteligencia artificial en bibliotecas: desarrollo de políticas y cumplimiento legal

Tanzi, Nick. «AI & the Library: Looking for Rules!» The Digital Librarian, 21 de agosto de 2023. https://the-digital-librarian.com/2023/08/21/ai-the-library-looking-for-rules/.

En la era de la inteligencia artificial, las bibliotecas deben establecer políticas que regulen su uso, considerando tanto las leyes existentes como los términos de servicio de los desarrolladores. Aunque la regulación específica sobre IA es incipiente, las normativas bibliotecarias sobre confidencialidad de registros de usuarios son relevantes. Es esencial garantizar la privacidad de los usuarios y cumplir con la ley al interactuar con sistemas de IA. Además, se destacan eventos y recursos para bibliotecarios interesados en esta área.


En la era de la inteligencia artificial, es crucial que las bibliotecas desarrollen políticas y procedimientos que regulen el uso de esta tecnología en nuestras instituciones. Dos pilares fundamentales al escribir estas políticas son las leyes federales/estatales/locales y los términos de servicio de los fabricantes o desarrolladores. Aunque la regulación legal específica sobre IA aún está en sus primeras etapas en Estados Unidos, existen leyes y regulaciones bibliotecarias que debemos considerar, como las relacionadas con la confidencialidad de los registros de los usuarios. Es esencial garantizar que nuestras interacciones con sistemas de IA no comprometan la privacidad de los usuarios ni contravengan la ley existente.

Al considerar los términos de servicio de una plataforma de IA, es crucial tener en cuenta las restricciones de edad y el consentimiento parental que pueden afectar a los servicios ofrecidos por la biblioteca. Aunque la regulación de la IA puede ser incipiente, hay reglas y regulaciones establecidas en el ámbito bibliotecario que podemos aplicar a esta tecnología emergente. Es importante desarrollar políticas y procedimientos adecuados y luego experimentar de manera segura con la IA en nuestras bibliotecas. Por ejemplo, en Nueva York, la Ley y Reglas de Práctica Civil del Estado de Nueva York (CPLR) 4509 establece que los registros de la biblioteca deben ser confidenciales y no deben divulgarse, excepto en circunstancias específicas.


Es importante tener en cuenta los términos de servicio (ToS) de una plataforma de inteligencia artificial al tomar decisiones en su biblioteca. Por ejemplo, la regulación de la plataforma ChatGPT de OpenAI en relación con la ley estatal existente indica que los usuarios deben tener al menos 13 años para utilizar el servicio, y que aquellos menores de 18 años necesitan el consentimiento de un padre o tutor legal.

Aunque estemos operando en un vacío regulatorio de IA, está claro que existen reglas y regulaciones establecidas en las bibliotecas que podemos aplicar a esta tecnología emergente. Así que salgan y hagan el importante y necesario trabajo de desarrollo de políticas y procedimientos, luego experimenten de manera segura.

IA generativa y derechos humanos

Walsh, D. «Where Generative AI Meets Human Rights», 3 de abril de 2024. https://hai.stanford.edu/news/where-generative-ai-meets-human-rights.


En el debate sobre el cruce entre la inteligencia artificial generativa y los derechos humanos, expertos de diversas áreas han abordado las implicaciones únicas de esta tecnología y cómo canalizar su potencial para beneficiar a la humanidad. Se destacan preocupaciones sobre la opacidad y el potencial uso indebido de la IA generativa, así como la necesidad de una regulación inclusiva y transparente.

Desde el lanzamiento de ChatGPT por parte de OpenAI en noviembre de 2022, la inteligencia artificial generativa ha adquirido un papel central en la esfera pública y privada en menos de 18 meses. Esta tecnología ha sido objeto de discusión entre responsables políticos, economistas, científicos sociales, padres, maestros e inversores, y se ha destacado en eventos como «Human Rights Dimensions of Generative AI,», organizado por el Centro de Derechos Humanos y Justicia Internacional.

El Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Volker Türk, ha señalado los impactos sin precedentes de la inteligencia artificial avanzada, incluida la generativa, en los derechos humanos. Se destaca la necesidad de colocar a las personas en el centro de la tecnología para garantizar que los beneficios de la inteligencia artificial lleguen a todos. La discusión contó con la participación de expertos como Eileen Donahoe del Departamento de Estado de EE. UU., Alex Walden de Google, Peggy Hicks de la Oficina de Derechos Humanos de la ONU, Nate Persily de la Facultad de Derecho de Stanford y Raffi Krikorian de Emerson Collective.

La inteligencia artificial plantea desafíos únicos, como ser una tecnología fundamental que afecta a todas las demás, siendo más opaca y menos predecible. A pesar de su potencial para democratizar el acceso, la disponibilidad de algoritmos de código abierto ha generado preocupaciones sobre su uso indebido, como en el caso de la proliferación de pornografía infantil generada por IA.

Los panelistas expresaron preocupaciones sobre la capacidad de la sociedad y los responsables políticos para mantenerse al día con el rápido avance de la tecnología, así como sobre la regulación insuficiente en áreas donde es más probable que ocurran violaciones de derechos humanos. También se destacó el riesgo de que la desinformación generada por IA socave la confianza en la información verídica.

La regulación efectiva de la inteligencia artificial generativa debe incorporar consideraciones de derechos humanos y fomentar la transparencia en estas herramientas. Además, se enfatiza la importancia de la participación inclusiva en la elaboración de políticas y la necesidad de abordar los desafíos con matices en lugar de una visión polarizada.

A pesar de los desafíos planteados, los expertos mantienen una actitud optimista pero cautelosa sobre el futuro de la inteligencia artificial generativa y su impacto en los derechos humanos. Sin embargo, subrayan la necesidad de abordar los problemas actuales de la sociedad, como las divisiones sociales, para garantizar un desarrollo tecnológico que beneficie a todos.

Hacia una infraestructura nacional de datos del siglo XXI: Gestión de los riesgos de privacidad y confidencialidad con datos combinados

Reiter, Jerome P., y Jennifer Park, eds. Toward a 21st Century National Data Infrastructure: Managing Privacy and Confidentiality Risks with Blended Data. Washington, D.C.: National Academies Press, 2024. https://doi.org/10.17226/27335.

Proteger la privacidad y garantizar la confidencialidad de los datos es un componente crítico de la modernización de nuestra infraestructura nacional de datos. El uso de datos combinados -que combinan fuentes de datos recogidas previamente- plantea nuevas consideraciones para la gestión responsable de los datos. Hacia una infraestructura nacional de datos del siglo XXI: Managing Privacy and Confidentiality Risks with Blended Data proporciona un marco para la gestión de los riesgos de divulgación que tiene en cuenta los atributos únicos de los datos combinados y plantea una serie de preguntas para orientar la toma de decisiones.

Los enfoques técnicos para gestionar el riesgo de divulgación han avanzado. La legislación, la reglamentación y las orientaciones federales recientes han descrito ampliamente las funciones y responsabilidades de la administración de los datos combinados. El informe, basado en la revisión de los enfoques técnicos y políticos realizada por el panel, aborda estas oportunidades emergentes y los nuevos retos y responsabilidades que plantean. El informe subraya que las compensaciones entre los riesgos de divulgación, los perjuicios de la divulgación y la utilidad de los datos son inevitables y constituyen consideraciones centrales a la hora de planificar las estrategias de divulgación de datos, especialmente en el caso de los datos combinados.

El problema de privacidad de la inteligencia artificial generativa

Fried, Ina. «Generative AI Has a Growing Privacy Problem». Axios, 14 de marzo de 2024. https://www.axios.com/2024/03/14/generative-ai-privacy-problem-chatgpt-openai.

La privacidad se está convirtiendo en el próximo campo de batalla en el debate sobre la inteligencia artificial, incluso mientras continúan los conflictos sobre derechos de autor, precisión y sesgo.

Por qué es importante: Los críticos sostienen que los modelos de lenguaje grandes están recopilando y, frecuentemente, revelando información personal recopilada de toda la web, muchas veces sin el permiso de las personas involucradas.

El panorama general: Muchas empresas han empezado a desconfiar del uso de información patentada por parte de ejecutivos y empleados para consultar a ChatGPT y otros bots de inteligencia artificial, ya sea prohibiendo tales aplicaciones o optando por versiones pagas que mantienen la información comercial privada.

A medida que más personas utilizan la IA para buscar consejos sobre relaciones, información médica o asesoramiento psicológico, los expertos dicen que los riesgos para los individuos están aumentando. Las filtraciones de datos personales desde la IA pueden tomar varias formas, desde la divulgación accidental de información hasta la obtención de datos mediante esfuerzos deliberados para superar las protecciones.

La noticia destacada: Se han presentado varias demandas buscando el estatus de acción de clase en los últimos meses, alegando que Google, OpenAI y otros han violado las leyes federales y estatales de privacidad en la capacitación y operación de sus servicios de IA.

La FTC emitió una advertencia en enero de que las empresas tecnológicas tienen la obligación de cumplir con sus compromisos de privacidad mientras desarrollan modelos de IA generativa. «Con la IA, hay una gran fiebre por los datos, y estas empresas están recopilando cualquier dato personal que puedan encontrar en Internet,» dijo a Axios el profesor de derecho de la Universidad George Washington, Daniel J. Solove.

Los riesgos van mucho más allá de la simple divulgación de piezas discretas de información privada, argumenta Timothy K. Giordano, socio de Clarkson Law Firm, que ha presentado varios juicios por privacidad y derechos de autor contra empresas de IA generativa.

Entre líneas: Si bien la IA está creando nuevos escenarios, Solove señala que muchos de estos problemas de privacidad no son nuevos.

«Muchos de los problemas de IA son exacerbaciones de problemas existentes que la ley no ha tratado bien,» dijo Solove a Axios, señalando la falta de protecciones federales de privacidad en línea y los defectos en las leyes estatales que sí existen. «Si tuviera que calificarlas, serían como D y F», dijo Solove. «Son muy débiles.» El panorama general: Las capacidades únicas de la IA generativa plantean preocupaciones más grandes que la simple agregación común de información personal vendida y distribuida por corredores de datos.

Además de compartir datos específicos, las herramientas de IA generativa pueden establecer conexiones o inferencias (precisas o no), dijo Giordano a Axios.

Esto significa que las empresas tecnológicas ahora tienen, en palabras de Giordano, «un entendimiento escalofriantemente detallado de nuestra personalidad, suficiente para crear finalmente clones digitales y deepfakes que no solo se parecerían a nosotros, sino que también podrían actuar y comunicarse como nosotros».

Crear IA que respete la privacidad de los datos es complicado por cómo funcionan los sistemas de IA generativa.

Por lo general, se entrenan con conjuntos enormes de datos que dejan una especie de huella de probabilidad en el modelo, pero no guardan o almacenan los datos después. Eso significa que no se puede simplemente eliminar la información que se ha tejido. «No se puede desentrenar a la IA generativa,» dijo Grant Fergusson, un compañero del Electronic Privacy Information Center. «Una vez que el sistema ha sido entrenado en algo, no hay forma de revertirlo.»

Realidad: Muchos editores en línea y empresas de IA han agregado lenguaje que indica que los datos de los clientes pueden ser utilizados para entrenar modelos futuros.

En algunos casos, las personas tienen la opción de elegir no permitir que sus datos se utilicen para el entrenamiento de IA, aunque estas políticas varían y la configuración para compartir datos puede ser confusa y difícil de encontrar. Además, incluso cuando los usuarios ofrecen consentimiento, podrían estar compartiendo datos que podrían afectar la privacidad en línea de otros.

El otro lado: Un representante de OpenAI dijo a Axios que la empresa no busca datos personales para entrenar sus modelos y toma medidas para evitar que sus modelos revelen información privada o sensible. «Queremos que nuestros modelos aprendan sobre el mundo, no sobre individuos privados», dijo un portavoz de OpenAI a Axios. «También entrenamos a nuestros modelos para que se nieguen a proporcionar información privada o sensible sobre las personas». La empresa dijo que su política de privacidad describe opciones para que las personas eliminen cierta información y opten por no participar en el entrenamiento de modelos.

¿Qué sigue?: Los reguladores intentarán hacer cumplir las leyes de privacidad existentes en el nuevo ámbito de la IA, los legisladores propondrán nuevos proyectos de ley y los tribunales lidiarán con dilemas novedosos. Las empresas de IA podrían hacer más por sí mismas, pero Solove dijo que esperar que las empresas protejan la privacidad sin que se lo exija la ley probablemente sea poco realista. «Es como decirle a los tiburones: ‘Por favor, siéntense y usen cubiertos'», dijo Solove.

Directrices de la UNESCO para la Gobernanza de Plataformas Digitales

Guidelines for the governance of digital platforms: safeguarding freedom of expression and access to information through a multi-stakeholder approach | UNESCO. (2023).

Texto completo


La UNESCO tiene como objetivo garantizar que la libertad de expresión, el acceso a la información y la diversidad de contenido cultural estén plenamente garantizados para todos, mientras que diversos actores, incluidos los Estados miembros, abordan los problemas de desinformación, información errónea y discurso de odio en línea. Estos problemas se abordarán de manera más efectiva, de acuerdo con el derecho internacional de los derechos humanos, mediante la implementación integral y coherente de las Directrices de la UNESCO.

Los datos de los usuarios de la British Library robados en el ciberataque se ofrecen en un sitio de subastas en la dark web por 600.000 libras esterlinas

Lyon, J. (2023, noviembre 21). Data stolen from the British Library is being auctioned for bitcoin on the dark web. Protos. https://protos.com/data-stolen-from-the-british-library-is-being-auctioned-for-bitcoin-on-the-dark-web/

La British Library, se enfrenta a una crisis cibernética tras un ataque de ransomware. Aunque el edificio y los libros físicos permanecen, el acceso a la información y la conexión entre lectores y materiales se ha visto comprometida. Este incidente destaca la fragilidad de las instituciones que nos conectan y protegen, subrayando la importancia del trabajo que hacen posible.

En Halloween de 2023, la Biblioteca Británica (BL) de Londres sufrió un ciberataque masivo, que dejó su presencia en la web inexistente, su acceso a las colecciones desactivado e incluso su wifi colapsó. El ciberataque también puso en manos de un tercero los datos personales de los usuarios y del personal de la BL. Durante la última semana de noviembre, se presentaron imágenes de los datos robados para su subasta en la web oscura, a la venta a quien estuviera dispuesto a pagar 20 bitcoin, o unas 600.000 libras esterlinas. Al convertir la infraestructura digital de la biblioteca en una mercancía (en un mercado abierto, aunque oscuro), una «banda de ransomware» autodenominada Rhysida espera presionar a la Biblioteca Británica para que pague primero. Los datos privados, que incluyen detalles de pasaportes y documentos de empleo de HMRC. Según The Register, el grupo de ransomware detrás del ataque, Rhysida, ya ha recibido una oferta inicial de 20 bitcoins, con un valor aproximado de $745,000. TechCrunch también afirma que Rhysida amenazó con publicar los datos a menos que se pagara un rescate por parte de la Biblioteca Británica. Un asesor de ciberseguridad global de ESET le dijo a The Register que Rhysida probablemente «no ha recibido el rescate» y «ahora está llevando a cabo la siguiente fase del ataque amenazando con liberar los datos».

«Con solo 7 días en el reloj, aprovecha la oportunidad para ofertar por datos exclusivos, únicos e impresionantes», dice el anuncio de Rhysida. «Abre tus billeteras y prepárate para comprar datos exclusivos. Vendemos solo a una mano, sin revender, serás el único propietario».

La Biblioteca Británica reveló por primera vez las interrupciones a fines de octubre antes de confirmar que fue víctima de un ataque de ransomware el 14 de noviembre. El ataque causó varias interrupciones técnicas importantes, incluida la inutilización del sitio web de la biblioteca. Actualmente, el sitio aún está fuera de servicio, y la biblioteca está publicando actualizaciones en X (anteriormente Twitter).

Esta semana, afirmó: «No tenemos evidencia de que los datos de nuestros usuarios hayan sido comprometidos». Dijo que cualquier persona con una cuenta de la Biblioteca Británica que use una contraseña compartida con otras cuentas debería cambiar esa contraseña en todas partes.

El ataque de ransomware ha expuesto la vulnerabilidad de la institución y sus personas, quienes están dedicadas a proporcionar el derecho humano básico a la información. En última instancia, el incidente destaca que cualquier intento de cuantificar el valor del conocimiento en cualquier moneda, ya sea bitcoin u otra, fracasará. La historia sirve como recordatorio de la fragilidad de las instituciones que nos conectan y protegen, así como de la importancia del trabajo que hacen posible.

Los libros electrónicos se están convirtiendo rápidamente en herramientas de vigilancia de los lectores

Bounds, Lia Holland and Jade Pfaefflin. 2023. «E-Books Are Fast Becoming Tools of Corporate Surveillance». Fast Company. 12 de diciembre de 2023. https://www.fastcompany.com/90996547/e-books-are-fast-becoming-tools-of-corporate-surveillance.

Mientras Internet Archive apela una decisión judicial que bloquea alternativas a las licencias de libros digitales sujetas a vigilancia, un nuevo informe revela que la editorial más grande del mundo puede estar vendiendo datos personales íntimos de sus lectores al mejor postor.

Tres de cada diez estadounidenses leen libros digitales. Ya sea que estén accediendo a libros de texto en línea o consultando el último e-book más vendido de la biblioteca pública, la mayoría de estos lectores están sujetos tanto a la codicia de las grandes editoriales como a las prioridades de las grandes empresas tecnológicas. De hecho, Kindle de Amazon tenía el 72% del mercado de lectores electrónicos en 2022. Y si hay algo que sabemos sobre las grandes empresas tecnológicas como Amazon, su verdadero producto no es el libro, sino los datos del usuario.

Las principales editoriales están dando carta blanca a las grandes empresas tecnológicas para observar lo que lees y dónde, incluyendo libros sobre temas sensibles, como si tomaras un libro de autocuidado después de un aborto. Peor aún, las corporaciones tecnológicas y editoriales están recogiendo datos más allá de tus hábitos de lectura; hoy en día, no hay leyes federales que los detengan de vigilar a personas que leen libros digitales en todo Internet.

La vigilancia de los lectores es una amenaza profundamente interseccional, según una carta del Congreso emitida la semana pasada por una coalición de grupos cuyos intereses abarcan derechos civiles, contra la vigilancia, contra la prohibición de libros, justicia racial, justicia reproductiva, LGBTQ+, inmigrantes y antimonopolio. La carta insta a los legisladores federales a investigar los daños del poderoso control de las corporaciones tecnológicas y editoriales sobre el acceso a libros digitales.

Esta investigación es un primer paso esencial para revivir el derecho a leer sin temor a que tus intereses se utilicen en tu contra. Porque, lamentablemente, ese derecho está en cuidados intensivos cuando se trata de libros digitales.

En este momento, hay un esfuerzo concertado por parte de legisladores antiaborto y vigilantes para descubrir quiénes están obteniendo o apoyando un aborto, y los recolectores de datos ya han sido demandados por compilar datos de visitantes a centros de salud reproductiva. Pero aún no hay protecciones federales significativas de la privacidad de los datos para detener el flujo de datos personales íntimos.

Amenazas al estilo de «1984» tejidas en la vida cotidiana de las personas son particularmente insidiosas. La persona promedio que busca un aborto no sabe cómo navegar de manera segura en un estado de vigilancia, y saber que pueden estar siendo vigiladas lleva a que las personas no accedan a la atención reproductiva o de aborto que necesitan, que no busquen el apoyo mental y emocional que requieren y que pospongan la atención hasta más avanzado en un embarazo no deseado. Todas estas elecciones ponen en peligro a la persona embarazada.

En la era de la inteligencia artificial, la capacidad para analizar datos detallados de manera insondable sobre individuos, crear informes e inferencias sobre esas personas y usar todo eso para entrenar modelos de IA está mejorando constantemente. Los incentivos para explotar los datos de los lectores son los más fuertes que jamás hayan sido.

Las grandes editoriales claramente no ven más que signos de dólar mientras aplicaciones como Hoopla recogen datos vinculados a la identidad de los lectores. Entonces, sería natural depositar nuestra esperanza en las bibliotecas públicas, que ven la privacidad del usuario como un derecho fundamental esencial para una democracia funcional. En la comunidad de derechos humanos, la resistencia de las bibliotecas contra la vigilancia gubernamental bajo la Ley PATRIOT es legendaria.

Desafortunadamente, las grandes editoriales han demandado para evitar que las bibliotecas presten libros digitales libres de vigilancia, ganando un fallo en un tribunal inferior que la organización sin fines de lucro Internet Archive apelará antes de que termine el año. A menos que ese fallo sea anulado o se aprueben nuevas leyes, las bibliotecas no tienen otra alternativa que licenciar libros digitales que probablemente estén llenos de programas espías.

Sabemos menos sobre la vigilancia en las bibliotecas públicas porque, según un informe de noviembre de la Coalición de Publicaciones Académicas y Recursos Académicos, las grandes editoriales han sido cada vez más astutas en cuanto a privacidad y vigilancia en sus contratos con las bibliotecas. Esto es un juego directo del manual del Sillicon Valley: ocultar mal comportamiento con enlaces externos no responsables o acuerdos de no divulgación que prohíben a las bibliotecas advertir a sus usuarios.

Sin leyes para detenerlos, es razonable esperar que aplicaciones populares de bibliotecas como Hoopla y Libby estén ocultando un comportamiento similar detrás de cortinas legales. Ya se ha documentado bien lo absurdo de la recopilación de datos de Amazon Kindle y es una fuente del poder monopsonístico general de Amazon en el mercado de libros.

Con las bibliotecas enfrentando la aniquilación legal desde todos los lados si intentan crear espacios libres de vigilancia para libros digitales, el futuro de la lectura está en la última hora. Los legisladores deben lanzar de inmediato una investigación para proteger no solo a los pacientes de aborto, sino a todos los lectores en todo el país.

Principios para unas tecnologías de IA generativa responsables, fiables y que protejan la intimidad

Canada, Office of the Privacy Commissioner of. 2023. «Principles for Responsible, Trustworthy and Privacy-Protective Generative AI Technologies». 7 de diciembre de 2023. https://www.priv.gc.ca/en/privacy-topics/technology/artificial-intelligence/gd_principles_ai/.

En el contexto general de los avances continuos en las tecnologías de inteligencia artificial, una versión de la tecnología ha experimentado un desarrollo particularmente rápido, una proliferación de casos de uso y un aumento en la adopción en los últimos tiempos: la inteligencia artificial generativa. La inteligencia artificial generativa es un subconjunto del aprendizaje automático en el que los sistemas se entrenan en conjuntos masivos de información, a menudo incluyendo información personal, para generar contenido como texto, código informático, imágenes, video o audio en respuesta a una solicitud del usuario. Este contenido es probabilístico y puede variar incluso en respuesta a múltiples usos de solicitudes similares.

Las autoridades en múltiples campos en todo el mundo están reconociendo los riesgos potenciales planteados por esta tecnología, como se evidencia en la declaración conjunta de las autoridades de protección de datos y privacidad del G7 en junio de 2023 sobre las tecnologías de inteligencia artificial generativa, la Declaración de los líderes del G7 en noviembre de 2023 que incluyó principios rectores y un código de conducta para organizaciones que desarrollan sistemas de inteligencia artificial avanzados, y la resolución de la Asamblea Global de Privacidad en octubre de 2023 sobre sistemas de inteligencia artificial generativa. El Comisionado de Privacidad de Canadá (OPC) y sus homólogos en Columbia Británica, Quebec y Alberta también tienen una investigación abierta relacionada con un servicio específico de inteligencia artificial generativa. Las autoridades de privacidad de todo el mundo han instado recientemente a las organizaciones a ejercer gran precaución antes de recopilar información personal «accesible públicamente», que aún está sujeta a leyes de protección de datos y privacidad en la mayoría de las jurisdicciones. Esta práctica es común al entrenar sistemas de inteligencia artificial generativa. Las autoridades de privacidad también han estado trabajando con sus homólogos en campos relacionados, como los comisionados de derechos humanos, para pedir fuertes salvaguardias que aseguren que los sistemas de inteligencia artificial sean seguros, protectores de la privacidad, transparentes, responsables y afirmativos de los derechos humanos .

Si bien las herramientas de inteligencia artificial generativa pueden plantear riesgos novedosos para la privacidad y plantear nuevas preguntas e inquietudes sobre la recopilación, uso y divulgación de información personal, no se encuentran fuera de los marcos legislativos actuales. Las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa tienen la obligación de garantizar que sus actividades cumplan con las leyes y regulaciones de privacidad aplicables en Canadá. Las organizaciones también deben reconocer que, para construir y mantener una sociedad digital en la que la innovación sea socialmente beneficiosa y la dignidad humana esté protegida, el desarrollo y uso de la inteligencia artificial deben ser responsables y confiables.

En este documento, se identifican consideraciones para la aplicación de los principios clave de privacidad a las tecnologías de inteligencia artificial generativa. Reconocemos que la inteligencia artificial generativa es un campo emergente y que nuestra comprensión de ella evolucionará con el tiempo. Los comisionados de privacidad federales, provinciales y territoriales de Canadá continuarán explorando este tema complejo y pueden proporcionar orientación u otros recursos a medida que aprendamos más sobre la tecnología y sus riesgos potenciales, incluso a medida que se completen investigaciones formales relacionadas con la tecnología.

Las obligaciones bajo la legislación de privacidad en Canadá variarán según la naturaleza de la organización (si se encuentra en el sector privado, de la salud o público) y las actividades que realice. Como tal, aunque utilizamos «debería» a lo largo de este documento, muchas de las consideraciones enumeradas serán necesarias para que una organización cumpla con la ley de privacidad aplicable. Las organizaciones son responsables de comprender y cumplir con estas leyes. También señalamos que los principios establecidos a continuación no reflejan exhaustivamente todos los requisitos de cumplimiento bajo las leyes de privacidad y otras leyes y no vinculan a investigaciones o fallos específicos llevados a cabo por los comisionados federales, provinciales o territoriales de privacidad de Canadá, según las circunstancias individuales de cada caso.

El documento tiene como objetivo ayudar a las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa a aplicar los principales principios de privacidad canadienses. Para este documento, utilizamos la siguiente terminología:

Desarrolladores y Proveedores: Individuos u organizaciones que desarrollan (incluido el entrenamiento) modelos básicos o sistemas de inteligencia artificial generativa, o que ponen dichos servicios en el mercado. En resumen, aquellas organizaciones que determinan cómo opera un sistema de inteligencia artificial generativa, cómo se entrena y prueba inicialmente, y cómo puede utilizarse.

Organizaciones que utilizan inteligencia artificial generativa: Organizaciones (o individuos que actúan en nombre de una organización) que utilizan un sistema de inteligencia artificial generativa como parte de sus actividades. Esto podría incluir usos dirigidos al público (por ejemplo, un chatbot basado en inteligencia artificial generativa para interactuar con clientes) o uso privado (por ejemplo, el uso de inteligencia artificial generativa como parte de un sistema de toma de decisiones). Las organizaciones que ajustan un modelo básico para un propósito específico (como al entrenarlo aún más en un conjunto de datos propio de la organización) están incluidas en esta categoría.

Una organización puede cambiar entre roles o desempeñar múltiples roles al mismo tiempo. Las actividades realizadas (incluida la recopilación, el uso o la divulgación de información personal) por una organización también variarán dentro de cada grupo. Sin embargo, la división en «desarrolladores y proveedores» y «organizaciones que utilizan inteligencia artificial generativa» es una forma útil de examinar la aplicación de los principios de privacidad a múltiples elementos del ecosistema de inteligencia artificial generativa.

Para mayor claridad, estos principios se centran en la legislación y regulación de privacidad, y cómo pueden aplicarse a las organizaciones. Sin embargo, reconocemos que las personas u organizaciones pueden tener más obligaciones, restricciones o responsabilidades según otras leyes, regulaciones o políticas.

Un estudio muestra las dificultades para proteger la intimidad de los usuarios de bibliotecas

Wang, Tian, Chieh-Li Chin, Christopher Benner, Carol M. Hayes, Yang Wang, y Masooda Bashir. 2023. «Patron Privacy Protections in Public Libraries». The Library Quarterly 93 (3): 294-312. https://doi.org/10.1086/725069.


Los bibliotecarios, históricamente defensores de la privacidad de los usuarios, enfrentan desafíos diversos para salvaguardar la privacidad, especialmente influenciados por el tamaño de la biblioteca y los avances tecnológicos, según revela el primer estudio sobre prácticas de privacidad en bibliotecas públicas. Liderado por Masooda Bashir, profesora de ciencias de la información y ciberseguridad en la Universidad de Illinois en Urbana-Champaign, el estudio incluyó una encuesta en línea a más de 800 empleados de bibliotecas, principalmente de bibliotecas pequeñas. Los hallazgos destacaron que las bibliotecas más grandes con más titulares de tarjetas estaban mejor equipadas para la protección de la privacidad, mientras que las bibliotecas rurales a menudo carecían de recursos.

A pesar del compromiso compartido con la privacidad, los desafíos incluyeron una capacitación insuficiente y conocimientos técnicos entre el personal de la biblioteca, lo que dificultaba la identificación y mitigación de vulnerabilidades de privacidad. Durante la pandemia de COVID-19, las preocupaciones aumentaron con la expansión de los servicios en línea, introduciendo posibles riesgos de privacidad cuando las bibliotecas utilizan servicios digitales de proveedores. Surgieron problemas cuando los usuarios pasaban del sitio web de una biblioteca al sitio de un proveedor, con posibles protecciones de privacidad que no se extendían.

El estudio resaltó que, aunque las medidas básicas de privacidad eran comunes, existían lagunas en la capacitación de empleados, la publicación de información relacionada con la privacidad para los usuarios y los planes documentados para manejar violaciones de datos. Específicamente, algunas bibliotecas, especialmente las más pequeñas, dependían únicamente de las redes sociales para su presencia en línea, planteando preocupaciones de privacidad debido a las prácticas de recopilación de datos.

Además, se señaló la ausencia de leyes integrales de privacidad en los Estados Unidos, a diferencia de la Unión Europea, como un desafío. Los usuarios de computadoras de bibliotecas a menudo exponen inadvertidamente información personal al buscar ayuda, lo que afecta especialmente a grupos socioeconómicos más bajos. Reconociendo la vulnerabilidad de estas poblaciones, Bashir enfatizó la importancia de protecciones de privacidad personalizadas.

Aunque la Asociación de Bibliotecas de Estados Unidos ofrece pautas para preservar la privacidad, la conciencia entre los bibliotecarios no es universal. El grupo de investigación de Bashir tiene como objetivo desarrollar herramientas para que los bibliotecarios detecten vulnerabilidades tecnológicas, facilitando la formulación de políticas de privacidad y mejores prácticas para bibliotecas con recursos limitados.

En conclusión, Bashir sugirió aprovechar la tecnología tanto para crear desafíos como para encontrar soluciones, enfatizando la necesidad de una mayor conciencia, capacitación y políticas de privacidad integrales en el cambiante panorama de bibliotecas centradas en lo digital.