Archivo de la etiqueta: Privacidad

Los libros electrónicos se están convirtiendo rápidamente en herramientas de vigilancia de los lectores

Bounds, Lia Holland and Jade Pfaefflin. 2023. «E-Books Are Fast Becoming Tools of Corporate Surveillance». Fast Company. 12 de diciembre de 2023. https://www.fastcompany.com/90996547/e-books-are-fast-becoming-tools-of-corporate-surveillance.

Mientras Internet Archive apela una decisión judicial que bloquea alternativas a las licencias de libros digitales sujetas a vigilancia, un nuevo informe revela que la editorial más grande del mundo puede estar vendiendo datos personales íntimos de sus lectores al mejor postor.

Tres de cada diez estadounidenses leen libros digitales. Ya sea que estén accediendo a libros de texto en línea o consultando el último e-book más vendido de la biblioteca pública, la mayoría de estos lectores están sujetos tanto a la codicia de las grandes editoriales como a las prioridades de las grandes empresas tecnológicas. De hecho, Kindle de Amazon tenía el 72% del mercado de lectores electrónicos en 2022. Y si hay algo que sabemos sobre las grandes empresas tecnológicas como Amazon, su verdadero producto no es el libro, sino los datos del usuario.

Las principales editoriales están dando carta blanca a las grandes empresas tecnológicas para observar lo que lees y dónde, incluyendo libros sobre temas sensibles, como si tomaras un libro de autocuidado después de un aborto. Peor aún, las corporaciones tecnológicas y editoriales están recogiendo datos más allá de tus hábitos de lectura; hoy en día, no hay leyes federales que los detengan de vigilar a personas que leen libros digitales en todo Internet.

La vigilancia de los lectores es una amenaza profundamente interseccional, según una carta del Congreso emitida la semana pasada por una coalición de grupos cuyos intereses abarcan derechos civiles, contra la vigilancia, contra la prohibición de libros, justicia racial, justicia reproductiva, LGBTQ+, inmigrantes y antimonopolio. La carta insta a los legisladores federales a investigar los daños del poderoso control de las corporaciones tecnológicas y editoriales sobre el acceso a libros digitales.

Esta investigación es un primer paso esencial para revivir el derecho a leer sin temor a que tus intereses se utilicen en tu contra. Porque, lamentablemente, ese derecho está en cuidados intensivos cuando se trata de libros digitales.

En este momento, hay un esfuerzo concertado por parte de legisladores antiaborto y vigilantes para descubrir quiénes están obteniendo o apoyando un aborto, y los recolectores de datos ya han sido demandados por compilar datos de visitantes a centros de salud reproductiva. Pero aún no hay protecciones federales significativas de la privacidad de los datos para detener el flujo de datos personales íntimos.

Amenazas al estilo de «1984» tejidas en la vida cotidiana de las personas son particularmente insidiosas. La persona promedio que busca un aborto no sabe cómo navegar de manera segura en un estado de vigilancia, y saber que pueden estar siendo vigiladas lleva a que las personas no accedan a la atención reproductiva o de aborto que necesitan, que no busquen el apoyo mental y emocional que requieren y que pospongan la atención hasta más avanzado en un embarazo no deseado. Todas estas elecciones ponen en peligro a la persona embarazada.

En la era de la inteligencia artificial, la capacidad para analizar datos detallados de manera insondable sobre individuos, crear informes e inferencias sobre esas personas y usar todo eso para entrenar modelos de IA está mejorando constantemente. Los incentivos para explotar los datos de los lectores son los más fuertes que jamás hayan sido.

Las grandes editoriales claramente no ven más que signos de dólar mientras aplicaciones como Hoopla recogen datos vinculados a la identidad de los lectores. Entonces, sería natural depositar nuestra esperanza en las bibliotecas públicas, que ven la privacidad del usuario como un derecho fundamental esencial para una democracia funcional. En la comunidad de derechos humanos, la resistencia de las bibliotecas contra la vigilancia gubernamental bajo la Ley PATRIOT es legendaria.

Desafortunadamente, las grandes editoriales han demandado para evitar que las bibliotecas presten libros digitales libres de vigilancia, ganando un fallo en un tribunal inferior que la organización sin fines de lucro Internet Archive apelará antes de que termine el año. A menos que ese fallo sea anulado o se aprueben nuevas leyes, las bibliotecas no tienen otra alternativa que licenciar libros digitales que probablemente estén llenos de programas espías.

Sabemos menos sobre la vigilancia en las bibliotecas públicas porque, según un informe de noviembre de la Coalición de Publicaciones Académicas y Recursos Académicos, las grandes editoriales han sido cada vez más astutas en cuanto a privacidad y vigilancia en sus contratos con las bibliotecas. Esto es un juego directo del manual del Sillicon Valley: ocultar mal comportamiento con enlaces externos no responsables o acuerdos de no divulgación que prohíben a las bibliotecas advertir a sus usuarios.

Sin leyes para detenerlos, es razonable esperar que aplicaciones populares de bibliotecas como Hoopla y Libby estén ocultando un comportamiento similar detrás de cortinas legales. Ya se ha documentado bien lo absurdo de la recopilación de datos de Amazon Kindle y es una fuente del poder monopsonístico general de Amazon en el mercado de libros.

Con las bibliotecas enfrentando la aniquilación legal desde todos los lados si intentan crear espacios libres de vigilancia para libros digitales, el futuro de la lectura está en la última hora. Los legisladores deben lanzar de inmediato una investigación para proteger no solo a los pacientes de aborto, sino a todos los lectores en todo el país.

Principios para unas tecnologías de IA generativa responsables, fiables y que protejan la intimidad

Canada, Office of the Privacy Commissioner of. 2023. «Principles for Responsible, Trustworthy and Privacy-Protective Generative AI Technologies». 7 de diciembre de 2023. https://www.priv.gc.ca/en/privacy-topics/technology/artificial-intelligence/gd_principles_ai/.

En el contexto general de los avances continuos en las tecnologías de inteligencia artificial, una versión de la tecnología ha experimentado un desarrollo particularmente rápido, una proliferación de casos de uso y un aumento en la adopción en los últimos tiempos: la inteligencia artificial generativa. La inteligencia artificial generativa es un subconjunto del aprendizaje automático en el que los sistemas se entrenan en conjuntos masivos de información, a menudo incluyendo información personal, para generar contenido como texto, código informático, imágenes, video o audio en respuesta a una solicitud del usuario. Este contenido es probabilístico y puede variar incluso en respuesta a múltiples usos de solicitudes similares.

Las autoridades en múltiples campos en todo el mundo están reconociendo los riesgos potenciales planteados por esta tecnología, como se evidencia en la declaración conjunta de las autoridades de protección de datos y privacidad del G7 en junio de 2023 sobre las tecnologías de inteligencia artificial generativa, la Declaración de los líderes del G7 en noviembre de 2023 que incluyó principios rectores y un código de conducta para organizaciones que desarrollan sistemas de inteligencia artificial avanzados, y la resolución de la Asamblea Global de Privacidad en octubre de 2023 sobre sistemas de inteligencia artificial generativa. El Comisionado de Privacidad de Canadá (OPC) y sus homólogos en Columbia Británica, Quebec y Alberta también tienen una investigación abierta relacionada con un servicio específico de inteligencia artificial generativa. Las autoridades de privacidad de todo el mundo han instado recientemente a las organizaciones a ejercer gran precaución antes de recopilar información personal «accesible públicamente», que aún está sujeta a leyes de protección de datos y privacidad en la mayoría de las jurisdicciones. Esta práctica es común al entrenar sistemas de inteligencia artificial generativa. Las autoridades de privacidad también han estado trabajando con sus homólogos en campos relacionados, como los comisionados de derechos humanos, para pedir fuertes salvaguardias que aseguren que los sistemas de inteligencia artificial sean seguros, protectores de la privacidad, transparentes, responsables y afirmativos de los derechos humanos .

Si bien las herramientas de inteligencia artificial generativa pueden plantear riesgos novedosos para la privacidad y plantear nuevas preguntas e inquietudes sobre la recopilación, uso y divulgación de información personal, no se encuentran fuera de los marcos legislativos actuales. Las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa tienen la obligación de garantizar que sus actividades cumplan con las leyes y regulaciones de privacidad aplicables en Canadá. Las organizaciones también deben reconocer que, para construir y mantener una sociedad digital en la que la innovación sea socialmente beneficiosa y la dignidad humana esté protegida, el desarrollo y uso de la inteligencia artificial deben ser responsables y confiables.

En este documento, se identifican consideraciones para la aplicación de los principios clave de privacidad a las tecnologías de inteligencia artificial generativa. Reconocemos que la inteligencia artificial generativa es un campo emergente y que nuestra comprensión de ella evolucionará con el tiempo. Los comisionados de privacidad federales, provinciales y territoriales de Canadá continuarán explorando este tema complejo y pueden proporcionar orientación u otros recursos a medida que aprendamos más sobre la tecnología y sus riesgos potenciales, incluso a medida que se completen investigaciones formales relacionadas con la tecnología.

Las obligaciones bajo la legislación de privacidad en Canadá variarán según la naturaleza de la organización (si se encuentra en el sector privado, de la salud o público) y las actividades que realice. Como tal, aunque utilizamos «debería» a lo largo de este documento, muchas de las consideraciones enumeradas serán necesarias para que una organización cumpla con la ley de privacidad aplicable. Las organizaciones son responsables de comprender y cumplir con estas leyes. También señalamos que los principios establecidos a continuación no reflejan exhaustivamente todos los requisitos de cumplimiento bajo las leyes de privacidad y otras leyes y no vinculan a investigaciones o fallos específicos llevados a cabo por los comisionados federales, provinciales o territoriales de privacidad de Canadá, según las circunstancias individuales de cada caso.

El documento tiene como objetivo ayudar a las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa a aplicar los principales principios de privacidad canadienses. Para este documento, utilizamos la siguiente terminología:

Desarrolladores y Proveedores: Individuos u organizaciones que desarrollan (incluido el entrenamiento) modelos básicos o sistemas de inteligencia artificial generativa, o que ponen dichos servicios en el mercado. En resumen, aquellas organizaciones que determinan cómo opera un sistema de inteligencia artificial generativa, cómo se entrena y prueba inicialmente, y cómo puede utilizarse.

Organizaciones que utilizan inteligencia artificial generativa: Organizaciones (o individuos que actúan en nombre de una organización) que utilizan un sistema de inteligencia artificial generativa como parte de sus actividades. Esto podría incluir usos dirigidos al público (por ejemplo, un chatbot basado en inteligencia artificial generativa para interactuar con clientes) o uso privado (por ejemplo, el uso de inteligencia artificial generativa como parte de un sistema de toma de decisiones). Las organizaciones que ajustan un modelo básico para un propósito específico (como al entrenarlo aún más en un conjunto de datos propio de la organización) están incluidas en esta categoría.

Una organización puede cambiar entre roles o desempeñar múltiples roles al mismo tiempo. Las actividades realizadas (incluida la recopilación, el uso o la divulgación de información personal) por una organización también variarán dentro de cada grupo. Sin embargo, la división en «desarrolladores y proveedores» y «organizaciones que utilizan inteligencia artificial generativa» es una forma útil de examinar la aplicación de los principios de privacidad a múltiples elementos del ecosistema de inteligencia artificial generativa.

Para mayor claridad, estos principios se centran en la legislación y regulación de privacidad, y cómo pueden aplicarse a las organizaciones. Sin embargo, reconocemos que las personas u organizaciones pueden tener más obligaciones, restricciones o responsabilidades según otras leyes, regulaciones o políticas.

Un estudio muestra las dificultades para proteger la intimidad de los usuarios de bibliotecas

Wang, Tian, Chieh-Li Chin, Christopher Benner, Carol M. Hayes, Yang Wang, y Masooda Bashir. 2023. «Patron Privacy Protections in Public Libraries». The Library Quarterly 93 (3): 294-312. https://doi.org/10.1086/725069.


Los bibliotecarios, históricamente defensores de la privacidad de los usuarios, enfrentan desafíos diversos para salvaguardar la privacidad, especialmente influenciados por el tamaño de la biblioteca y los avances tecnológicos, según revela el primer estudio sobre prácticas de privacidad en bibliotecas públicas. Liderado por Masooda Bashir, profesora de ciencias de la información y ciberseguridad en la Universidad de Illinois en Urbana-Champaign, el estudio incluyó una encuesta en línea a más de 800 empleados de bibliotecas, principalmente de bibliotecas pequeñas. Los hallazgos destacaron que las bibliotecas más grandes con más titulares de tarjetas estaban mejor equipadas para la protección de la privacidad, mientras que las bibliotecas rurales a menudo carecían de recursos.

A pesar del compromiso compartido con la privacidad, los desafíos incluyeron una capacitación insuficiente y conocimientos técnicos entre el personal de la biblioteca, lo que dificultaba la identificación y mitigación de vulnerabilidades de privacidad. Durante la pandemia de COVID-19, las preocupaciones aumentaron con la expansión de los servicios en línea, introduciendo posibles riesgos de privacidad cuando las bibliotecas utilizan servicios digitales de proveedores. Surgieron problemas cuando los usuarios pasaban del sitio web de una biblioteca al sitio de un proveedor, con posibles protecciones de privacidad que no se extendían.

El estudio resaltó que, aunque las medidas básicas de privacidad eran comunes, existían lagunas en la capacitación de empleados, la publicación de información relacionada con la privacidad para los usuarios y los planes documentados para manejar violaciones de datos. Específicamente, algunas bibliotecas, especialmente las más pequeñas, dependían únicamente de las redes sociales para su presencia en línea, planteando preocupaciones de privacidad debido a las prácticas de recopilación de datos.

Además, se señaló la ausencia de leyes integrales de privacidad en los Estados Unidos, a diferencia de la Unión Europea, como un desafío. Los usuarios de computadoras de bibliotecas a menudo exponen inadvertidamente información personal al buscar ayuda, lo que afecta especialmente a grupos socioeconómicos más bajos. Reconociendo la vulnerabilidad de estas poblaciones, Bashir enfatizó la importancia de protecciones de privacidad personalizadas.

Aunque la Asociación de Bibliotecas de Estados Unidos ofrece pautas para preservar la privacidad, la conciencia entre los bibliotecarios no es universal. El grupo de investigación de Bashir tiene como objetivo desarrollar herramientas para que los bibliotecarios detecten vulnerabilidades tecnológicas, facilitando la formulación de políticas de privacidad y mejores prácticas para bibliotecas con recursos limitados.

En conclusión, Bashir sugirió aprovechar la tecnología tanto para crear desafíos como para encontrar soluciones, enfatizando la necesidad de una mayor conciencia, capacitación y políticas de privacidad integrales en el cambiante panorama de bibliotecas centradas en lo digital.

OpenAI se esta enfrentando a varias demandas que alegan que la compañía utilizó conjuntos de datos con información personal y materiales bajo derechos de autor para entrenar a ChatGPT

OpenAI ha enfrentado múltiples demandas en las últimas semanas debido al uso de conjuntos de datos que contienen información personal y materiales con derechos de autor en el entrenamiento de sus modelos de IA, como ChatGPT. Estas demandas plantean preocupaciones sobre presuntas infracciones de derechos de autor y el uso indebido de datos sensibles, como registros médicos y conversaciones privadas, sin el consentimiento apropiado.


OpenAI se ha enfrentado a varias demandas presentadas en las últimas semanas. Estas demandas han planteado preocupaciones sobre el uso de conjuntos de datos que contienen información personal y materiales con derechos de autor para entrenar a sus modelos de IA, como ChatGPT. Algunas de las demandas alegan infracciones de derechos de autor, mientras que otras afirman que OpenAI utilizó datos sensibles, como conversaciones privadas y registros médicos, sin el consentimiento adecuado.

Entre las demandas más destacadas se encuentra una demanda presentada por 16 demandantes no identificados que afirman que OpenAI utilizó datos sensibles en el entrenamiento de sus modelos de IA. Además, la comediante y autora Sarah Silverman, junto con los autores Christopher Golden y Richard Kadrey, han presentado demandas por infracción de derechos de autor contra OpenAI y Meta en un tribunal de distrito de Estados Unidos. Las demandas alegan, entre otras cosas, que los modelos ChatGPT de OpenAI y LLaMA de Meta fueron entrenados utilizando conjuntos de datos adquiridos ilegalmente que contenían sus obras, las cuales afirman haber sido obtenidas de sitios web de «bibliotecas piratas» como Bibliotik, Library Genesis, Z-Library y otros, mencionando que los libros están «disponibles en masa a través de sistemas de torrents». En la demanda contra OpenAI, los creadores presenta pruebas que demuestran que cuando se le solicita, ChatGPT resume sus libros, infringiendo sus derechos de autor. En las pruebas se muestra que el primer libro resumido por ChatGPT es Bedwetter de Silverman, mientras que también se utiliza como ejemplo el libro Ararat de Golden y el libro Sandman Slim de Kadrey. La demanda afirma que el chatbot no se preocupó por «reproducir ninguna de las informaciones de gestión de derechos de autor que los demandantes incluyeron en sus obras publicadas».

Una demanda presentada en un tribunal federal en San Francisco alega que OpenAI copió texto de libros ilegalmente al no obtener el consentimiento de los titulares de los derechos de autor, darles crédito ni compensarlos. La demanda, Tremblay v. OpenAI Inc, afirma que ChatGPT puede resumir de manera precisa los libros de ciencia ficción y terror de los autores. Esto sugiere que el chatbot ha leído y absorbido sus obras. Los autores alegan que ChatGPT violó la ley de derechos de autor al eliminar los avisos de derechos de autor de estos libros.

Otra demanda alega que los modelos de aprendizaje automático de OpenAI, incluyendo ChatGPT y DALL-E, recopilan ilegalmente la información personal de las personas en Internet, violando diversas leyes de privacidad. La demanda, conocida como PM v. OpenAI LP, afirma que OpenAI obtiene información privada de las personas directamente a través de sus sistemas de IA y otras aplicaciones que incorporan ChatGPT. La demanda alega que OpenAI ha incorporado sus sistemas en varias plataformas como Snapchat, Spotify, Stripe, Slack y Microsoft Teams. Afirma que OpenAI recopiló clandestinamente imágenes, ubicaciones, preferencias musicales, información financiera y comunicaciones privadas de los usuarios a través de estas integraciones. Además, la denuncia argumenta que esta recopilación y uso de datos violaron las leyes de privacidad, especialmente en lo que respecta a los datos de los niños.

Estas demandas han generado un debate sobre la ética y las prácticas de recopilación de datos utilizadas en el desarrollo de modelos de IA. OpenAI aún no ha hecho comentarios públicos específicos sobre las demandas y se espera que el proceso legal siga su curso para determinar los resultados. Las acusaciones resaltan la importancia de abordar de manera ética y legal la recopilación y el uso de datos en el desarrollo de la inteligencia artificial. El proceso legal determinará los resultados de estas demandas y puede tener implicaciones significativas para la industria, y la regulación en el campo de la IA.

OpenAI adelanta su plan de negocio para ChatGPT y lanza nuevos controles de privacidad

Sam Altman, the OpenAI CEO, and an illustration of GPT-4.

Wiggers, K. (2023, abril 25). OpenAI previews business plan for ChatGPT, launches new privacy controls. TechCrunch. https://techcrunch.com/2023/04/25/openai-previews-business-plan-for-chatgpt-launches-new-privacy-controls/

OpenAI anuncia que tiene previsto introducir un nuevo nivel de suscripción para ChatGPT, su chatbot viral basado en IA, adaptado a las necesidades de los clientes empresariales.

El modelo «ChatGPT Business», se describe como una oferta «para profesionales que necesitan más control sobre sus datos, así como para empresas que buscan gestionar sus usuarios finales».

Ante el riesgo que supone introducir datos privados de empresa para analizar con GPT, Open AI anuncio un nuevo modelo de suscripción ChatGPT Business, que limitará las políticas de uso de datos, lo que significa que los datos de los usuarios finales no se utilizarán para la fase de entrenamiento del sistema de forma predeterminada, por lo que no serán públicos, aunque se introduzcan en la aplicación, ChatGPT Business esté disponible en los próximos meses.

OpenAI ya había anunciado que estaba explorando planes de pago adicionales para ChatGPT a medida que el servicio crece rápidamente. (El primer nivel de suscripción, ChatGPT Plus, se lanzó en febrero y tiene un precio de 20 dólares al mes). Según una fuente, se calcula que ChatGPT alcanzó los 100 millones de usuarios activos mensuales en enero, sólo dos meses después de su lanzamiento, lo que la convierte en la aplicación de consumo de más rápido crecimiento de la historia.

En busca de nuevas líneas de ingresos, OpenAI lanzó en marzo plug-ins para ChatGPT, que ampliaban la funcionalidad del chatbot dándole acceso a fuentes de conocimiento y bases de datos de terceros, incluida la web.

A pesar de la controversia y de varias prohibiciones, ChatGPT ha demostrado ser un triunfo publicitario para OpenAI, atrayendo la atención de los medios de comunicación y generando innumerables memes en las redes sociales. Pero es un servicio caro. Según el cofundador y consejero delegado de OpenAI, Sam Altman, los gastos operativos de ChatGPT son «exorbitantes», ya que ascienden a unos pocos céntimos por chat en costes totales de computación.

Además de ChatGPT Business, OpenAI ha anunciado hoy una nueva función que permite a todos los usuarios de ChatGPT desactivar el historial de chat. Las conversaciones iniciadas cuando el historial de chat está desactivado no se utilizarán para entrenar y mejorar los modelos de OpenAI y no aparecerán en la barra lateral del historial, afirma OpenAI. Pero se conservarán durante 30 días y se revisarán «cuando sea necesario para vigilar posibles abusos».

A partir de hoy, los datos de ChatGPT también pueden exportarse. Los usuarios pueden solicitar que sus datos se envíen en un archivo a la dirección de correo electrónico asociada a su cuenta de OpenAI.

Las nuevas funciones llegan mientras crece el escrutinio regulador sobre las prácticas de OpenAI en materia de datos. Italia prohibió el mes pasado ChatGPT por posibles violaciones de la privacidad, alegando que OpenAI procesaba ilegalmente los datos de las personas y no implementaba un sistema para evitar que los menores accedieran a ChatGPT. Francia, España y Alemania también han empezado a investigar a OpenAI y sus servicios comerciales, centrándose en el cumplimiento del GDPR por parte de ChatGPT.

El peligro de compartir datos confideciales con ChatGPT

ChatGPT’s other risk: Oversharing confidential data. (2023, abril 20). GCN. https://gcn.com/emerging-tech/2023/04/chatgpts-other-risk-oversharing-confidential-data/385453/

No es necesariamente lo que sale de ChatGPT lo que preocupa a los investigadores de seguridad, sino lo que entra. El 6,5% de los empleados ha pegado datos de su organización en ChatGPT, y el 3,1% ha copiado y pegado datos confidenciales en el programa, según un estudio reciente.

Después de haber sido entrenado en un gran número de fuentes digitales de texto extraídas de Internet, ChatGPT de OpenAI puede producir ensayos, presentaciones, artículos y código informático cuando se le presenta una pregunta cuidadosamente elaborada. Busca las respuestas más relevantes en su base de conocimientos y reúne esa información en formatos o guiones de programación adaptados a las personas. Incluso con instrucciones específicas, algunas de sus respuestas contienen información poco fiable, incorrecta, obsoleta o incluso sin sentido. Aun así, sus muchos fans dicen que puede producir un borrador o un guión de código bastante bueno para que un humano lo evalúe y lo siga según convenga.

Pero los riesgos no se limitan a lo que publica el programa, sino también a lo que introducen los usuarios. A veces, los usuarios envían datos a ChatGPT como parte de una conversación para ayudarles a refinar sus consultas, quizá pidiendo una versión depurada de las notas de la reunión o del código. Esa información cargada se utiliza para mejorar los modelos de IA del programa y es esencialmente pública. Los datos sensibles que se introducen no se limitan sólo a ChatGPT, sino que también pueden compartirse con «otros servicios al consumidor», según los términos de las políticas de uso de datos de OpenAI.

En las preguntas frecuentes del sitio se informa a los usuarios de que no se pueden eliminar determinadas indicaciones de sus historiales de conversación, advirtiéndoles: «Por favor, no compartas información sensible en tus conversaciones». Pero no todo el mundo ha prestado atención.

A principios de abril, dos programadores diferentes de la empresa coreana de semiconductores Samsung enviaron a ChatGPT código informático confidencial con errores, pidiendo a la IA que encontrara los problemas y los solucionara. Cuando un tercer empleado envió a ChatGPT notas de reuniones en las que pedía un resumen, los responsables de la empresa se dieron cuenta del riesgo de exponer información confidencial y limitaron a 1.024 bytes el mensaje de ChatGPT de cada empleado.

Hasta un 6,5% de los empleados ha pegado datos de la empresa en ChatGPT, y un 3,1% ha copiado y pegado datos confidenciales en el programa, según una investigación de la empresa de seguridad de datos Cyberhaven, que analizó el uso de ChatGPT entre 1,6 millones de trabajadores que utilizan su producto.

Italia bloquea temporalmente ChatGPT por problemas de privacidad

Italy temporarily blocks ChatGPT over privacy concerns. AP News, 2023

Ver noticia

Italia bloqueará temporalmente el software de inteligencia artificial ChatGPT a raíz de una filtración de datos mientras investiga una posible violación de las estrictas normas de protección de datos de la Unión Europea, dijo el viernes el organismo de control de privacidad del gobierno.

La Autoridad de Protección de Datos de Italia dijo que estaba tomando medidas provisionales «hasta que ChatGPT respete la privacidad», incluida la limitación temporal de que la empresa procese los datos de los usuarios italianos.

OpenAI, con sede en EE. UU., que desarrolló el chatbot, dijo el viernes por la noche que deshabilitó ChatGPT para los usuarios italianos a petición del gobierno. La compañía dijo que cree que sus prácticas cumplen con las leyes de privacidad europeas y espera que ChatGPT vuelva a estar disponible pronto.

Los estadounidenses no entienden lo que las empresas pueden hacer con sus datos personales, y eso es un problema

Turow, Joseph et al. Americans Can’t Consent to Companies’ Use of Their Data. A Report from the Annenberg School for Communication, University of Pennsylvania, 2023

Texto completo

Una nueva encuesta realizada a 2.000 estadounidenses revela que la gente no entiende lo que los profesionales del marketing averiguan sobre ellos en Internet y no quiere que se recopilen sus datos, pero se siente impotente para impedirlo. El 77% de los encuestados respondió correctamente a 9 o menos preguntas, lo que supone un suspenso en una clase normal. Sólo una persona de las 2.000 de la muestra habría obtenido un sobresaliente en el examen.

En un nuevo informe, «Americans Can’t Consent to Companies’ Use of Their Data» (Los estadounidenses no pueden impedir que las empresas utilicen sus datos), los investigadores pidieron a un grupo representativo a nivel nacional de más de 2.000 estadounidenses que respondieran a una serie de preguntas sobre las políticas de marketing digital y el modo en que las empresas pueden y deben utilizar sus datos personales. Su objetivo era determinar si las actuales prácticas de «consentimiento informado» funcionan en Internet.

Descubrieron que la gran mayoría de los estadounidenses no entienden los fundamentos de las prácticas y políticas de marketing en Internet, y que muchos se sienten incapaces de dar su consentimiento a la forma en que las empresas utilizan sus datos. En consecuencia, según los investigadores, los estadounidenses no pueden dar realmente su consentimiento informado a la recopilación de datos digitales.

La encuesta reveló que el 56% de los adultos estadounidenses no entienden el término «política de privacidad», creyendo a menudo que significa que una empresa no compartirá sus datos con terceros sin permiso. En realidad, muchas de estas políticas establecen que una empresa puede compartir o vender cualquier dato que recopile sobre los visitantes de un sitio con otros sitios web o empresas.

El 77% de los encuestados respondió correctamente a 9 o menos preguntas, lo que supone un suspenso en una clase normal. Sólo una persona de las 2.000 de la muestra habría obtenido un sobresaliente en el examen. No obstante, la encuesta proporcionó muchos datos sobre los conocimientos digitales de los estadounidenses, o la falta de ellos:

  • Sólo 1 de cada 3 estadounidenses sabe que es legal que una tienda en línea cobre precios diferentes a los usuarios en función de su ubicación.
  • Más de 8 de cada 10 estadounidenses creen, erróneamente, que la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) impide a las aplicaciones vender los datos recogidos sobre la salud de sus usuarios.
  • Menos de uno de cada tres estadounidenses sabe que los sitios web de comparación de precios de viajes, como Expedia u Orbitz, no están obligados a mostrar los precios más bajos de las aerolíneas.
  • Menos de la mitad de los estadounidenses saben que la configuración de privacidad de Facebook permite a los usuarios limitar parte de la información que comparten con los anunciantes.

Acceso a la información y privacidad

«Mapping the evolving interface of access to information and privacy: issue brief» UNESCO Digital Library, 2022. Accedido 3 de febrero de 2023.

Texto completo

El acceso a la información forma parte integrante de la realización de los derechos humanos. Sin embargo, al igual que otros derechos humanos, el derecho de acceso a la información (DAI) no está exento de límites. Se pueden imponer límites legales, justificadamente necesarios y proporcionados al derecho del público a acceder a la información. Uno de esos límites se da cuando es necesario garantizar el respeto y la protección del derecho a la intimidad de las personas.

Los derechos a la información y a la privacidad se entrecruzan es cada vez más evidente e importante, en gran parte debido al crecimiento de Internet y las tecnologías digitales, especialmente en relación con la recopilación y el uso de datos personales. La evolución del panorama de la comunicación y el acceso a la información significa que las herramientas y plataformas digitales y en línea siguen dominando la forma en que se crea y comparte la información. Ello conlleva el reto de proteger la privacidad al tiempo que se maximiza el acceso a la información.

Manifiesto de los medios de comunicación de servicio público y de Internet de servicio público

Fuchs, Christian, y Klaus Unterberger. The Public Service Media and Public Service Internet Manifesto. University of Westminster Press. University of Westminster Press, 2021.

Texto completo

PDF

ePuB

Mobi

Este libro presenta el Manifiesto de los Medios de Comunicación de Servicio Público y de Internet de Servicio Público de autoría colectiva y los materiales que lo acompañan. Internet y el panorama de los medios de comunicación están rotos. Las plataformas comerciales de Internet dominantes ponen en peligro la democracia. Han creado un paisaje comunicativo abrumado por la vigilancia, la publicidad, las noticias falsas, el discurso del odio, las teorías de la conspiración y la política algorítmica. Las plataformas comerciales de Internet han perjudicado a los ciudadanos, a los usuarios, a la vida cotidiana y a la sociedad. La democracia y la democracia digital requieren medios de comunicación de servicio público. Una Internet que mejore la democracia requiere que los medios de comunicación de servicio público se conviertan en plataformas de Internet de servicio público: una Internet del público, por el público y para el público; una Internet que avance en lugar de amenazar la democracia y la esfera pública. La Internet de servicio público se basa en plataformas de Internet operadas por diversos medios de comunicación de servicio público, llevando la misión de servicio público a la era digital. La Internet de servicio público ofrece oportunidades para el debate público, la participación y el avance de la cohesión social.

El Manifiesto va acompañado de los materiales que han servido de base para su creación: El informe de Christian Fuchs sobre los resultados de la Encuesta sobre Medios de Comunicación/Internet de Servicio Público, la versión escrita de la charla en línea de Graham Murdock sobre los medios de comunicación de servicio público en la actualidad, y un resumen de un debate en ecomitee.com sobre los fundamentos del Manifiesto.

El Manifiesto puede firmarse en http://bit.ly/signPSManifesto