El peligro de compartir datos confideciales con ChatGPT

ChatGPT’s other risk: Oversharing confidential data. (2023, abril 20). GCN. https://gcn.com/emerging-tech/2023/04/chatgpts-other-risk-oversharing-confidential-data/385453/

No es necesariamente lo que sale de ChatGPT lo que preocupa a los investigadores de seguridad, sino lo que entra. El 6,5% de los empleados ha pegado datos de su organización en ChatGPT, y el 3,1% ha copiado y pegado datos confidenciales en el programa, según un estudio reciente.

Después de haber sido entrenado en un gran número de fuentes digitales de texto extraídas de Internet, ChatGPT de OpenAI puede producir ensayos, presentaciones, artículos y código informático cuando se le presenta una pregunta cuidadosamente elaborada. Busca las respuestas más relevantes en su base de conocimientos y reúne esa información en formatos o guiones de programación adaptados a las personas. Incluso con instrucciones específicas, algunas de sus respuestas contienen información poco fiable, incorrecta, obsoleta o incluso sin sentido. Aun así, sus muchos fans dicen que puede producir un borrador o un guión de código bastante bueno para que un humano lo evalúe y lo siga según convenga.

Pero los riesgos no se limitan a lo que publica el programa, sino también a lo que introducen los usuarios. A veces, los usuarios envían datos a ChatGPT como parte de una conversación para ayudarles a refinar sus consultas, quizá pidiendo una versión depurada de las notas de la reunión o del código. Esa información cargada se utiliza para mejorar los modelos de IA del programa y es esencialmente pública. Los datos sensibles que se introducen no se limitan sólo a ChatGPT, sino que también pueden compartirse con «otros servicios al consumidor», según los términos de las políticas de uso de datos de OpenAI.

En las preguntas frecuentes del sitio se informa a los usuarios de que no se pueden eliminar determinadas indicaciones de sus historiales de conversación, advirtiéndoles: «Por favor, no compartas información sensible en tus conversaciones». Pero no todo el mundo ha prestado atención.

A principios de abril, dos programadores diferentes de la empresa coreana de semiconductores Samsung enviaron a ChatGPT código informático confidencial con errores, pidiendo a la IA que encontrara los problemas y los solucionara. Cuando un tercer empleado envió a ChatGPT notas de reuniones en las que pedía un resumen, los responsables de la empresa se dieron cuenta del riesgo de exponer información confidencial y limitaron a 1.024 bytes el mensaje de ChatGPT de cada empleado.

Hasta un 6,5% de los empleados ha pegado datos de la empresa en ChatGPT, y un 3,1% ha copiado y pegado datos confidenciales en el programa, según una investigación de la empresa de seguridad de datos Cyberhaven, que analizó el uso de ChatGPT entre 1,6 millones de trabajadores que utilizan su producto.

1 comentario en “El peligro de compartir datos confideciales con ChatGPT

  1. Pingback: Según una encuesta un 17% de los estudiantes de la Universidad de Stanford utilizaron ChatGPT en los exámenes y trabajos de clase | Universo Abierto

Los comentarios están cerrados.