Los peligros de Deepfake: videos falsos manipulados por inteligencia artificial

«El destino ha querido que los hombres que fueron a la Luna para explorarla se queden en ella para descansar en paz. Estos hombres valientes, Neil Armstrong y Edwin Aldrin, saben que no hay esperanza de que sean rescatados…».

Nyman, Daniel, Chris Meserole, y V. S. Subrahmanian. «Essay | The Deepfake Dangers Ahead». Wall Street Journal, 23 de febrero de 2023, sec. Life. https://www.wsj.com/articles/the-deepfake-dangers-ahead-b08e4ecf.

¿Quieres poner cualquier afirmación en boca de un político, protagonizar tu película favorita o bailar como un profesional? Eso se puede hacer con los deepfake. Los deepfakes son videos falsos que utilizan una forma de inteligencia artificial llamada aprendizaje profundo para crear acontecimientos falsos. Por ejemplo un video falso en el que Nixon afirma que los estadounidenses nunca llegaron a la luna

Los «deepfakes» son videos falsos en los que una persona que aparece en una imagen o un vídeo es sustituida por otra a imagen y semejanza de otra persona, permitiendo manipular el mensaje de voz cambiándolo por otro falso en el que afirme cosas que nunca dijo.

En el ámbito nacional, los deepfakes corren el riesgo de hacer que la gente vea toda la información como sospechosa. Los soldados podrían no confiar en las órdenes reales, y el público podría pensar que los escándalos y atropellos auténticos no son reales. Un clima de sospecha generalizada permitirá a los políticos y a sus partidarios descartar cualquier información negativa sobre ellos como falsa o exagerada….

Las opciones para las democracias son complicadas y tendrán que combinar enfoques técnicos, normativos y sociales. Intel ya ha empezado a trabajar en el aspecto técnico. El pasado noviembre, los investigadores de la empresa propusieron un sistema llamado FakeCatcher que afirmaba tener una precisión del 96% en la identificación de deepfakes. La cifra es impresionante, pero dado el enorme volumen de material no confiable que puede producirse, incluso un detector con un 99% de precisión pasaría por alto un volumen inaceptable de desinformación. Además, los gobiernos contarán con los servicios de programadores altamente cualificados, lo que significa que sus deepfakes serán probablemente de los menos detectables. Incluso los detectores más ingeniosos tendrán sus límites, porque es casi seguro que los avances en la detección se utilizarán para mejorar la próxima generación de algoritmos de deepfake…..

El gobierno de Estados Unidos y otras democracias no pueden decir a sus ciudadanos lo que es o no es verdad, pero sí pueden insistir en que las empresas que producen y distribuyen medios falsos a gran escala hagan sus algoritmos más transparentes. El público debe saber cuáles son las políticas de una plataforma y cómo se aplican esas normas. Incluso se puede exigir a las plataformas que difunden deepfakes que permitan a investigadores independientes estudiar los efectos de estos medios y controlar si los algoritmos de las plataformas se comportan de acuerdo con sus políticas.

Los deepfakes van a cambiar la forma de hacer negocios de muchas instituciones en las democracias. Los militares necesitarán sistemas muy seguros para verificar las órdenes y asegurarse de que los sistemas automatizados no puedan ser activados por posibles deepfakes. Los líderes políticos que respondan a las crisis tendrán que prever retrasos para poder asegurarse de que la información que tienen ante sí no es falsa o incluso parcialmente manipulada por un adversario. Los periodistas y editores tendrán que desconfiar de las noticias impactantes, redoblando la norma de verificar los hechos con múltiples fuentes. En caso de duda, un medio podría marcar algunas noticias con brillantes advertencias del tipo «esta información no ha sido verificada».