Deepfakes al asalto de tu cuenta bancaria: la nueva frontera del fraude con imágenes

The Atlantic. “Deepfakes Are Coming for Your Bank Account.The Atlantic, mayo de 2026. https://www.theatlantic.com/technology/2026/05/chatgpt-images-deepfakes-fraud/687023/

El artículo analiza cómo los nuevos modelos de generación de imágenes mediante inteligencia artificial están transformando el fraude digital. Según The Atlantic, la amenaza ya no se limita a los tradicionales deepfakes de celebridades o líderes políticos, sino que se desplaza hacia falsificaciones mucho más cotidianas y peligrosas: alertas bancarias falsas, transferencias simuladas, documentos médicos, recetas, identificaciones oficiales, facturas o capturas de pantalla aparentemente auténticas. Estas imágenes resultan especialmente convincentes porque las herramientas actuales han mejorado notablemente en la reproducción de texto legible y diseño visual realista.

El reportaje pone el foco en la facilidad con la que un usuario puede generar material fraudulento. El autor explica que logró producir más de cien imágenes engañosas con poco esfuerzo, demostrando que la barrera técnica para cometer este tipo de delitos se ha reducido drásticamente. Antes, elaborar falsificaciones sofisticadas requería conocimientos avanzados de edición gráfica; ahora basta con introducir instrucciones en lenguaje natural. Esto democratiza el fraude y multiplica los riesgos para particulares, empresas e instituciones.

Uno de los aspectos más preocupantes es el uso de estas imágenes en estafas personalizadas. Una persona podría recibir un supuesto recibo de Uber, una alerta de Chase Bank o una confirmación de transferencia inexistente acompañada de un enlace malicioso. Al tratarse de documentos visualmente creíbles, la víctima puede reaccionar con rapidez y caer en ataques de phishing. El problema no es solo la calidad técnica de la imagen, sino la capacidad de combinarla con ingeniería social para manipular emociones como la urgencia, el miedo o la confusión.

El texto también cuestiona la eficacia de las salvaguardas implantadas por las empresas tecnológicas. Aunque OpenAI y Google incorporan políticas de uso, marcas de agua o metadatos para identificar imágenes generadas por IA, estas medidas pueden eliminarse fácilmente mediante capturas de pantalla, recortes o nuevas conversiones de archivo. En la práctica, los mecanismos de seguridad van por detrás de la rapidez con la que evolucionan las herramientas de generación visual.

Para concluir, el artículo sostiene que el mayor peligro no reside en los grandes engaños mediáticos, sino en los “microdeepfakes”: falsificaciones dirigidas a personas concretas para vaciar cuentas, obtener datos personales o engañar a familiares. En lugar de alterar elecciones o provocar crisis geopolíticas, estos fraudes erosionan la confianza diaria en mensajes, imágenes y comunicaciones digitales. La conclusión es clara: el desafío ya no es futurista, sino inmediato, y exige respuestas coordinadas entre tecnológicas, bancos, reguladores y ciudadanía.