Una imagen manipulada por IA del Pentágono explotando en llamas causó que bajara el mercado de valores de Estados Unidos

Una imagen con humo negro que se eleva al lado de un edificio de aspecto burocrático se difundió por las redes sociales el lunes por la mañana, con la afirmación de que mostraba una explosión cerca del Pentágono. En cuestión de minutos, una ola de cuentas de redes sociales, incluyendo algunas cuentas verificadas, compartieron la imagen falsa, amplificando aún más la confusión.

La publicación causó un breve sobresalto en el mercado de valores cuando rápidamente fueron recogidas por medios de comunicación fuera de Estados Unidos, antes de que los funcionarios intervinieran para aclarar que en realidad no había ocurrido ninguna explosión y que la foto era falsa.

Los expertos afirman que la imagen viral tenía señales evidentes de ser una falsificación generada por IA, y su popularidad subraya el caos cotidiano que estos programas, cada vez más sofisticados y de fácil acceso, pueden causar.

Hay muchas herramientas de IA generativa, como Midjourney, Dall-e 2 y Stable Diffusion, que pueden crear imágenes realistas con muy poco esfuerzo. Estas herramientas se entrenan observando grandes volúmenes de imágenes reales, pero rellenan los huecos con su propia interpretación cuando faltan datos de entrenamiento. Esto puede dar lugar a personas con extremidades adicionales y objetos que se transforman con su entorno.

Este incidente destaca las posibles amenazas que las imágenes generadas por IA pueden presentar en el ámbito de las redes sociales, donde se comparten rápidamente, así como la necesidad de un sistema de verificación en Twitter.

1 comentario en “Una imagen manipulada por IA del Pentágono explotando en llamas causó que bajara el mercado de valores de Estados Unidos

  1. Pingback: Con el auge de las imágenes generadas por inteligencia artificial, distinguir lo real de lo falso va a ser mucho más difícil. | Universo Abierto

Los comentarios están cerrados.