Archivo de la etiqueta: Terrorismo

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

Una mujer amenazó con volar la biblioteca de Aurora una hora antes de que se recibieran docenas de amenazas de bomba por correo electrónico

aurora-library

Una usuaria a quien se le prohibió el acceso a la biblioteca de Aurora amenazó con volar la biblioteca una hora antes de que se enviaran docenas de amenazas de bombas por correo electrónico a sitios de todo el país, incluyendo tres lugares en Aurora. No se encontró ninguna conexión con las otras amenazas de bomba, dijeron las autoridades.

 

Una usuaria enojada que fue expulsado de la Biblioteca Pública de Aurora (Illinois) amenazó con volar la biblioteca el día 13 de diciembre, aproximadamente una hora antes de que se enviaran docenas de amenazas de bomba por correo electrónico a empresas, juzgados, periódicos y universidades de todo Estados Unidos, incluyendo la Biblioteca Pública de Wallingford (Connecticut) y la Biblioteca Pública de Morton Grove (Illinois). Las autoridades dijeron que no había conexión entre el incidente de Aurora y los otros, que fueron investigados y categorizados como amenazas de extorsión por correo robotizado. Se informó de que los destinatarios habían recibido un correo electrónico en el que se decía que había una bomba oculta que detonaría a menos que el remitente recibiera un rescate 20.000 dólares a través de bitcoin. El departamento de policía de Aurora determinó que la amenaza no era creíble y que la biblioteca no fue evacuada.