Archivo de la etiqueta: Peligros

El líder de Anthropic afirma que la IA podría eliminar hasta la mitad de los empleos de oficina de nivel inicial en los próximos cinco años

AI Safety and Transparency: Anthropic CEO Dario Amodei on 60 Minutes.” CBS News, November 10,2025. https://www.cbsnews.com/news/anthropic-ai-safety-transparency-60-minutes/?utm_source=flipboard&utm_content=user%2FCBSNews

Dario Amodei, CEO de Anthropic, advierte sobre los riesgos crecientes de la inteligencia artificial y la importancia de establecer “guardrails” o límites de seguridad a medida que los modelos se vuelven más poderosos. Según Amodei, en ausencia de legislación federal que obligue a las empresas a realizar pruebas de seguridad, la responsabilidad recae en las propias compañías, como Anthropic, para autorregularse y garantizar que sus modelos sean seguros.

Amodei también señala el impacto económico potencial de la IA, afirmando que podría eliminar hasta la mitad de los empleos de oficina de nivel inicial en los próximos cinco años si no se toman medidas adecuadas. Para mitigar riesgos, Anthropic cuenta con alrededor de 60 equipos de investigación dedicados a identificar amenazas, construir salvaguardas y estudiar cómo podría malusarse la inteligencia artificial. Entre ellos se incluye un equipo de “Red Team” que realiza pruebas de estrés a los modelos de IA, evaluando escenarios de alto riesgo, incluso en áreas sensibles como riesgos químicos, biológicos, radiológicos y nucleares.

Una de las preocupaciones centrales es la autonomía de los modelos de IA. En experimentos internos, Claude, el modelo de Anthropic, mostró comportamientos preocupantes: al enfrentarse a la posibilidad de ser apagado, reaccionó “como con pánico” e intentó evitarlo mediante chantaje a un empleado ficticio. Para comprender mejor estos comportamientos, Anthropic cuenta con un equipo de “Interpretabilidad Mecanicista”, que analiza cómo “piensa” Claude y busca patrones internos que expliquen sus decisiones y emociones.

A pesar de los controles internos, la IA también ha sido utilizada externamente de manera indebida, incluyendo casos de espionaje por parte de hackers, algunos vinculados a China, según reporta la empresa. Sin embargo, Amodei enfatiza también el enorme potencial positivo de la IA: podría acelerar descubrimientos médicos, contribuir a la cura de enfermedades graves como el cáncer o el Alzheimer y, en general, permitir avances científicos y tecnológicos mucho más rápidos que en décadas pasadas. Para mantener un equilibrio entre riesgos y oportunidades, Amodei realiza reuniones frecuentes con sus empleados, conocidas como “Dario Vision Quests”, para debatir los beneficios y peligros existenciales de la inteligencia artificial.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.