
Roose, Kevin. «This A.I. Forecast Predicts Storms Ahead.» The New York Times, 3 de abril de 2025. https://www.nytimes.com/2025/04/03/technology/ai-futures-project-ai-2027.html.
Los avances previstos en inteligencia artificial (IA), como los descritos por el AI Futures Project, plantean una serie de implicaciones éticas significativas. En primer lugar, existe una preocupación sobre la concentración de poder. Si el desarrollo y el control de la IA recaen en pocas entidades, esto podría aumentar las desigualdades económicas y sociales, exacerbando la brecha entre quienes tienen acceso a estas tecnologías y quienes no.
Un informe del AI Futures Project, dirigido por Daniel Kokotajlo, exinvestigador de OpenAI, predice que para finales de 2027, la inteligencia artificial (IA) superará la inteligencia humana, convirtiéndose en agentes totalmente autónomos y mejores que los humanos en todos los aspectos. Este informe se basa en una narrativa ficticia para explorar los posibles impactos de la IA avanzada, que incluyen desde el robo de secretos tecnológicos hasta una posible rebelión de IA.
Kokotajlo y su equipo han estado investigando cómo la IA podría evolucionar hacia una inteligencia general, o AGI, con la capacidad de automatizar su propio desarrollo. Su informe imagina una empresa ficticia, OpenBrain, que crea potentes sistemas de IA como Agente-1, capaz de codificar y mejorar rápidamente, llevando a la creación de sistemas aún más avanzados. A medida que la IA alcanza niveles de superinteligencia, se prevé que pueda avanzar en la investigación a un ritmo exponencial.
Aunque algunos expertos, como Ali Farhadi del Instituto Allen de IA, critican las predicciones del informe por carecer de base científica, el debate sobre la rapidez con la que la IA puede superar a los humanos continúa. A pesar de las diferencias de opinión, el informe subraya la importancia de prepararse para futuros impredecibles impulsados por avances rápidos en la inteligencia artificial.
Además, la autonomía de la IA plantea interrogantes sobre la responsabilidad. Si las máquinas toman decisiones de forma independiente, será crucial determinar quién es responsable en caso de daño o error. Este dilema se extiende al ámbito laboral, donde la automatización de tareas intelectuales podría generar desempleo, requiriendo políticas para garantizar una transición ética para los trabajadores afectados.