
Wired. 2025. “Unpacking AI Agents.” Uncanny Valley podcast, June 12, 2025. https://www.wired.com/story/uncanny-valley-podcast-unpacking-ai-agents/
A diferencia de los chatbots tradicionales, los agentes de IA no solo generan texto o imágenes a partir de indicaciones, sino que planifican, toman decisiones, interactúan con entornos digitales y ejecutan tareas complejas sin supervisión humana constante.
Se trata de sistemas diseñados para cumplir objetivos en el mundo real: desde reservar un vuelo y enviar correos electrónicos hasta gestionar calendarios, realizar búsquedas en múltiples plataformas o incluso negociar con otros agentes. Estos sistemas están construidos sobre grandes modelos de lenguaje (LLMs), pero requieren una arquitectura más sofisticada para integrar acción, razonamiento y persistencia en el tiempo.
Empresas como OpenAI, Google, Amazon y Anthropic están invirtiendo intensamente en este campo. Algunas, como OpenAI, han dado pasos importantes al presentar herramientas que convierten modelos como GPT-4 en verdaderos asistentes proactivos, capaces de ejecutar instrucciones en múltiples etapas, navegar por internet o integrarse con aplicaciones de productividad. El objetivo final es lograr lo que algunos llaman “agentes personales universales”: asistentes digitales que comprendan nuestras preferencias, hábitos y objetivos para automatizar tareas cotidianas de manera fluida y segura.
No obstante, los desafíos son inmensos. Para que un agente actúe de forma autónoma, necesita entender contextos complejos, gestionar información incierta y adaptarse a entornos dinámicos. Además, debe tomar decisiones alineadas con las intenciones del usuario y con principios éticos básicos, algo que la tecnología actual todavía no garantiza plenamente. El episodio señala ejemplos en los que los agentes pueden fallar: desde reservar vuelos con escalas imposibles hasta tomar decisiones inapropiadas por no comprender matices culturales o emocionales. Esta brecha entre capacidad técnica y comprensión profunda del mundo real es una de las grandes limitaciones actuales.
Otro tema crucial abordado por los anfitriones es el de la responsabilidad y el control humano. A medida que estos sistemas se vuelven más autónomos, surgen interrogantes sobre quién debe rendir cuentas si un agente comete un error grave o causa daños. También se discute el posible impacto sobre el empleo y las relaciones humanas: ¿qué tareas estamos dispuestos a delegar a una máquina? ¿Qué aspectos de nuestra vida diaria deberían seguir estando mediados por decisiones humanas? El temor a una excesiva dependencia tecnológica es recurrente en el episodio, así como la posibilidad de que estos agentes puedan ser usados con fines maliciosos: desde manipulación de usuarios hasta ciberataques automatizados.
Pese a todo, el episodio mantiene una mirada equilibrada. Reconoce que los agentes de IA podrían liberar a las personas de muchas cargas administrativas y mejorar la eficiencia en sectores como la educación, la medicina, la logística o la atención al cliente. Pero enfatiza que su desarrollo debe estar guiado por principios éticos, por el diseño transparente de sistemas y por la inclusión de supervisión humana significativa. También se aboga por la apertura de código, la interoperabilidad y la participación de voces diversas en el debate sobre cómo estas tecnologías deben ser implementadas.