
Spencer, Michael. “Thinking Machines Just Announced More Human Like AI Interaction Models (‘Thinky’).” AI Supremacy, 14 de mayo de 2026. https://www.ai-supremacy.com/p/thinking-machines-just-announced-more-human-like-ai-interaction-models-thinky
El artículo presenta la nueva propuesta de Thinking Machines Lab, la empresa fundada por la ex CTO de OpenAI Mira Murati, centrada en el desarrollo de lo que denominan “interaction models”. Esta nueva arquitectura de IA pretende superar el paradigma dominante de los sistemas conversacionales “turn-based” (basados en turnos), en los que el usuario escribe o habla, el modelo procesa y responde, y la interacción se organiza como una secuencia rígida de entradas y salidas. En su lugar, los interaction models buscan establecer una comunicación continua y simultánea, en la que el sistema puede escuchar, ver, procesar y responder en tiempo real, de forma más cercana a una conversación humana fluida. El objetivo central es eliminar la latencia perceptible y el “bottleneck” de interacción que limita la naturalidad de los asistentes actuales.
El texto explica que esta nueva aproximación se basa en una arquitectura de “micro-turnos” o procesamiento en fragmentos de aproximadamente 200 milisegundos, lo que permite al sistema reaccionar casi instantáneamente a los estímulos del usuario. Según la propuesta, el modelo no espera a que el usuario termine completamente su intervención, sino que puede interpretar pausas, interrupciones, cambios de intención o señales contextuales durante la interacción. Esto abre la puerta a una forma de comunicación más dinámica, en la que la IA puede intervenir de manera proactiva, corregir, interrumpir o complementar la conversación en tiempo real, imitando mejor las dinámicas humanas de diálogo.
Asimismo, el artículo subraya que estos modelos no se limitan al texto, sino que integran múltiples modalidades como audio, vídeo y herramientas externas (búsqueda, generación de interfaces, análisis visual). Esto permitiría aplicaciones como traducción simultánea, asistencia contextual en tiempo real o interacción multimodal en entornos físicos. El sistema podría, por ejemplo, detectar lo que ocurre en un entorno visual mientras mantiene una conversación activa, generando respuestas y acciones de manera continua. Esta capacidad de “presencia permanente” redefine la relación entre usuario y sistema, transformando la IA de herramienta reactiva a colaborador activo.
En este sentido el artículo contextualiza esta innovación dentro de la competencia actual entre grandes laboratorios de IA, destacando el fuerte respaldo inversor y el talento procedente de otras compañías líderes del sector. Aunque el proyecto se encuentra aún en fase de investigación y sin producto público disponible, se plantea como un posible cambio de paradigma en la interacción humano-máquina. También se reconocen interrogantes importantes sobre escalabilidad, privacidad y dependencia de contextos altamente intrusivos (micrófono, cámara o pantalla), lo que abre un debate sobre el equilibrio entre naturalidad conversacional y control del usuario en sistemas de IA cada vez más integrados en la vida cotidiana.