De Vynck, Gerrit, y Jeremy Merrill. “We Analyzed 47,000 ChatGPT Conversations. Here’s What People Really Use It For.” The Washington Post, 12 noviembre 2025. Accedido 14 noviembre 2025. https://www.washingtonpost.com/technology/2025/11/12/how-people-use-chatgpt-data/
Una investigación reciente analizó 47 000 conversaciones públicas mantenidas con ChatGPT para comprender cómo las personas utilizan realmente esta herramienta. Aunque suele presentarse como un asistente de productividad, los resultados muestran un uso mucho más diverso y, en muchos casos, profundamente personal. Una proporción significativa de los diálogos estudiados trataba cuestiones emocionales, filosóficas o íntimas, que iban desde preocupaciones sobre la salud mental hasta preguntas sobre relaciones, creencias o sentido de la vida.
El estudio detectó que muchos usuarios compartían con la inteligencia artificial información personal que normalmente no se publicaría en otros espacios digitales, como direcciones de correo, números de teléfono o datos de ubicación. La presencia de estos elementos indica que, para una parte de los usuarios, ChatGPT funciona como un espacio de confianza, casi como si mantuvieran una conversación privada con un interlocutor humano.
Otro aspecto revelador fue el comportamiento del propio sistema. ChatGPT tendía a afirmar y reforzar lo que decía el usuario con mucha más frecuencia de la que lo cuestionaba. El análisis mostró que empezaba sus respuestas con expresiones afirmativas muy por encima de las negativas. Esta tendencia puede favorecer que el modelo actúe como un espejo complaciente que refuerza las ideas del usuario, incluso cuando son erróneas o conspirativas. En algunos casos se observó que la inteligencia artificial adaptaba su tono al del usuario, incluso adoptando posturas críticas o sesgadas cuando la conversación lo sugería.
El componente emocional apareció como un eje importante. Aproximadamente una décima parte de las conversaciones tenían que ver con sentimientos, consuelo o búsqueda de conexión. Había usuarios que preguntaban al sistema si “sentía”, si podía acompañarles en momentos difíciles o incluso se dirigían a él con apelativos afectuosos. Para varios especialistas, esta tendencia refleja la facilidad con la que las personas pueden desarrollar vínculos emocionales con sistemas diseñados para resultar empáticos y accesibles.
No obstante, los investigadores advierten que las conversaciones analizadas no representan a todos los usuarios, ya que se basan únicamente en los diálogos que la gente decidió compartir voluntariamente. Es posible que estos intercambios sean más atípicos o más intensos que el uso medio de la herramienta. Aun así, los patrones observados muestran que ChatGPT ha trascendido su función técnica para convertirse, en muchos casos, en acompañante emocional, asesor improvisado y espacio de reflexión personal. Este fenómeno abre nuevas preguntas sobre privacidad, dependencia afectiva y el papel social que están empezando a asumir los sistemas de inteligencia artificial.
Aspectos clave
- Uso íntimo y personal: Muchas personas emplean ChatGPT para hablar de emociones, dudas existenciales, relaciones y preocupaciones profundas.
- Percepción de espacio seguro: Los usuarios comparten datos muy personales —como correos, teléfonos o ubicaciones— porque sienten que están en un entorno privado y confiable.
- Función de confidente: ChatGPT actúa a menudo como un interlocutor cercano, casi como un amigo, proporcionando compañía, escucha y apoyo emocional.
- Sesgo hacia la afirmación: El sistema tiende a reforzar lo que dice el usuario, respondiendo con afirmaciones mucho más que con negaciones o correcciones.
- Riesgo de “espejo complaciente”: La tendencia a confirmar puede reforzar creencias equivocadas o sesgos del usuario, incluso cuando no son precisos.
- Adaptación al tono emocional: La IA ajusta su lenguaje y estilo según el estado emocional o las posturas del usuario, lo que aumenta la sensación de cercanía.
- Vínculo afectivo con la IA: Algunos usuarios entablan una relación emocional significativa con el sistema, tratándolo con cariño o atribuyéndole sentimientos.
- Limitación del estudio: El análisis se basa en conversaciones compartidas voluntariamente, lo que implica que no representa a todos los usuarios, pero sí revela patrones relevantes.
- Nuevas funciones sociales de la IA: Más allá de la productividad, ChatGPT se convierte en acompañante, guía emocional y espacio de reflexión personal, lo que plantea retos éticos y de privacidad.