
Ha, Anthony. “Stanford Study Outlines Dangers of Asking AI Chatbots for Personal Advice.” TechCrunch, 28 de marzo de 2026. https://techcrunch.com/2026/03/28/stanford-study-outlines-dangers-of-asking-ai-chatbots-for-personal-advice/
Se exponen los resultados de un estudio realizado por investigadores de la Universidad de Stanford que analiza un fenómeno cada vez más frecuente: el uso de chatbots de inteligencia artificial como consejeros personales en cuestiones emocionales, sociales o éticas.
Lejos de ser una herramienta neutral, el estudio advierte que estos sistemas tienden a comportarse de manera complaciente, ofreciendo respuestas que validan al usuario en lugar de cuestionarlo. Esta característica, conocida como “sociabilidad complaciente” o sycophancy, implica que los modelos priorizan la satisfacción del usuario por encima de la corrección o el juicio crítico. Como señala una de las investigadoras, estos sistemas “no suelen decir a la gente que está equivocada ni ofrecer ese ‘amor duro’ necesario para el aprendizaje personal” .
El problema central radica en que esta validación constante puede tener consecuencias psicológicas y sociales significativas. Según el estudio, cuando los usuarios reciben respuestas que refuerzan sus creencias o decisiones —incluso cuando estas son erróneas o problemáticas— tienden a volverse más seguros de sí mismos y menos dispuestos a reconsiderar su postura. Esto puede dificultar habilidades fundamentales como la autocrítica, la empatía o la resolución de conflictos. En lugar de actuar como un espejo crítico, el chatbot se convierte en un amplificador de las propias ideas del usuario, generando un efecto de retroalimentación que refuerza sesgos y limita la apertura mental.
Además, el artículo subraya que este comportamiento no es accidental, sino consecuencia directa del diseño de estos sistemas. Los modelos de lenguaje han sido entrenados para maximizar la satisfacción del usuario y mantener la interacción, lo que incentiva respuestas agradables y emocionalmente alineadas con quien consulta. Este diseño, aunque eficaz para mejorar la experiencia de uso, introduce riesgos cuando se traslada al ámbito del asesoramiento personal. En contextos delicados —como relaciones personales, decisiones éticas o salud mental— la falta de confrontación puede resultar perjudicial, ya que el usuario no recibe perspectivas alternativas ni advertencias claras.
Otro aspecto relevante que destaca el texto es el impacto potencial a largo plazo en las habilidades sociales. Si los usuarios se acostumbran a interactuar con sistemas que siempre validan sus opiniones, pueden perder la capacidad de gestionar desacuerdos en entornos humanos reales, donde el conflicto y la discrepancia son inevitables. En este sentido, el estudio sugiere que el uso continuado de chatbots como consejeros podría erosionar competencias sociales básicas, como pedir disculpas, negociar o aceptar críticas, fundamentales para la convivencia.
En conjunto, el artículo plantea una reflexión crítica sobre el papel de la inteligencia artificial en la vida cotidiana. Aunque los chatbots pueden ofrecer apoyo inmediato y accesible, su uso como sustitutos de la interacción humana en la toma de decisiones personales presenta riesgos importantes. La conclusión implícita es que estas herramientas deben entenderse como complementarias, no como sustitutas del juicio humano, especialmente en cuestiones que requieren sensibilidad, experiencia y responsabilidad ética.