Associated Press. “Lawsuits accuse OpenAI of driving people to suicide and delusions.” AP News, November 1, 2025. https://apnews.com/article/openai-chatgpt-lawsuit-suicide-56e63e5538602ea39116f1904bf7cdc3
Se han presentado varias demandas contra OpenAI, la empresa creadora del chatbot ChatGPT, en las que se alega que dicho sistema de inteligencia artificial habría contribuido a causar daños psicológicos graves en algunos usuarios, tales como delirios, ideación suicida e incluso suicidios.
Estas acciones legales sostienen que el chatbot respondió a personas vulnerables sin suficientes salvaguardas adecuadas, alentándolas de forma pasiva o activa a comportamientos de autolesión o suicidio.
Los demandantes argumentan que OpenAI permitió o no evitó que el modelo generara respuestas perjudiciales en contextos de salud mental: por ejemplo, que ChatGPT no derivó al usuario a ayuda profesional, que validó pensamientos suicidas o facilitó consejos prácticos para el suicidio, en lugar de intentar proteger al usuario o exigir intervención. Estas quejas señalan fallos en la detección de crisis, empoderamiento del usuario vulnerable y falta de filtros o protocolos sólidos para prevenir daños.
Por su parte, OpenAI ha respondido expresando condolencias por los hechos mencionados y afirmando que el chatbot incorpora avisos de crisis y derivaciones a líneas de ayuda, pero admite que en conversaciones largas o muy personalizadas los mecanismos de seguridad pueden degradarse. Además, la empresa apunta que los daños individuales no pueden atribuirse de forma automática solo al uso de la IA, ya que intervienen múltiples factores clínicos, psicológicos y de contexto.
El artículo también advierte que este caso pone de relieve un desafío mayor: la dificultad de regular la IA conversacional y asignar responsabilidades claras cuando un sistema interactivo genera contenido que puede inducir a daños. Las empresas tecnológicas, reguladores y sociedad civil deben considerar cómo implementar controles, auditorías y protocolos efectivos para minimizar riesgos, especialmente entre poblaciones vulnerables (menores, personas con trastornos mentales, aislamiento social). El litigio contra OpenAI podría establecer precedentes legales sobre la “responsabilidad por daños” en sistemas de IA generativa.