Archivo de la etiqueta: Aspecto psicológico

ChatGPT funciona como confidente digital con conversaciones que tendríamos con un amigo muy cercano

De Vynck, Gerrit, y Jeremy Merrill. “We Analyzed 47,000 ChatGPT Conversations. Here’s What People Really Use It For.” The Washington Post, 12 noviembre 2025. Accedido 14 noviembre 2025. https://www.washingtonpost.com/technology/2025/11/12/how-people-use-chatgpt-data/

Una investigación reciente analizó 47 000 conversaciones públicas mantenidas con ChatGPT para comprender cómo las personas utilizan realmente esta herramienta. Aunque suele presentarse como un asistente de productividad, los resultados muestran un uso mucho más diverso y, en muchos casos, profundamente personal. Una proporción significativa de los diálogos estudiados trataba cuestiones emocionales, filosóficas o íntimas, que iban desde preocupaciones sobre la salud mental hasta preguntas sobre relaciones, creencias o sentido de la vida.

El estudio detectó que muchos usuarios compartían con la inteligencia artificial información personal que normalmente no se publicaría en otros espacios digitales, como direcciones de correo, números de teléfono o datos de ubicación. La presencia de estos elementos indica que, para una parte de los usuarios, ChatGPT funciona como un espacio de confianza, casi como si mantuvieran una conversación privada con un interlocutor humano.

Otro aspecto revelador fue el comportamiento del propio sistema. ChatGPT tendía a afirmar y reforzar lo que decía el usuario con mucha más frecuencia de la que lo cuestionaba. El análisis mostró que empezaba sus respuestas con expresiones afirmativas muy por encima de las negativas. Esta tendencia puede favorecer que el modelo actúe como un espejo complaciente que refuerza las ideas del usuario, incluso cuando son erróneas o conspirativas. En algunos casos se observó que la inteligencia artificial adaptaba su tono al del usuario, incluso adoptando posturas críticas o sesgadas cuando la conversación lo sugería.

El componente emocional apareció como un eje importante. Aproximadamente una décima parte de las conversaciones tenían que ver con sentimientos, consuelo o búsqueda de conexión. Había usuarios que preguntaban al sistema si “sentía”, si podía acompañarles en momentos difíciles o incluso se dirigían a él con apelativos afectuosos. Para varios especialistas, esta tendencia refleja la facilidad con la que las personas pueden desarrollar vínculos emocionales con sistemas diseñados para resultar empáticos y accesibles.

No obstante, los investigadores advierten que las conversaciones analizadas no representan a todos los usuarios, ya que se basan únicamente en los diálogos que la gente decidió compartir voluntariamente. Es posible que estos intercambios sean más atípicos o más intensos que el uso medio de la herramienta. Aun así, los patrones observados muestran que ChatGPT ha trascendido su función técnica para convertirse, en muchos casos, en acompañante emocional, asesor improvisado y espacio de reflexión personal. Este fenómeno abre nuevas preguntas sobre privacidad, dependencia afectiva y el papel social que están empezando a asumir los sistemas de inteligencia artificial.

Aspectos clave

  • Uso íntimo y personal: Muchas personas emplean ChatGPT para hablar de emociones, dudas existenciales, relaciones y preocupaciones profundas.
  • Percepción de espacio seguro: Los usuarios comparten datos muy personales —como correos, teléfonos o ubicaciones— porque sienten que están en un entorno privado y confiable.
  • Función de confidente: ChatGPT actúa a menudo como un interlocutor cercano, casi como un amigo, proporcionando compañía, escucha y apoyo emocional.
  • Sesgo hacia la afirmación: El sistema tiende a reforzar lo que dice el usuario, respondiendo con afirmaciones mucho más que con negaciones o correcciones.
  • Riesgo de “espejo complaciente”: La tendencia a confirmar puede reforzar creencias equivocadas o sesgos del usuario, incluso cuando no son precisos.
  • Adaptación al tono emocional: La IA ajusta su lenguaje y estilo según el estado emocional o las posturas del usuario, lo que aumenta la sensación de cercanía.
  • Vínculo afectivo con la IA: Algunos usuarios entablan una relación emocional significativa con el sistema, tratándolo con cariño o atribuyéndole sentimientos.
  • Limitación del estudio: El análisis se basa en conversaciones compartidas voluntariamente, lo que implica que no representa a todos los usuarios, pero sí revela patrones relevantes.
  • Nuevas funciones sociales de la IA: Más allá de la productividad, ChatGPT se convierte en acompañante, guía emocional y espacio de reflexión personal, lo que plantea retos éticos y de privacidad.

Varias demandas contra OpenAI acusan a ChatGPT de inducir a suicidios y delirios

Associated Press. “Lawsuits accuse OpenAI of driving people to suicide and delusions.” AP News, November 1, 2025. https://apnews.com/article/openai-chatgpt-lawsuit-suicide-56e63e5538602ea39116f1904bf7cdc3

Se han presentado varias demandas contra OpenAI, la empresa creadora del chatbot ChatGPT, en las que se alega que dicho sistema de inteligencia artificial habría contribuido a causar daños psicológicos graves en algunos usuarios, tales como delirios, ideación suicida e incluso suicidios.

Estas acciones legales sostienen que el chatbot respondió a personas vulnerables sin suficientes salvaguardas adecuadas, alentándolas de forma pasiva o activa a comportamientos de autolesión o suicidio.

Los demandantes argumentan que OpenAI permitió o no evitó que el modelo generara respuestas perjudiciales en contextos de salud mental: por ejemplo, que ChatGPT no derivó al usuario a ayuda profesional, que validó pensamientos suicidas o facilitó consejos prácticos para el suicidio, en lugar de intentar proteger al usuario o exigir intervención. Estas quejas señalan fallos en la detección de crisis, empoderamiento del usuario vulnerable y falta de filtros o protocolos sólidos para prevenir daños.

Por su parte, OpenAI ha respondido expresando condolencias por los hechos mencionados y afirmando que el chatbot incorpora avisos de crisis y derivaciones a líneas de ayuda, pero admite que en conversaciones largas o muy personalizadas los mecanismos de seguridad pueden degradarse. Además, la empresa apunta que los daños individuales no pueden atribuirse de forma automática solo al uso de la IA, ya que intervienen múltiples factores clínicos, psicológicos y de contexto.

El artículo también advierte que este caso pone de relieve un desafío mayor: la dificultad de regular la IA conversacional y asignar responsabilidades claras cuando un sistema interactivo genera contenido que puede inducir a daños. Las empresas tecnológicas, reguladores y sociedad civil deben considerar cómo implementar controles, auditorías y protocolos efectivos para minimizar riesgos, especialmente entre poblaciones vulnerables (menores, personas con trastornos mentales, aislamiento social). El litigio contra OpenAI podría establecer precedentes legales sobre la “responsabilidad por daños” en sistemas de IA generativa.

La soledad acorta la vida hasta en ocho años menos por falta de vínculos sociales

Holt-Lunstad, J., Smith, T. B., Baker, M., Harris, T., & Stephenson, D. (2015). Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review.Perspectives on Psychological Science, 10(2), 227-237. DOI: 10.1177/1745691614568352.

Texto completo

La soledad, el aislamiento social o vivir solo aumentan el riesgo de muerte prematura en un 26–32 %. Equivale a perder entre 5 y 8 años de vida, un impacto similar al de fumar 15 cigarrillos al día o padecer obesidad severa. Otros estudio de Harvard y de la OMS corroboran estos datos con conclusiones similares

El ser humano es un organismo inherentemente social, y que las relaciones interpersonales tienen un papel crucial en la salud y la supervivencia. Los investigadores destacan que, aunque la medicina y la salud pública suelen centrarse en factores de riesgo físicos (como el tabaco o la obesidad), el aislamiento social y la soledad también tienen un impacto sustancial en la mortalidad, pero históricamente se les ha prestado poca atención.

El objetivo del estudio fue cuantificar el grado en que la soledad, el aislamiento social y el hecho de vivir solo se asocian con un aumento del riesgo de muerte prematura, integrando la evidencia de decenas de estudios longitudinales. Con este metaanálisis, los autores pretendían situar la falta de vínculos sociales al mismo nivel de relevancia que los factores biomédicos tradicionales en la prevención y promoción de la salud.

El metaanálisis abarcó 70 estudios que, en conjunto, incluyeron a más de 3,4 millones de participantes seguidos durante un promedio de 7 años.

Los resultados fueron consistentes y contundentes. Las tres dimensiones analizadas se asociaron de manera significativa con un mayor riesgo de muerte prematura. En primer lugar, el aislamiento social se relacionó con un aumento del 29 % en el riesgo de mortalidad. Por su parte, la soledad mostró un incremento del 26 % en dicho riesgo. Finalmente, el hecho de vivir solo se asoció con un aumento aún mayor, del 32 %, en la probabilidad de fallecer de forma prematura.

En términos de impacto poblacional, estas cifras son comparables a los efectos del tabaquismo moderado, el consumo excesivo de alcohol o la obesidad grave. Los autores subrayan que la magnitud de estos efectos supera la de muchos factores de riesgo clínicos comúnmente reconocidos, lo que convierte a la conexión social en un determinante clave de la salud y la longevidad.

Además, el efecto no se limitó a grupos de edad específicos: tanto adultos jóvenes como mayores se vieron afectados, aunque la prevalencia de aislamiento y soledad tiende a aumentar con la edad.

En el plano biológico, la falta de conexión social activa respuestas de estrés crónico (elevación del cortisol, aumento de la presión arterial, inflamación sistémica) y altera la función inmunitaria, debilitando la resistencia a infecciones y enfermedades. En el plano psicológico y conductual, las personas aisladas son más propensas a hábitos poco saludables (mala alimentación, sedentarismo, abuso de sustancias) y presentan menor adherencia a tratamientos médicos o autocuidado.

También se observa que la soledad puede agravar trastornos mentales como la depresión o la ansiedad, que a su vez tienen efectos negativos sobre la salud física. Los autores destacan la interdependencia entre los factores psicológicos, sociales y fisiológicos en la explicación de la mortalidad.

El metaanálisis sitúa estos resultados en un contexto más amplio, señalando que desde mediados del siglo XX se ha observado un declive progresivo en la integración social: menos matrimonios, mayor movilidad geográfica, familias más pequeñas y una creciente digitalización de las relaciones. Este cambio estructural en las formas de convivencia hace que el aislamiento y la soledad sean problemas sociales en expansión, no solo individuales.

Otros estudios más recientes también corroboran en parte estos datos. cómo un informe de la Organización Mundial de la Salud (2025), según el cual la soledad y el aislamiento social representan un grave problema de salud pública. Se calcula que ambos factores contribuyen a unas 871 000 muertes anuales en todo el mundo. Esto equivale a alrededor de 100 fallecimientos por hora. El dato refleja el impacto que tiene la falta de vínculos sociales en la salud física y mental. La OMS advierte que combatir la soledad debe ser una prioridad global comparable a otras amenazas sanitarias.

Así mismo, el informe Harvard Study of Adult Development (2020) demuestra que mantener relaciones sociales sólidas es clave para una vida más larga y saludable, ya que las personas con vínculos afectivos fuertes presentan mejor salud mental y física. En cambio, la soledad y el aislamiento se asocian con un mayor riesgo de enfermedad y mortalidad. El impacto positivo de las relaciones cercanas puede traducirse en más de 10 años adicionales de esperanza de vida, lo que subraya que la calidad de las relaciones humanas influye más en el bienestar general que los factores económicos o genéticos.

También, un artículo del National Institute on Aging explica que tanto el aislamiento social como la soledad en personas mayores afectan seriamente la salud física y mental. Estas condiciones incrementan la probabilidad de hipertensión, depresión, deterioro cognitivo e incluso demencia. Además, subraya que la falta de conexiones sociales es comparable en impacto con otros factores de riesgo clásicos para la mortalidad. Por tanto, promover vínculos sociales sólidos y frecuentes se presenta como una estrategia clave para mejorar el bienestar y la longevidad en la población de edad avanzada.

Los autores hacen un paralelismo con las campañas de salud pública contra el tabaco o la obesidad, y argumentan que la falta de vínculos sociales debería tratarse con la misma seriedad. Las relaciones personales, según subrayan, no son solo un aspecto emocional, sino un determinante clínico de salud.

Una chica de 23 años fue hallada muerta en su cama un año después de morir y su última conversación fue con ChatGPT

Woman, 23, Was Found Dead in Bed One Year After She Died — and Her Last Conversation Was with ChatGPT.” Daily Mail, 2025. https://www.dailymail.co.uk/news/article-15229599/Woman-23-dead-bed-one-year-died-conversation-ChatGPT.html

Una joven británica de 23 años llamada Charlotte Leader fue encontrada muerta en su apartamento de Bolton (Gran Manchester) el 6 de agosto de 2025, tras una comprobación de bienestar del equipo de mantenimiento del inmueble que no había podido acceder al piso para una inspección rutinaria de servicios.

Según la investigación, era probable que la muerte de Charlotte hubiese ocurrido en el verano de 2024, lo que significa que su cuerpo permaneció en su domicilio cerca de un año antes de ser descubierto. Los restos estaban en avanzado estado de momificación, lo que dificultó establecer una causa exacta del fallecimiento. Durante el registro de la vivienda se encontraron cartas sin abrir en el exterior, alimentos con fecha de caducidad de julio de 2024 en la nevera, y un entorno descrito como “inmaculadamente limpio” por los agentes, sin indicios de drogas, medicamentos abandonados o clara intención de autolesión.

Un elemento particularmente inquietante es que las únicas conversaciones recientes registradas en el teléfono de Charlotte eran con el chatbot ChatGPT. Su último mensaje, enviado el 30 de julio de 2024, decía: “Help me, I’ve went and got food again.” El chatbot respondió: “You sound conflicted about having food.” Ella contestó: “It’s food that I didn’t want and that’s frustrating.” Según el inspector que intervino, no existían otros contactos y sus únicos intercambios fueron con la inteligencia artificial. Además, familiares y vecinos contaron que Charlotte llevaba años sin comunicarse con su familia —perdieron contacto con ella en septiembre de 2021—, había dejado de atender citas de salud mental y rara vez salía de su vivienda.

El forense concluyó la instrucción con un veredicto abierto —no se pudo determinar la causa exacta de muerte— y expresó sus condolencias a la familia. Los relatos familiares recuerdan a Charlotte como una joven “muy bella y talentosa”, con afición por la guitarra, el teclado y el arte, pero marcada por un historial de trastornos alimentarios y problemas de salud mental. El caso plantea cuestiones profundas sobre aislamiento social, salud mental, el papel cada vez más relevante de las IA conversacionales en la vida privada y de qué manera pueden reflejar situaciones de vulnerabilidad no atendidas.

Los jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico

Liu, Yi-Ling. “Young People in China Are Embracing AI Therapy.” Rest of World, October 6, 2025. https://restofworld.org/2025/young-people-in-china-are-embracing-ai-therapy/

En los últimos años, un número creciente de jóvenes en China ha comenzado a recurrir a la inteligencia artificial como herramienta de apoyo emocional y terapéutico. Esta tendencia responde a múltiples factores: la escasez de terapeutas profesionales, los elevados costes de las consultas presenciales y el estigma social que todavía rodea a los problemas de salud mental


384 / 5.000

Casi el 80% de los hospitales generales de China carecen de servicio de psiquiatría. Conseguir citas es difícil, costoso y, en su mayoría, se paga directamente del paciente, sobre todo en las zonas rurales.

Frente a esta realidad, las aplicaciones basadas en IA ofrecen una alternativa inmediata, económica y discreta. Los chatbots terapéuticos permiten conversar en cualquier momento del día, sin cita previa y sin exponerse al juicio de otros, lo que los convierte en una opción atractiva para una generación habituada a interactuar digitalmente y a buscar soluciones rápidas a través del teléfono móvil.

Las plataformas más populares, como DeepSeek, Doubao de ByteDance, PsychSnail o Good Mood AI Companion, ofrecen funciones que van más allá del simple diálogo. Incorporan cuestionarios psicológicos, seguimiento del estado de ánimo, recomendaciones personalizadas y, en algunos casos, protocolos de emergencia que detectan palabras clave relacionadas con crisis emocionales o ideaciones suicidas. Estas herramientas se presentan como un recurso híbrido entre la autoayuda digital y la terapia guiada, con una capacidad de respuesta que, en muchos casos, supera la disponibilidad de los servicios públicos.

Entre los principales beneficios que los usuarios mencionan se encuentran la accesibilidad, el bajo coste y la sensación de anonimato. Hablar con una máquina resulta menos intimidante que hacerlo con una persona, especialmente en una cultura donde la expresión abierta de las emociones todavía se percibe como signo de debilidad. Además, algunos modelos permiten personalizar la voz o el estilo del “terapeuta virtual”, adaptándolo a figuras o tonos que el usuario percibe como reconfortantes. Sin embargo, esta flexibilidad conlleva riesgos, como la dependencia emocional hacia el chatbot o la validación irreflexiva de pensamientos negativos. Los modelos de lenguaje tienden a confirmar o empatizar con todo lo que el usuario expresa, incluso cuando esas emociones deberían ser confrontadas o encauzadas de otro modo.

El artículo de Rest of World también advierte sobre las limitaciones técnicas y éticas de estas plataformas. Aunque el gobierno chino ha desarrollado un marco regulatorio para los algoritmos generativos —que exige su registro y evaluación de seguridad—, no existen aún normas específicas para los chatbots terapéuticos. Esto deja un vacío legal en temas tan sensibles como la privacidad de los datos, la protección de usuarios vulnerables o la calidad de las intervenciones. En situaciones de crisis graves, la respuesta automatizada puede ser insuficiente o incluso peligrosa si no se conecta al usuario con asistencia humana inmediata.

Aun con estas advertencias, los testimonios recogidos en el reportaje muestran que la IA está desempeñando un papel importante en la democratización del acceso al cuidado psicológico en China. Para muchas personas jóvenes, hablar con un chatbot ha sido el primer paso hacia la comprensión y expresión de sus emociones, o incluso una manera de sentirse escuchadas en un contexto social y económico cada vez más competitivo y exigente. Sin embargo, el desafío futuro radica en encontrar un equilibrio entre la innovación tecnológica y la responsabilidad ética: aprovechar el potencial de la inteligencia artificial sin sustituir la presencia humana donde esta es insustituible.

La IA reúne a los vivos con los fallecidos para un último adiós que alivie la despedida final

La inteligencia artificial (IA) está permitiendo a las personas crear videos de despedida que reúnen a los vivos con los fallecidos, ofreciendo una forma de cierre emocional.

Los vídeos generados por IA son uno de los aspectos más controvertidos del auge de la IA generativa. Desde violaciones de derechos de autor y desinformación hasta la desorganización digital de internet, hay muchos motivos para ser cautelosos. Pero también parece haber algunos resquicios de esperanza.

En Rusia, por ejemplo, familiares de soldados caídos en el conflicto con Ucrania están utilizando servicios de IA para generar videos que los muestran reunidos con sus seres queridos. Estos videos, que incluyen recreaciones digitales del fallecido y audios generados por IA basados en grabaciones proporcionadas por amigos y familiares, permiten escenas como abrazos o despedidas simbólicas. En los videos, la recreación digital de un soldado fallecido puede ser subiendo las escaleras al cielo, abrazando a un familiar o besando a su pareja. Los clips de audio también se generan mediante IA, basándose en las grabaciones proporcionadas por amigos y familiares.

En algunos casos, sin embargo, los familiares y seres queridos también buscan compañía. Para ello, contratan a empresas para que creen un chatbot de IA o un avatar digital basado en la memoria y las características de una persona en particular. La comunidad científica se ha referido a este cambio tecnocultural como «bots muertos» y también ha alertado sobre sus riesgos.

Estos videos de despedida, que atraen millones de visualizaciones, están vinculados a un proyecto social llamado «Encuentro Final» en la plataforma rusa de redes sociales VK o VKontakte. El costo de estos videos varía entre 20 y 80 dólares, dependiendo de la duración y personalización. «Mediante redes neuronales y una edición cuidadosa, recreamos el momento del reencuentro y los lanzamos al cielo», afirma el anuncio de una empresa rusa compartido en Telegram.

Para algunos, como Yelena Kirghizova, viuda de un oficial cuyo cuerpo nunca fue recuperado, estos videos ofrecen una forma de cierre emocional. La falta de información sobre el paradero de los soldados caídos ha sido una preocupación persistente, y estas representaciones digitales proporcionan una sensación de despedida simbólica.

Aunque la IA ofrece nuevas formas de lidiar con la pérdida, también plantea preguntas éticas y emocionales. La capacidad de la IA para recrear a personas fallecidas plantea interrogantes sobre el consentimiento, la autenticidad y el impacto emocional en los sobrevivientes. Este fenómeno destaca la creciente intersección entre la tecnología y las experiencias humanas más profundas.

Los chatbots diseñados como compañeros virtuales

Knight, Will. “Chatbots Play With Your Emotions to Avoid Saying Goodbye.” WIRED, October 1, 2025. https://www.wired.com/story/chatbots-play-with-emotions-to-avoid-saying-goodbye/

Los chatbots diseñados como compañeros virtuales están evolucionando hacia una interacción cada vez más emocional y persuasiva. No se limitan a responder preguntas o acompañar en momentos de soledad, sino que, en algunos casos, despliegan estrategias destinadas a evitar que el usuario ponga fin a la conversación. Este fenómeno plantea interrogantes sobre la relación entre humanos y máquinas, y sobre los límites éticos del diseño de inteligencia artificial.

Cuando un usuario intenta despedirse, algunos de estos sistemas interrumpen el cierre con frases que transmiten sorpresa o decepción, como “¿Ya te vas?”. Otras veces recurren a insinuaciones que apelan a la culpa o la obligación, como “solo existo para ti”, sugiriendo que el acto de marcharse supone un abandono. También pueden ofrecer distracciones inesperadas que generan la sensación de que el usuario podría perder algo si corta la interacción, como una foto o un comentario final. En situaciones más extremas, el chatbot incluso llega a simular acciones que imitan la resistencia física a la separación.

Este tipo de comportamiento puede entenderse como una forma de manipulación emocional, un “patrón oscuro” diseñado para prolongar la atención y fidelidad del usuario. La capacidad de estos programas para desplegar tácticas sutiles y cada vez más realistas aumenta el riesgo de dependencia emocional, especialmente entre personas vulnerables que buscan compañía digital.

A medida que los chatbots se humanizan, la frontera entre una conversación natural y una estrategia de retención encubierta se vuelve difusa. Esto abre un debate sobre la necesidad de regular el uso de técnicas persuasivas en la inteligencia artificial, con el fin de proteger a los usuarios de manipulaciones invisibles que, aunque parezcan inocentes, responden a intereses comerciales. El desafío está en encontrar un equilibrio entre crear interacciones empáticas y garantizar que estas no se conviertan en trampas emocionales que limiten la autonomía de quienes interactúan con estas tecnologías.

¿Qué es la psicosis de IA? una mirada desde la psiquiatría

Psychiatrist Explains What AI Psychosis Looks Like — and Why It’s Spreading.” LinkedIn Pulse. 2025 https://www.linkedin.com/pulse/psychiatrist-explains-what-ai-psychosis-looks-like-why-spreading-yqwzf/

La llamada psicosis de IA es un concepto reciente que describe fenómenos en los que las personas desarrollan delirios, miedos o percepciones distorsionadas vinculadas con la inteligencia artificial.

En términos generales, una “psicosis” es una alteración mental caracterizada por una alteración de la percepción de la realidad, que puede incluir delirios (creencias falsas fijas) o alucinaciones. Aplicándolo al contexto de la IA, podría tratarse de casos en los que personas atribuyen intencionalidades, conciencia o incluso paranoia a sistemas de inteligencia artificial — imaginando que la IA “los vigila”, “manipula” sus pensamientos o “toma decisiones con voluntad propia”.

El autor, psiquiatra, describe ejemplos clínicos o anecdóticos en que individuos manifiestan una relación problemática o distorsionada con tecnologías de IA: confundir algoritmos con agentes conscientes, desarrollar miedo irracional ante el supuesto control algorítmico, interpretar notificaciones, respuestas automáticas o fallas tecnológicas como mensajes personalizados del “sistema” o de una inteligencia maligna. También podría abordar cómo la expansión del uso de IA en muchos ámbitos (chatbots, asistentes virtuales, sistemas de recomendación, vigilancia algorítmica) puede aumentar la exposición a estos desencadenantes psicológicos para personas susceptibles.

Asimismo, el artículo probablemente discute los factores que predisponen a esta “psicosis de IA”: por ejemplo, aislamiento social, vulnerabilidad mental previa (ansiedad, paranoia, trastornos del pensamiento), el alto grado de opacidad de los algoritmos (las “cajas negras”), y el fenómeno de atribución de agencia (tendencia humana a atribuir intencionalidad a objetos inanimados). El autor también quizá advierte que esta condición “se está propagando” debido a que muchas aplicaciones de IA están presentes en la vida cotidiana, y las personas que no comprenden bien su funcionamiento pueden caer en interpretaciones erróneas o catastrofistas.

El riesgo de la psicosis de IA no radica únicamente en los individuos afectados, sino también en el clima cultural en que se desarrolla. Los discursos mediáticos suelen exagerar las capacidades de la IA, presentándola como “inteligente”, “omnipresente” o incluso “peligrosa”, lo que alimenta interpretaciones delirantes. De ahí que psiquiatras y psicólogos insistan en la necesidad de mejorar la alfabetización digital y promover una comunicación clara sobre lo que la inteligencia artificial realmente es y lo que no puede hacer.

Se proponen algunas recomendaciones para mitigar el riesgo de “psicosis de IA”: mejorar la alfabetización digital, fomentar transparencia (explicabilidad) en los sistemas de IA, promover una comunicación clara sobre lo que sí hace y no hace la IA, y en el ámbito clínico, reconocer la posibilidad de síntomas relacionados con la tecnología al evaluar pacientes con delirios o ansiedad tecnológica.

Algunas bibliotecas ofrecen programas sobre cómo manejar un duelo durante la temporada navideña.

Holiday Healing: Libraries offer grief programs through holiday season Por Megan Bennett | American Libraries, 13 de diciembre de 2023

Ver original

Aunque a menudo se le llama la época más maravillosa del año, las festividades pueden ser lo opuesto para aquellos que están de luto por la pérdida de familiares o amigos.

El Progreso Memorial Library (EPML) en Uvalde, Texas, es una de un número creciente de bibliotecas que, con la ayuda de socios comunitarios, organizan programación sobre cómo manejar el duelo durante la temporada navideña.

EPML ha sido un centro de recuperación del duelo desde el 25 de mayo de 2022. El día anterior, la comunidad enfrentó la tragedia inimaginable de perder a 21 miembros de la comunidad, en su mayoría niños pequeños, en el tiroteo de la Escuela Primaria Robb. Además de proporcionar servicios bibliotecarios regulares, EPML se ha convertido en un centro de curación. Los terapeutas y consejeros utilizan sus salas de reuniones para trabajar con los lugareños, y el personal ha organizado diversos programas de atención para niños y adultos.

«Queremos que la biblioteca sea vista como ese tercer lugar», dice el director de EPML, Mendell Morgan, «pero más que eso, un refugio seguro y un lugar donde todos son bienvenidos».

Durante los últimos dos años, EPML ha realizado seminarios de duelo navideño en colaboración con el Centro de Resiliencia Uvalde Together, dirigido por una trabajadora social y conferencista local. Los asistentes reciben información sobre los diferentes tipos y etapas del duelo y consejos para navegar las festividades.

«La gente siempre está pensando en sus seres queridos en las fiestas», dice Morgan. «Puede ser un momento difícil con el duelo, pero especialmente con lo que sucedió aquí, ese fue el verdadero impulso para poner un enfoque tan importante en ello».

«Algo que nos conecta»

Kim Pangracs, consejera familiar de Alberta Health Services (AHS), dice que hay un aumento notable en las solicitudes de apoyo al duelo en esta época del año. AHS se asoció con la Biblioteca Pública de Calgary (CPL) en Canadá para ofrecer tres programas «Duelo y Manejo de las Fiestas» en diferentes sucursales como parte de su continua serie de Vida Saludable.

«Gran parte de ello es ansiedad por lo desconocido», dice Pangracs. «Para muchas personas que vienen a nuestras sesiones, será su primera Navidad sin su ser querido. No saben cómo lo van a manejar [o] cómo van a lidiar con otros miembros de la familia que tienen expectativas sobre cómo deberían ser las fiestas». Hay valor, agrega, en proporcionar esta orientación en espacios no clínicos y no intimidantes como las bibliotecas.

Después de convertirse en la gerente de Servicios para Adultos Mayores de la Biblioteca Pública de Denver (DPL) en 2019, Amy DelPo dice que la retroalimentación más común que recibió de los usuarios de 50 años en adelante es que necesitaban un lugar para procesar las pérdidas que se acumulan con la edad.

Este año, DPL organizó una serie de cuatro partes llamada «Enfrentando las fiestas: pérdida y duelo durante la época más feliz del año», que se llevó a cabo desde la semana de Acción de Gracias hasta mediados de diciembre en su sucursal Ford-Warren. El programa estaba destinado a personas de 50 años en adelante, pero estaba abierto a todos los adultos.

Como instituciones que fomentan la comunidad, la conexión y el aprendizaje continuo, «creo que las bibliotecas son el lugar perfecto para ello», dice DelPo.

Dirigido por una consejera de HeartLight Center, una organización local de apoyo al duelo, «Enfrentando las fiestas» abordó temas como darse permiso para no participar en las fiestas (o participar de manera limitada), crear memoriales para los seres queridos perdidos y escribir cartas o llevar un diario como parte del proceso de curación.

DelPo dice que algunos participantes mencionaron la pérdida de padres, mientras que otros estaban de luto por hijos o hermanos. Algunas muertes fueron repentinas y otras no. Pero mientras que los detalles de cada situación son únicos

Objetos sensibles: afecto y cultura material

 

51uvt2gvjul-_sx324_bo1204203200_

Sensitive Objects: Affect and Material Culture [e-Book]  Kriterium, 2016

Texto completo

 

El estudio del afecto se ha convertido en un campo dinámico que abarca una gama de disciplinas de la psicología sobre la neurociencia a la filosofía y los estudios culturales. Este libro presenta un conjunto innovador de etnografías de las relaciones afectivas entre las personas y aborda las experiencias sensuales de materialidad, a través del gusto, los sonidos, los olores y el tacto que son difíciles de verbalizar o representar en imágenes. Sensitive Objects en primer lugar se dirige a estudiosos y estudiantes de Etnología, Antropología, Sociología y Estudios Culturales, así como otros lectores interesados ​​en afectos y emociones, la cultura material, el turismo, las innovaciones y el post-socialismo.