Cómo organizar un taller de casas de hadas en la biblioteca

Lacey Alexis. “From Chaos to Whimsy: Hosting a ‘Buffet-Style’ Fairy House Workshop.Programming Librarian, 4 de septiembre de 2025. https://programminglibrarian.org/articles/chaos-whimsy-hosting-buffet-style-fairy-house-workshop

Se relata su experiencia al proponer y ejecutar un taller de “casas de hadas” en la biblioteca pública de Juneau (Alaska) como parte del programa de verano para jóvenes. La autora comparte cómo, desde su entrevista de selección, presentó la idea usando un modelo hecho con una caja de ramen reciclada, inspirada en su propia infancia. Una vez contratada, decidió llevar adelante el taller en 2023, sin exigir inscripción previa para mantener el evento accesible.

La primera edición del taller se convirtió en un reto: el espacio quedó abarrotado, los materiales y las casas prefabricadas no fueron suficientes y la planificación inicial se vio desbordada. Sin embargo, lo que al principio parecía un fracaso evolucionó en una experiencia colaborativa y creativa, donde los asistentes improvisaron soluciones— compartiendo casas, reciclando cajas extra, y combinando piezas —que transformaron el caos en un momento mágico. En total, asistieron 133 personas, superando ampliamente lo previsto.

A partir de esa lección, Alexis refinó el modelo y delimitó un formato más organizado que hoy se ha convertido en un evento con gran acogida: el Fairy House Workshop Weekend. En las ediciones más recientes, el taller ha abarcado dos días: uno dedicado a familias y otro a adultos. En 2025, por ejemplo, se recibieron 139 participantes en la jornada infantil y familiar, y 67 en la sesión para adultos, sumando 206 asistentes.

Asimismo, la autora ofrece consejos prácticos para organizar un taller “bufé de casas de hadas” —es decir, en el que los asistentes escogen libremente sus casas, materiales y estilo—: desde plantillas de casas para recortar, la adquisición de cartón en bloque para uniformidad, el uso de herramientas como la sierra de banda en makerspaces locales, hasta la disposición del espacio por estaciones y la selección estratégica de materiales y decoraciones. Alexis subraya la importancia de invitar a los participantes a imaginar y narrar historias sobre sus hadas: “¿Qué tipo de hada vive aquí?”, “¿Cuál es su pasatiempo?”, generando un ambiente de fantasía y creatividad.

Un taller pensado para ser simple y libre puede convertirse al inicio en una situación desordenada, es precisamente esa apertura y flexibilidad la que permite que surjan momentos de inventiva y comunidad. El formato es adaptable, escalable e inspirador, capaz de ajustarse a distintas bibliotecas, públicos y contextos, siempre con un toque de imaginación y magia.

Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación

Novomisky, Sebastián, y Alexandre Le Voci Sayad, eds. Alfabetización mediática e informacional en la era de la inteligencia artificial: Cultura digital y educomunicación. Huelva: Grupo Comunicar Ediciones, 2025.

Texto completo

Este libro colectivo aborda los desafíos y oportunidades que plantea la inteligencia artificial (IA) en el ámbito educativo y comunicacional, proponiendo la alfabetización mediática e informacional (AMI) como herramienta clave para navegar críticamente el entorno digital contemporáneo. En el prólogo, Alexandre Le Voci Sayad plantea que la IA debe ser humanizada mediante una educación que combine técnica, ética y pensamiento crítico, evitando tanto el tecno-optimismo ingenuo como el rechazo absoluto.

El primer capítulo, escrito por Romero-Gutiérrez, de-Casas-Moreno y Aguaded, analiza la tensión entre resiliencia y resistencia frente a la IA en América Latina. Se destaca la necesidad de una educomunicación ética que medie el uso de estas tecnologías en las instituciones educativas, reconociendo tanto sus riesgos como sus posibilidades pedagógicas.

Gabriella Taddeo introduce el concepto de “prompting reflexivo, una práctica que utiliza la IA como herramienta de exploración cultural e identitaria. A través de experiencias educativas, muestra cómo la IA puede actuar como una “prótesis cultural”, expandiendo nuestras capacidades expresivas y cognitivas, siempre desde una perspectiva crítica y consciente.

Simona Tirocchi propone un modelo de alfabetización crítica en IA, adaptando los principios clásicos de acceso, análisis, evaluación y producción al contexto algorítmico. Subraya que, aunque los sistemas de IA muestran comportamientos inteligentes, carecen de comprensión semántica, lo que exige una mediación humana constante para evitar malentendidos y usos acríticos.

Verónica Piovani reflexiona sobre la formación docente en tiempos de cultura digital y brecha generacional. Defiende el valor social de la escuela como espacio de construcción de memoria histórica y ciudadanía crítica, y propone actualizar los marcos normativos sin perder de vista los principios pedagógicos fundamentales.

Finalmente, Sebastián Novomisky y Nicolás Bernardo exploran los desafíos actuales en el aula, invitando a repensar qué aporta lo humano en la educación frente a las capacidades de la IA. Plantean que la automatización educativa no es inevitable, sino una decisión política, y que la AMI debe ser una herramienta inclusiva para garantizar una educación equitativa y transformadora.

Cómo los padres gestionan el tiempo frente a pantallas de sus hijos

Pew Research Center. How Teens and Parents Approach Screen Time. Pew Research, 2025

El estudio de Pew Research analiza las actitudes y comportamientos respecto al uso de pantallas entre adolescentes (13 a 17 años) y sus padres en Estados Unidos. Para ello, encuestaron a 1 453 adolescentes y sus padres entre el 26 de septiembre y el 23 de octubre de 2023, usando muestras ponderadas para ser representativas por edad, género, etnia e ingresos.

Desde YouTube hasta smartphones y tablets, la tecnología forma parte de la vida de los niños. Los chatbots de IA también forman parte de esta dinámica. Si bien los padres se esfuerzan por gestionar el tiempo de pantalla, el 42 % afirma que podría hacerlo mejor.

Los resultados muestran que la mayoría de los padres están preocupados por el impacto del tiempo de pantalla en la salud física, mental y social de sus hijos. Sin embargo, también reconocen los beneficios educativos y de entretenimiento que ofrecen las tecnologías digitales.

Uno de los hallazgos principales es que el 66 % de los padres afirman establecer límites claros sobre el tiempo que sus hijos pueden dedicar a pantallas, especialmente a videojuegos y redes sociales. No obstante, existe una notable variabilidad según la edad de los niños: los padres de adolescentes son menos estrictos que los de niños pequeños. Además, un 54 % de los padres confiesa que sus hijos superan ocasionalmente esos límites, lo que refleja la dificultad de mantener el control constante en un entorno tecnológico cada vez más ubicuo.

El informe también destaca el papel de los dispositivos móviles: el 80 % de los niños mayores de 10 años posee o utiliza habitualmente un teléfono inteligente. Muchos padres se muestran ambivalentes ante ello: por un lado, valoran la posibilidad de mantenerse en contacto; por otro, les preocupa la exposición a contenidos inapropiados y la dependencia digital. En respuesta, algunos adoptan medidas como el control parental, la supervisión de redes sociales o la limitación del acceso nocturno a los dispositivos.

En cuanto a la percepción general, el 72 % de los padres considera que la tecnología digital es una herramienta esencial para el aprendizaje, pero el 61 % teme que esté afectando negativamente la atención y las habilidades sociales de los niños. La mayoría coincide en que enseñar un uso equilibrado y responsable es tan importante como establecer límites temporales.

Una revisión sistemática de la literatura sobre la alfabetización en inteligencia artificial generativa en la enseñanza

Joonhyeong Park. A systematic literature review of generative artificial intelligence (GenAI) literacy in schools, Computers and Education: Artificial Intelligence, 2025,

Texto completo

Este estudio realiza una revisión sistemática de la literatura sobre la inteligencia artificial generativa (Generative AI, GenAI), con especial énfasis en su dimensión ética y en las oportunidades y desafíos asociados a su adopción en distintos ámbitos. Se parte de la idea de que, aunque el discurso ético sobre la inteligencia artificial ha crecido recientemente, las investigaciones específicas sobre GenAI están dispersas entre dominios y a menudo carecen de un marco integrado que aborde los retos propios de los modelos generativos. La revisión abarca publicaciones entre 2021 y 2025 y busca identificar patrones, vacíos y tendencias emergentes en torno al uso responsable de GenAI.

Uno de los hallazgos principales es que los estudios existentes tienden a enfocarse en problemas particulares —como sesgos, desinformación o privacidad—, pero sin ofrecer una visión holística de las interacciones entre estos desafíos ni proponer marcos éticos unificados específicos para GenAI. También se observa una escasez de recomendaciones políticas bien fundamentadas basadas en evidencia sistemática, lo que dificulta la regulación y orientación normativas del despliegue ético de estas tecnologías.

En cuanto a las oportunidades, el artículo destaca que GenAI puede facilitar la innovación, la inclusión y la gobernanza responsable si se aprovecha con criterios éticos y conscientes del contexto sectorial. Por ejemplo, puede servir para apoyar la generación de contenido, la personalización o el descubrimiento de conocimiento, siempre que se establezcan salvaguardas claras. Sin embargo, los desafíos son múltiples: la autoría incierta de las creaciones generadas, la responsabilidad en caso de daños, la transparencia en los procesos internos, el riesgo de sesgos ocultos y la diseminación de información incorrecta o manipulada son temas que requieren un tratamiento más riguroso.

El apéndice del estudio presenta un análisis detallado de 51 investigaciones revisadas sistemáticamente sobre la alfabetización en inteligencia artificial generativa (GenAI). La mayoría de los estudios se centraron en el ámbito de la educación superior, aunque también se incluyeron experiencias en educación primaria y secundaria. En cuanto al enfoque metodológico, predominaron los estudios cuantitativos, seguidos de los mixtos y, en menor medida, los cualitativos. Aproximadamente dos tercios de las investigaciones no implementaron intervenciones directas, mientras que el resto aplicó programas formativos o talleres experimentales con herramientas de IA generativa. Los dominios académicos abordados fueron variados: desde la escritura, la alfabetización digital y las disciplinas STEM, hasta el turismo, la salud o la educación moral.

En términos de competencias en alfabetización GenAI, los resultados globales muestran un panorama desigual. Casi todos los estudios (el 92,2 %) evidencian que los participantes poseen una comprensión general adecuada de lo que es la GenAI y cómo funciona, pero solo algo más de la mitad (54,9 %) demuestran capacidad para usarla de manera efectiva. Un 66,7 % de los trabajos reflejan cierto desarrollo en la evaluación e integración crítica de los resultados generados, mientras que la misma proporción (54,9 %) aborda explícitamente cuestiones éticas relacionadas con su uso. En cuanto a las actitudes, el 82,3 % de los estudios señala que los estudiantes mantienen una disposición positiva y entusiasta hacia la IA generativa, especialmente cuando perciben beneficios tangibles para el aprendizaje.

El contenido de las investigaciones muestra que los estudiantes suelen utilizar la GenAI principalmente para tareas de redacción, generación de ideas, traducción, programación y resolución de problemas académicos, valorando su capacidad para ahorrar tiempo y mejorar la productividad. No obstante, muchos presentan dificultades para evaluar críticamente los resultados y carecen de conocimientos sólidos sobre ingeniería de prompts, lo que limita la eficacia de sus interacciones con las herramientas. La comprensión ética y técnica también resulta limitada: persisten dudas sobre la fiabilidad de los resultados, la privacidad de los datos, los sesgos algorítmicos y la autoría de los contenidos generados.

Los estudios que aplicaron intervenciones o programas educativos muestran mejoras significativas en la capacidad de análisis crítico, la confianza en el uso de la tecnología y la conciencia ética. Se observa que la exposición guiada a la GenAI, junto con la reflexión sobre su uso, potencia la comprensión de sus limitaciones y fortalece la responsabilidad digital. Por el contrario, en contextos donde la IA se usa sin orientación pedagógica, tienden a reproducirse usos superficiales o poco críticos, basados en la confianza excesiva en la herramienta.

Finalmente, el artículo subraya lagunas metodológicas, conceptuales y empíricas en la literatura. Plantea que futuros estudios deberían desarrollar marcos éticos específicos para GenAI, profundizar en estudios empíricos del impacto en contextos reales, y generar guías y políticas fundamentadas que orienten su uso responsable. En resumen, esta revisión sistemática contribuye a organizar el conocimiento disperso sobre GenAI en el ámbito ético y ofrece una base desde la cual avanzar hacia un uso más consciente y regulado de estas tecnologías.

La censura de libros en Estados unidos podría estar generando un efecto contrario al deseado

Zeisler, A. (2025, 6 de octubre). The dumbing down of America, one banned book at a time. Salon. https://www.salon.com/2025/10/06/the-dumbing-down-of-america-one-banned-book-at-a-time

Se aborda el creciente fenómeno de la censura en las bibliotecas escolares de EE. UU., destacando cómo las prohibiciones de libros se han convertido en una práctica sistemática respaldada por grupos de presión financiados por la derecha.

A pesar de que la mayoría de los estadounidenses se oponen a estas prohibiciones, los esfuerzos por restringir el acceso a libros que abordan temas de raza, identidad de género y sexualidad continúan en aumento. Zeisler señala que, en el ciclo escolar 2024–25, se registraron 6.870 libros prohibidos en 23 estados y 87 distritos escolares públicos, según el informe de PEN America. Estos datos evidencian una tendencia preocupante hacia la normalización de la censura en el ámbito educativo.

La autora también critica la administración de Trump 2.0 por revertir políticas federales que protegían el acceso a libros en las escuelas y por eliminar agencias clave como la Corporación para la Difusión Pública y el Instituto de Servicios de Museos y Bibliotecas. Zeisler describe este fenómeno como un «Ed Scare» (miedo educativo), una referencia a la era del macartismo, y advierte que la censura no solo limita el acceso a la información, sino que también busca moldear la educación hacia una forma de adoctrinamiento ideológico.

A pesar de la creciente presión, el artículo destaca que muchos jóvenes están redescubriendo los libros prohibidos como una forma de resistencia, lo que sugiere que la censura podría estar generando un efecto contrario al deseado. Zeisler concluye que la lucha por la libertad de acceso a la información es esencial para la democracia y la educación crítica en los Estados Unidos.

Impulso europeo a los datos abiertos y su continuidad en el programa Digital Europe

European Health and Digital Executive Agency; European Commission (2025). Public open data: CEF Telecom projects at a glance. Publications Office of the European Union. ISBN 978-92-95239-44-9.

Texto completo

Se ofrece una visión general de los proyectos de datos públicos abiertos financiados en el marco del programa CEF Telecom (2014-2020) y los sectores o ámbitos en los que se desarrolló cada proyecto, mostrando algunos proyectos y su impacto. Además, esta ficha informativa tiene por objeto describir cómo el programa Europa Digital tomó el relevo y apoya los espacios comunes europeos de datos. Los datos públicos abiertos son un servicio que facilita y armoniza el acceso a conjuntos de datos creados y gestionados por organismos públicos de toda la UE. El objetivo general es la mejora de las infraestructuras de servicios digitales y el desarrollo de productos y servicios de información basados en la reutilización y la combinación de datos en poder de actores públicos y comerciales de toda la UE. Los datos públicos son toda la información que los organismos públicos producen, recopilan o pagan. Esta información es importante para su reutilización en nuevos productos y servicios. Al abrir los datos públicos, se promovió la participación de los ciudadanos y los expertos en la vida política y social.

¿Está la IA erosionando silenciosamente nuestra capacidad de pensar? Y cómo los libros pueden salvarla.

Is AI Quietly Eroding Our Ability to Think? And How Books Can Save It.” Magazine – 1000 Libraries, 8 de septiembre de 2025. https://magazine.1000libraries.com/is-ai-quietly-eroding-our-ability-to-think-and-how-books-can-save-it/

El uso excesivo de la inteligencia artificial (IA) para responder preguntas y sintetizar información puede debilitar nuestra capacidad de pensamiento crítico. Según el autor, cuando confiamos en IA para procesar, analizar y explicar datos en lugar de hacerlo nosotros mismos, perdemos la oportunidad de profundizar en el razonamiento, cuestionar suposiciones o generar nuevas ideas.

La corteza prefrontal, o el área del cerebro necesaria para la toma de decisiones, la resolución de problemas y la regulación emocional, está mucho más desarrollada en los humanos que en los animales. Es el factor distintivo, la diferencia, y significa que somos los pensadores críticos más destacados del mundo.

976 / 5.000

La inteligencia artificial se ha convertido en una especie de fantasma, una palabra de moda que circula en redes sociales e internet. ChatGPT, en particular, ha sido noticia tras su lanzamiento al público. La gente ve el servicio como una oportunidad: puede planificar vacaciones, ayudarte a emprender y a gestionar un sistema legal complejo. ChatGPT es inteligente, si por inteligente nos referimos a que tiene acceso a más información de la que el cerebro humano puede procesar, y es capaz de dar respuesta a casi todo. ¿Suena a sueño, verdad?

Como cualquier otra parte del cuerpo, el cerebro es un músculo que necesita ser ejercitado y desarrollado. Necesitamos aprender a usarlo; requiere ejercicio y desafío. El problema que se pronostica con la IA es que podría erosionar nuestras habilidades de pensamiento crítico. Esto no es solo una hipótesis; estudios recientes han confirmado que una mayor dependencia de la IA está relacionada con una disminución de las habilidades de pensamiento crítico.

La situación empeora cuando pensamos en las generaciones más jóvenes, que se han vuelto especialmente dependientes de la tecnología. Sí, ChatGPT puede encontrarte excelentes restaurantes en Roma, pero también puede ayudarte con tus deberes, decirte si deberías romper con tu marido y pensar por ti sin tener la experiencia ni los matices necesarios para darte respuestas críticas.

No se trata de ser derrotistas; no es un tema sin esperanza. Por supuesto, la IA puede usarse como herramienta si se maneja correctamente. Pero lo más importante es que existe una actividad que puede combatir esta descarga cognitiva y obligarnos a, de forma gratificante, ejercitar un poco nuestro cerebro: la lectura.

Para contrarrestar esa erosión intelectual, el texto aboga por la lectura de libros como práctica que restaura y fortalece la mente humana. Leer exige tiempo, concentración, reflexión, confrontar ideas complejas y construir conexiones propias entre conceptos —actividades que la IA no “realiza” de la misma forma. En ese sentido, el autor sostiene que los libros funcionan como entrenamiento mental, ofreciendo resistencia cognitiva frente a la facilidad con la que la IA puede ofrecer respuestas rápidas y superficiales.

El artículo también sugiere que este no debe pensarse como un conflicto total entre IA y lectura, sino como una relación equilibrada: usar la IA para asistir nuestra curiosidad, pero no delegar el pensamiento. Así, el enfoque sería emplear estas herramientas como punto de partida, mientras el lector mantiene el rol activo de interpretar, cuestionar y extender. Al final, el texto propone que preservar una cultura de lectura consciente es una de las formas más contundentes de proteger nuestra autonomía intelectual en la era digital.

Las bibliotecas no pueden recuperar sus libros prestados debido a los aranceles de Trump

Maiberg, Emanuel. “Libraries Can’t Get Their Loaned Books Back Because of Trump’s Tariffs.” 404 Media, 6 de octubre de 2025 https://www.404media.co/libraries-cant-get-their-loaned-books-back-because-of-trumps-tariffs/?ref=daily-stories-newsletter

Muchas bibliotecas universitarias de Estados Unidos se enfrentan a un problema inesperado: no pueden recuperar los libros que habían prestado a instituciones de otros países. La causa está en las tarifas impuestas durante la administración de Donald Trump, que eliminaron la exención aduanera conocida como “de minimis” para los envíos internacionales de bajo valor.

Hasta entonces, los libros prestados —que no implicaban compraventa ni beneficios económicos— podían circular libremente entre países, pero con la nueva normativa, cualquier paquete que entre en Estados Unidos puede ser objeto de aranceles y requerimientos aduaneros.

Como consecuencia, muchas empresas de mensajería han dejado de aceptar estos envíos, y los libros quedan bloqueados en aduanas o incluso perdidos en almacenes. En algunos casos, las bibliotecas extranjeras han renunciado a devolver los ejemplares, mientras que otras han suspendido por completo sus servicios de préstamo con instituciones estadounidenses. El artículo menciona ejemplos como el de la Universidad de Yale, donde los responsables del préstamo interbibliotecario relatan las dificultades diarias para rastrear los libros y resolver los trámites aduaneros.

La situación preocupa al mundo académico porque el intercambio internacional de libros y materiales es esencial para la investigación y el acceso al conocimiento. Las redes de préstamo entre bibliotecas eran un ejemplo de cooperación global, ahora interrumpido por políticas comerciales ajenas al ámbito educativo. Ante este panorama, asociaciones profesionales como la American Library Association (ALA) están elaborando guías para ayudar a los bibliotecarios a identificar los envíos como préstamos sin valor comercial y así intentar evitar los aranceles, aunque las soluciones siguen siendo parciales y complejas.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

La IA reúne a los vivos con los fallecidos para un último adiós que alivie la despedida final

La inteligencia artificial (IA) está permitiendo a las personas crear videos de despedida que reúnen a los vivos con los fallecidos, ofreciendo una forma de cierre emocional.

Los vídeos generados por IA son uno de los aspectos más controvertidos del auge de la IA generativa. Desde violaciones de derechos de autor y desinformación hasta la desorganización digital de internet, hay muchos motivos para ser cautelosos. Pero también parece haber algunos resquicios de esperanza.

En Rusia, por ejemplo, familiares de soldados caídos en el conflicto con Ucrania están utilizando servicios de IA para generar videos que los muestran reunidos con sus seres queridos. Estos videos, que incluyen recreaciones digitales del fallecido y audios generados por IA basados en grabaciones proporcionadas por amigos y familiares, permiten escenas como abrazos o despedidas simbólicas. En los videos, la recreación digital de un soldado fallecido puede ser subiendo las escaleras al cielo, abrazando a un familiar o besando a su pareja. Los clips de audio también se generan mediante IA, basándose en las grabaciones proporcionadas por amigos y familiares.

En algunos casos, sin embargo, los familiares y seres queridos también buscan compañía. Para ello, contratan a empresas para que creen un chatbot de IA o un avatar digital basado en la memoria y las características de una persona en particular. La comunidad científica se ha referido a este cambio tecnocultural como «bots muertos» y también ha alertado sobre sus riesgos.

Estos videos de despedida, que atraen millones de visualizaciones, están vinculados a un proyecto social llamado «Encuentro Final» en la plataforma rusa de redes sociales VK o VKontakte. El costo de estos videos varía entre 20 y 80 dólares, dependiendo de la duración y personalización. «Mediante redes neuronales y una edición cuidadosa, recreamos el momento del reencuentro y los lanzamos al cielo», afirma el anuncio de una empresa rusa compartido en Telegram.

Para algunos, como Yelena Kirghizova, viuda de un oficial cuyo cuerpo nunca fue recuperado, estos videos ofrecen una forma de cierre emocional. La falta de información sobre el paradero de los soldados caídos ha sido una preocupación persistente, y estas representaciones digitales proporcionan una sensación de despedida simbólica.

Aunque la IA ofrece nuevas formas de lidiar con la pérdida, también plantea preguntas éticas y emocionales. La capacidad de la IA para recrear a personas fallecidas plantea interrogantes sobre el consentimiento, la autenticidad y el impacto emocional en los sobrevivientes. Este fenómeno destaca la creciente intersección entre la tecnología y las experiencias humanas más profundas.