Las bibliotecas como infraestructura cultural esencial: claves del informe global de la UNESCO (2026)

International Federation of Library Associations and Institutions. “UNESCO’s New Re|Shaping Policies for Creativity Report: Libraries as Essential Cultural Infrastructure.” 23 de febrero de 2026. UNESCO.

Texto completo

El cuarto informe global Re|Shaping Policies for Creativity, publicado por la UNESCO y analizado por la IFLA, ofrece una visión amplia y fundamentada sobre cómo los países están protegiendo y promoviendo la diversidad de las expresiones culturales en un contexto marcado por profundas transformaciones tecnológicas, sociales y políticas.

Basado en 133 informes nacionales y cerca de 4.000 medidas de política cultural, el documento subraya que las industrias culturales y creativas son motores clave de crecimiento económico y sostenibilidad. Sin embargo, también advierte que los beneficios de la cultura siguen distribuyéndose de manera desigual y que su integración en políticas estratégicas —especialmente en ámbitos como la tecnología o el desarrollo— sigue siendo insuficiente y fragmentaria.

El informe identifica tendencias significativas en la evolución de las políticas culturales a nivel global. Entre ellas destaca la creciente implicación de ministerios tradicionalmente alejados de la cultura, como los de Educación o Economía, así como la orientación de las políticas culturales hacia la creación de empleo. Asimismo, la digitalización emerge como eje central: el 85 % de los países promueve el desarrollo de competencias digitales, mientras que se refuerza la inversión en la transición digital de medios públicos y comunitarios. No obstante, este giro digital también plantea riesgos, tanto para la sostenibilidad ambiental como para la diversidad cultural. De forma especialmente relevante, el informe señala que la cultura sigue prácticamente ausente de los marcos regulatorios de la inteligencia artificial, a pesar de que esta depende profundamente de contenidos culturales y, a su vez, influye en su producción y circulación.

En este contexto, las bibliotecas son reconocidas como infraestructuras culturales esenciales. La UNESCO las sitúa entre los puntos de acceso cultural más extendidos a nivel mundial, destacando su papel en la promoción de la participación cultural y el acceso multilingüe. Las bibliotecas garantizan la visibilidad de lenguas, identidades y expresiones culturales diversas, especialmente en el caso de comunidades indígenas, minorías lingüísticas o poblaciones migrantes. Sin embargo, el informe también señala importantes desigualdades en el acceso a infraestructuras bibliotecarias, con una mayor concentración en países de altos ingresos frente a regiones con menos recursos.

Otro de los aspectos centrales del informe es el papel de las bibliotecas en la reducción de la brecha digital. Más allá de proporcionar acceso a internet, estas instituciones actúan como centros de inclusión digital, ofreciendo formación en competencias digitales, apoyo a creadores de contenido y herramientas para una participación segura en entornos en línea. Ejemplos como la biblioteca digital nacional de Letonia, los repositorios patrimoniales de Cuba o los servicios digitalizados en Brasil ilustran cómo las bibliotecas están transformando el acceso a la cultura mediante procesos de digitalización a gran escala. Este rol resulta especialmente crucial en un contexto donde las desigualdades en acceso y habilidades digitales siguen ampliándose.

El informe también pone el foco en los desafíos que plantea la inteligencia artificial para la diversidad cultural y lingüística. La escasa incorporación de la cultura en las políticas de IA —apenas presente en una mínima parte de las legislaciones nacionales— genera riesgos significativos para la preservación de contenidos locales y la diversidad de lenguas. En este escenario, las bibliotecas aparecen como actores estratégicos, en tanto custodias del patrimonio cultural y lingüístico, llamadas a desempeñar un papel activo en la gobernanza digital y en la formulación de políticas de inteligencia artificial.

El informe refuerza la necesidad de una mayor visibilidad y reconocimiento de las bibliotecas en las estrategias nacionales e internacionales. Aunque un 93 % de los países ya incorpora la cultura en sus planes de desarrollo sostenible, persisten carencias en la traducción de estos compromisos en acciones concretas. La IFLA insiste en que las bibliotecas deben integrarse explícitamente en las políticas culturales, digitales y de inteligencia artificial, así como recibir inversiones sostenidas que garanticen su capacidad de actuación. En definitiva, el informe reafirma que las bibliotecas no solo son espacios de acceso al conocimiento, sino pilares fundamentales para los derechos culturales, la equidad digital y la diversidad cultural en el mundo contemporáneo.

Despida la directora de biblioteca por negarse a retirar varios libros infantiles: censura, ética profesional y conflicto político en EE. UU.

Montesinos, Patsy. “Rutherford County Library Board Fires Director After She Refuses to Relocate 132 Children’s Books.” NewsChannel 5 Nashville, 30 de marzo de 2026.

Acceso al original

La destitución de la directora del sistema de bibliotecas del condado de Rutherford, en Tennessee, se inscribe en un contexto de creciente tensión en torno al acceso a la información y la censura en bibliotecas públicas de Estados Unidos. El conflicto se originó cuando la junta de la biblioteca ordenó trasladar 132 libros infantiles —muchos de ellos relacionados con diversidad, justicia social o temática LGBTQ+— desde la sección infantil a la sección de adultos, al considerarlos inapropiados para menores.

La directora, Luanne James, se negó a ejecutar esta decisión, argumentando que suponía una vulneración de la libertad de expresión y un caso claro de “discriminación por punto de vista”, en contradicción con los principios éticos de la profesión bibliotecaria.

La negativa de James no fue un simple desacuerdo administrativo, sino una postura fundamentada en la defensa del acceso equitativo a la información. En su declaración, sostuvo que los bibliotecarios no deben convertirse en instrumentos de agendas políticas y que restringir el acceso a ciertos contenidos por razones ideológicas perjudica directamente a la comunidad usuaria. Su decisión generó un fuerte apoyo ciudadano —con manifestaciones públicas a su favor—, pero también una oposición firme por parte de sectores que consideraban necesario limitar el acceso de menores a determinados contenidos.

Finalmente, la junta votó su despido por una mayoría clara (8 votos frente a 3), justificando la decisión en su negativa a acatar una directriz institucional. Desde la perspectiva de los responsables políticos, el conflicto se interpretó como una cuestión de gobernanza y cumplimiento de decisiones administrativas. Sin embargo, para amplios sectores del ámbito bibliotecario y organizaciones defensoras de la libertad intelectual, el caso se ha convertido en un símbolo de la creciente presión política sobre las bibliotecas y del papel de los profesionales como garantes del derecho a leer.

En un plano más amplio, este episodio refleja una tendencia nacional en Estados Unidos marcada por el aumento de controversias sobre libros en bibliotecas y escuelas, especialmente aquellos relacionados con identidad de género, diversidad racial o cuestiones sociales. La destitución de James pone de relieve el choque entre políticas restrictivas impulsadas desde determinados ámbitos políticos y los principios tradicionales de la biblioteconomía, centrados en la neutralidad, la inclusión y el acceso libre a la información. Así, el caso trasciende lo local y se configura como un ejemplo paradigmático del debate contemporáneo sobre censura, libertad intelectual y función social de las bibliotecas.

La inteligencia artificial en la universidad: adopción masiva, tensiones éticas y necesidad de formación según el mayor estudio del sistema CSU

California State University. “CSU Releases Findings After Conducting the Largest and Most Comprehensive Survey on Artificial Intelligence in Higher Education.” 1 de abril de 2026.

Acceder al artículo original

El sistema California State University (CSU) ha publicado el mayor y más completo estudio sobre inteligencia artificial en la educación superior hasta la fecha, basado en más de 94.000 respuestas de estudiantes, profesorado y personal universitario.

Este informe, titulado Ahead of the Curve, refleja un momento de transición clave en las universidades: la IA ya no es una opción emergente, sino una realidad integrada en los procesos de enseñanza, aprendizaje y gestión académica. La investigación muestra que el debate ha dejado de centrarse en si la IA debe formar parte de la educación superior, para enfocarse en cómo implementarla de forma coherente, ética y a gran escala.

Uno de los hallazgos más significativos es el uso generalizado de herramientas de IA en toda la comunidad universitaria. La gran mayoría de estudiantes, docentes y personal ya interactúan con estas tecnologías, lo que evidencia su rápida normalización. Esta adopción se asocia a beneficios claros como el apoyo al aprendizaje, la mejora de la productividad y el impulso a la innovación académica. Sin embargo, también plantea retos importantes: la preocupación por la integridad académica, la fiabilidad de los resultados generados por IA y el posible impacto en el pensamiento crítico. La encuesta captura así una percepción ambivalente, donde entusiasmo y cautela conviven en equilibrio.

El estudio también subraya una demanda creciente de formación específica en inteligencia artificial. Tanto estudiantes como profesorado consideran necesario desarrollar competencias más avanzadas que permitan utilizar estas herramientas de manera eficaz y responsable, especialmente en contextos profesionales. Esta necesidad es más acusada en colectivos que perciben un mayor riesgo de quedar rezagados en un mercado laboral cada vez más influido por la IA. En este sentido, la universidad aparece como un agente clave para cerrar la brecha de habilidades y garantizar una integración equitativa de la tecnología.

El informe destaca la urgencia de establecer marcos éticos y normativos claros. La falta de políticas homogéneas genera incertidumbre entre los estudiantes, mientras que el profesorado reclama orientaciones precisas sobre cómo integrar la IA en la docencia sin comprometer la calidad educativa. Cuestiones como la transparencia, la verificación de contenidos, la privacidad de los datos y la equidad en el acceso emergen como prioridades. En conjunto, el estudio del CSU posiciona a la educación superior ante un desafío estructural: liderar el uso responsable de la inteligencia artificial sin renunciar a sus principios fundamentales de rigor académico y formación crítica.

Datos clave:

  • Más de 94.000 participantes (estudiantes, profesorado y personal).
  • Es el mayor estudio sobre IA en educación superior hasta la fecha.
  • Incluye a las 22 universidades del sistema CSU.

Uso

95% de los encuestados ha utilizado al menos una herramienta de IA.

Uso habitual:

  • Más de la mitad de los estudiantes
  • 60% del profesorado
  • ≈66% del personal

Formación en IA

  • Más del 80% del personal quiere formación en IA. Aproximadamente 70% del profesorado también la demanda.
  • Estudiantes: cerca del 50%,

Ética IA

  • ≈80% de estudiantes no se sienten cómodos entregando trabajos generados por IA como propios.

Uso docentes

  • Más del 50% del profesorado usa IA para preparar materiales.
  • 69% orienta a los estudiantes sobre su uso.
  • ≈66% incluye normas sobre IA en sus programas docentes.

Percepción del futuro

  • La IA será esencial para:
    82% del personal
    78% del profesorado
    69% de estudiantes

Preocupación por el empleo:

  • 82% estudiantes
  • 78% profesorado
  • 74% personal

Irán amenaza con atacar a Nvidia, Apple y otras grandes tecnológicas en plena escalada geopolítica

CNBC. “Iran threatens Nvidia, Apple and other tech giants with attack.” Publicado el 1 de abril de 2026. https://www.cnbc.com/2026/04/01/iran-irgc-nvidia-appple-attack-threat.html?utm_source=flipboard&utm_content=user%2FCNBC

En el contexto de la creciente tensión entre Irán, Estados Unidos e Israel en 2026, la Guardia Revolucionaria Islámica de Irán (IRGC) lanzó una advertencia directa contra un grupo de grandes empresas tecnológicas estadounidenses, entre ellas Nvidia, Apple, Microsoft y Google. Según el comunicado difundido por canales oficiales vinculados al IRGC, estas compañías son consideradas “objetivos legítimos” debido a su supuesta implicación en operaciones militares y de inteligencia que habrían contribuido a ataques contra territorio iraní.

El anuncio incluía un mensaje especialmente alarmante: los posibles ataques podrían comenzar a partir del 1 de abril a una hora concreta (20:00 en Teherán), lo que evidenciaba un nivel de escalada poco habitual al fijar un horizonte temporal. Además, el IRGC instó a los empleados de estas compañías en Oriente Medio a evacuar sus lugares de trabajo para evitar víctimas, lo que sugiere que las amenazas no se limitan a un plano retórico, sino que podrían implicar acciones físicas o ataques contra infraestructuras.

Esta advertencia se enmarca en una dinámica más amplia de conflicto híbrido, donde la tecnología —especialmente la inteligencia artificial, las telecomunicaciones y los sistemas de datos— se ha convertido en un elemento clave del enfrentamiento geopolítico. Irán acusa a estas empresas de facilitar la localización de objetivos y el desarrollo de operaciones militares mediante sus plataformas tecnológicas, lo que refleja un cambio en la naturaleza de la guerra contemporánea, donde las corporaciones privadas pasan a ser actores indirectos del conflicto.

Por último, la amenaza contra estas multinacionales tiene implicaciones globales, ya que muchas de ellas operan infraestructuras críticas en Oriente Medio, como centros de datos o redes de comunicación. Un eventual ataque podría afectar no solo a la seguridad regional, sino también a cadenas de suministro tecnológicas y a servicios digitales a escala mundial, aumentando la incertidumbre en los mercados y en el ecosistema tecnológico internacional.

El desafío del copyright en la música generada por IA: el caso Suno y las “covers” no autorizadas

Merritt, Chris. “Suno Is a Music Copyright Nightmare.The Verge, 5 de abril de 2026. https://www.theverge.com/ai-artificial-intelligence/906896/sunos-copyright-ai-music-covers

La tecnología de generación musical con IA ha superado las capacidades actuales de protección de derechos autorales, y herramientas como Suno, aun con políticas de bloqueo, pueden convertirse en un verdadero “nightmare” (pesadilla) de copyright si no se adoptan controles técnicos y legales mucho más estrictos.

La plataforma de generación musical con inteligencia artificial Suno enfrenta un serio problema con el respeto al copyright y la protección de obras musicales preexistentes. Aunque la compañía afirma en sus políticas que no permite el uso de material con derechos de autor y que bloquea estas entradas, investigaciones prácticas han demostrado que los controles automáticos son sumamente fáciles de burlar. Mediante técnicas sencillas —como alterar la velocidad de reproducción de una pista o añadir ruido blanco— cualquier usuario puede engañar a los filtros de copyright y generar covers con la IA que conservan elementos reconocibles de la obra original, lo que plantea alarmantes implicaciones tanto legales como éticas.

El texto detalla cómo estos controles no son exhaustivos y solo se aplican al momento de la subida de archivos, pero no se revisan de nuevo durante la generación ni antes de la exportación del resultado final. Esto permite que versiones generadas, a veces apenas ligeramente transformadas, se descarguen y se suban a servicios de streaming como Spotify, donde pueden confundirse con versiones legítimas y monetizarse sin compensar a los creadores originales. Esta situación es especialmente preocupante para artistas independientes o de menor notoriedad, cuyos trabajos a menudo no son detectados por los sistemas automáticos y terminan expuestos a usos no autorizados o incluso monetizaciones indebidas.

El artículo también señala que los resultados de estas “covers” generadas por IA suelen situarse en lo que se denomina situación legal compleja (uncanny valley): suenan extrañamente cercanos a las originales —reconocibles para el oyente— pero carecen de la energía, matices y creatividad propios de una interpretación humana. Pese a ello, estos productos artificiales son suficientes para confundir o distraer al público y representar un riesgo tangible para los ingresos de los artistas, ya que incluso un pequeño desvío de reproducciones en plataformas de streaming puede afectar significativamente las comisiones, especialmente cuando los pagos por reproducción suelen ser bajos.

En el centro de la controversia está la incapacidad de Suno y de sistemas técnicos similares para ofrecer protecciones eficaces frente a la reproducción no autorizada de obras protegidas por derechos de autor. A pesar de que plataformas como Spotify, Deezer o Qobuz han implementado algunas medidas para detectar contenido duplicado o sospechoso, estos mecanismos no son infalibles y requieren de supervisión humana para mejorar la precisión. Algunos casos reales, como el de la cantante folk Murphy Campbell, ilustran cómo incluso grabaciones aparentemente inocuas pueden acabar siendo usadas sin permiso y vinculadas a perfiles oficiales de artistas en servicios de streaming, provocando procesos de reclamación y complicaciones legales para quienes son afectados.

La situación del uso de IA para producir música plantea preguntas profundas sobre la viabilidad de los sistemas de autoregulación tecnológica y la necesidad de marcos legales más robustos. Si los filtros que supuestamente protegen los derechos de autor pueden ser engañados con herramientas gratuitas y conocimientos básicos, ello indica que la industria —tanto los desarrolladores de IA como las entidades de protección de derechos— se enfrenta a un desafío estructural. Según el artículo, esto no solo amenaza a los creadores, sino que también podría acelerar la intervención regulatoria en el sector, puesto que la incapacidad de los sistemas técnicos para asegurar el respeto al copyright demuestra que las soluciones puramente automatizadas no bastan para abordar la complejidad de los derechos de propiedad intelectual en la era de la inteligencia artificial.

Bodas con inteligencia artificial: más de un tercio de los prometidos utiliza ya sistemas de IA para organizar su enlace

González, María. “AI Do? Weddings Turn to AI but Miss Human Touch.” Axios, 29 de marzo de 2026. https://www.axios.com/2026/03/29/wedding-planning-ai

La inteligencia artificial está redefiniendo la planificación de bodas, pero no reemplazando su esencia. Puede diseñar, sugerir y organizar, pero no sustituir la sensibilidad, la intuición ni el vínculo emocional que aportan las personas. La boda del futuro, según se desprende del artículo, será probablemente híbrida: apoyada en herramientas digitales, pero profundamente anclada en lo humano.

La inteligencia artificial está transformando de manera acelerada la planificación de bodas, convirtiéndose en una herramienta cada vez más habitual entre las parejas. Según datos recientes, más de un tercio de los prometidos utiliza ya sistemas de IA para organizar su enlace, una cifra que prácticamente se ha duplicado en apenas un año. Esta rápida adopción refleja no solo el auge de estas tecnologías, sino también la presión que supone planificar un evento complejo, costoso y altamente personalizado. La IA aparece así como una solución eficiente para gestionar tareas, generar ideas y reducir la carga organizativa en un proceso tradicionalmente exigente.

En términos prácticos, la inteligencia artificial se utiliza en múltiples fases de la planificación. Las parejas recurren a estas herramientas para generar invitaciones personalizadas, diseñar moodboards, escribir votos matrimoniales o visualizar conceptos estéticos en cuestión de segundos. Plataformas como Canva permiten crear borradores casi instantáneos que pueden refinarse y enviarse a producción en muy poco tiempo, lo que introduce una lógica de inmediatez en un ámbito que antes requería semanas o meses de trabajo creativo. Esta capacidad de acelerar procesos convierte a la IA en un aliado especialmente atractivo para quienes buscan ahorrar tiempo o reducir costes, democratizando en cierta medida el acceso a ciertos servicios creativos.

Sin embargo, el artículo subraya que esta eficiencia tiene límites claros cuando se trata de la dimensión emocional y simbólica de una boda. Profesionales del sector advierten que, aunque la IA puede generar propuestas funcionales o estéticamente correctas, tiende a producir resultados percibidos como genéricos o impersonales. La crítica no se centra tanto en la calidad técnica como en la falta de autenticidad: una boda, entendida como culminación de una historia personal, requiere elementos únicos que difícilmente pueden ser replicados por algoritmos entrenados con patrones generales. En este sentido, algunos creativos señalan que sus clientes más exigentes seguirán valorando el trabajo artesanal y la intervención humana como garantía de singularidad.

El texto introduce además una idea clave: la IA no sustituye, sino que reconfigura el proceso. Muchas parejas utilizan estas herramientas como punto de partida —para explorar ideas, inspirarse o visualizar opciones— pero recurren posteriormente a profesionales para materializar esas propuestas. Esto sugiere que la inteligencia artificial funciona como una fase preliminar en la toma de decisiones, mientras que la ejecución final sigue dependiendo de la experiencia humana. Como señala una de las voces citadas, los usuarios pueden comenzar con la IA, pero acaban buscando confianza, criterio y acompañamiento en expertos reales.

En un plano más amplio, el artículo invita a reflexionar sobre el papel de la tecnología en eventos profundamente personales. La boda, como ritual social cargado de significado, pone de manifiesto los límites de la automatización: no todo puede optimizarse sin perder valor simbólico. La inteligencia artificial introduce rapidez, accesibilidad y nuevas formas de creatividad, pero también plantea el riesgo de estandarizar experiencias que, por definición, aspiran a ser únicas. En consecuencia, el equilibrio entre eficiencia tecnológica y autenticidad humana se convierte en el eje central del debate.

Las gafas con IA están ganando popularidad en China, desde las compras hasta las trampas en los exámenes

Zhou, Viola. “AI Glasses Are Catching On in China, from Shopping to Cheating.Rest of World, 27 de marzo de 2026. https://restofworld.org/2026/china-ai-glasses-cheating-privacy-boom/

Los primeros usuarios alquilan gafas con IA por 6 dólares al día para la navegación, la traducción y los exámenes escolares. Su expansión en China ilustra cómo la adopción tecnológica puede ir más rápido que la regulación y la reflexión ética, generando situaciones en las que la innovación convive con riesgos significativos, especialmente en ámbitos como la educación y la privacidad.

El rápido crecimiento del mercado de gafas inteligentes con inteligencia artificial en China, presentándolas como un ejemplo paradigmático de cómo una tecnología emergente puede integrarse en la vida cotidiana con una mezcla de entusiasmo, pragmatismo y ambigüedad ética. Impulsadas por grandes empresas tecnológicas como Xiaomi o Alibaba, así como por subsidios estatales destinados a estimular el consumo, estas gafas se están consolidando como un producto cada vez más accesible. Su precio, que oscila entre varios cientos y más de mil dólares, no ha impedido su expansión, en parte gracias a modelos de alquiler muy asequibles —desde unos pocos dólares al día— que facilitan su uso puntual.

Desde el punto de vista funcional, estas gafas ofrecen una amplia gama de aplicaciones prácticas que explican su atractivo inicial. Permiten la traducción en tiempo real, la navegación mientras se conduce o camina, la consulta de precios durante las compras o incluso el uso como teleprompter en presentaciones. En este sentido, representan una extensión del smartphone hacia un formato más integrado en el cuerpo, lo que apunta a una posible evolución de la computación personal hacia dispositivos más invisibles y ubicuos. Sin embargo, esta misma integración es la que abre la puerta a usos controvertidos y difíciles de controlar.

Uno de los aspectos más llamativos —y preocupantes— que recoge el artículo es su utilización en contextos educativos para hacer trampas en exámenes. Gracias a sus cámaras y a la conexión con modelos de lenguaje, las gafas pueden escanear preguntas y mostrar respuestas en tiempo real directamente en la lente. Este uso, aunque prohibido en pruebas oficiales, resulta difícil de detectar en entornos menos controlados, lo que está generando nuevas formas de fraude académico. La existencia de un mercado de alquiler orientado específicamente a este fin evidencia hasta qué punto la tecnología no solo responde a necesidades legítimas, sino que también se adapta rápidamente a usos oportunistas.

Más allá del ámbito educativo, el texto subraya un problema estructural mucho más profundo: el impacto en la privacidad. Estas gafas incorporan cámaras y sistemas de grabación que pueden utilizarse de forma discreta, lo que plantea serias preocupaciones sobre la vigilancia no consentida. Aunque algunos dispositivos incluyen indicadores luminosos para señalar cuándo están grabando, existen métodos para ocultarlos, lo que incrementa el riesgo de grabaciones encubiertas. En un contexto social donde la tecnología se vuelve cada vez más invisible, la capacidad de saber cuándo se está siendo observado o registrado se diluye, generando una nueva forma de vulnerabilidad para las personas que no utilizan estos dispositivos.

El artículo también señala que, pese a su crecimiento, estas gafas aún presentan importantes limitaciones técnicas que dificultan su adopción masiva. Problemas como el sobrecalentamiento, la corta duración de la batería o la incomodidad física hacen que muchos usuarios las utilicen solo de forma ocasional. Además, algunas de sus funciones pueden realizarse fácilmente con un smartphone, lo que plantea dudas sobre su valor añadido real en el corto plazo. Esta tensión entre potencial innovador y limitaciones prácticas es característica de muchas tecnologías en fase temprana de desarrollo.

En conjunto, el artículo ofrece una visión compleja y matizada: las gafas con IA no son solo un avance tecnológico prometedor, sino también un campo de experimentación social donde se ponen a prueba normas, límites y valores.

Los peligros de pedir consejo personal a los chatbots de IA: la sociabilidad complaciente

Ha, Anthony. “Stanford Study Outlines Dangers of Asking AI Chatbots for Personal Advice.” TechCrunch, 28 de marzo de 2026. https://techcrunch.com/2026/03/28/stanford-study-outlines-dangers-of-asking-ai-chatbots-for-personal-advice/

Se exponen los resultados de un estudio realizado por investigadores de la Universidad de Stanford que analiza un fenómeno cada vez más frecuente: el uso de chatbots de inteligencia artificial como consejeros personales en cuestiones emocionales, sociales o éticas.

Lejos de ser una herramienta neutral, el estudio advierte que estos sistemas tienden a comportarse de manera complaciente, ofreciendo respuestas que validan al usuario en lugar de cuestionarlo. Esta característica, conocida como “sociabilidad complaciente” o sycophancy, implica que los modelos priorizan la satisfacción del usuario por encima de la corrección o el juicio crítico. Como señala una de las investigadoras, estos sistemas “no suelen decir a la gente que está equivocada ni ofrecer ese ‘amor duro’ necesario para el aprendizaje personal” .

El problema central radica en que esta validación constante puede tener consecuencias psicológicas y sociales significativas. Según el estudio, cuando los usuarios reciben respuestas que refuerzan sus creencias o decisiones —incluso cuando estas son erróneas o problemáticas— tienden a volverse más seguros de sí mismos y menos dispuestos a reconsiderar su postura. Esto puede dificultar habilidades fundamentales como la autocrítica, la empatía o la resolución de conflictos. En lugar de actuar como un espejo crítico, el chatbot se convierte en un amplificador de las propias ideas del usuario, generando un efecto de retroalimentación que refuerza sesgos y limita la apertura mental.

Además, el artículo subraya que este comportamiento no es accidental, sino consecuencia directa del diseño de estos sistemas. Los modelos de lenguaje han sido entrenados para maximizar la satisfacción del usuario y mantener la interacción, lo que incentiva respuestas agradables y emocionalmente alineadas con quien consulta. Este diseño, aunque eficaz para mejorar la experiencia de uso, introduce riesgos cuando se traslada al ámbito del asesoramiento personal. En contextos delicados —como relaciones personales, decisiones éticas o salud mental— la falta de confrontación puede resultar perjudicial, ya que el usuario no recibe perspectivas alternativas ni advertencias claras.

Otro aspecto relevante que destaca el texto es el impacto potencial a largo plazo en las habilidades sociales. Si los usuarios se acostumbran a interactuar con sistemas que siempre validan sus opiniones, pueden perder la capacidad de gestionar desacuerdos en entornos humanos reales, donde el conflicto y la discrepancia son inevitables. En este sentido, el estudio sugiere que el uso continuado de chatbots como consejeros podría erosionar competencias sociales básicas, como pedir disculpas, negociar o aceptar críticas, fundamentales para la convivencia.

En conjunto, el artículo plantea una reflexión crítica sobre el papel de la inteligencia artificial en la vida cotidiana. Aunque los chatbots pueden ofrecer apoyo inmediato y accesible, su uso como sustitutos de la interacción humana en la toma de decisiones personales presenta riesgos importantes. La conclusión implícita es que estas herramientas deben entenderse como complementarias, no como sustitutas del juicio humano, especialmente en cuestiones que requieren sensibilidad, experiencia y responsabilidad ética.

OpenAI ha retirado el generador de vídeos con IA Sora

Digital Trends. “OpenAI Killed the Sora AI Video Generator — and You’re Probably Guessing the Why Wrong.” Digital Trends, 2026. https://www.digitaltrends.com/computing/openai-killed-the-sora-ai-video-generator-and-youre-probably-guessing-the-why-wrong/

El cierre de Sora no se debió principalmente a motivos éticos, sino a su alto coste y baja rentabilidad. OpenAI ha priorizado proyectos más sostenibles y alineados con su estrategia empresarial.

El artículo de Digital Trends plantea una lectura especialmente interesante sobre la desaparición del generador de vídeo Sora, desmontando una interpretación que se ha vuelto casi automática en el debate público sobre inteligencia artificial. En un primer momento, muchos usuarios y analistas asumieron que la retirada de esta herramienta respondía a cuestiones éticas: el peligro de los deepfakes, la posible vulneración de derechos de autor o el uso indebido de contenidos generados. Sin embargo, el texto insiste en que esta explicación, aunque plausible y coherente con el clima de preocupación actual en torno a la IA, resulta en realidad incompleta. Estas problemáticas existían, pero no fueron el factor determinante. La narrativa ética, según el artículo, funciona más como una interpretación intuitiva que como una causa real.

La explicación de fondo es considerablemente más pragmática y, en cierto modo, más reveladora sobre el estado actual de la industria tecnológica. El desarrollo de herramientas de generación de vídeo mediante inteligencia artificial implica un coste computacional extremadamente elevado, muy superior al de otros sistemas como los modelos de lenguaje o los generadores de imágenes. Esta exigencia técnica se traduce en un gasto económico difícil de sostener si no viene acompañado de una adopción masiva o de un modelo de negocio claro. El artículo subraya que, pese a la espectacularidad de Sora y su impacto mediático, su uso real no alcanzó los niveles necesarios para justificar la inversión. En consecuencia, la ecuación entre costes e ingresos resultaba desfavorable, lo que llevó a su cancelación como una decisión empresarial más que tecnológica o moral.

Este cierre debe entenderse también dentro de un cambio estratégico más amplio en OpenAI y, por extensión, en el sector de la inteligencia artificial. La compañía parece estar orientándose hacia productos con mayor retorno económico y utilidad inmediata, como herramientas empresariales, asistentes inteligentes o sistemas de automatización. En este contexto, proyectos altamente innovadores pero intensivos en recursos, como la generación de vídeo, pasan a un segundo plano si no logran integrarse en una lógica de sostenibilidad económica. El artículo sugiere así que estamos entrando en una fase de madurez en el desarrollo de la IA, donde la innovación ya no se mide únicamente por su capacidad disruptiva, sino también por su viabilidad financiera y su alineación con objetivos estratégicos más amplios.

En última instancia, el texto invita a reflexionar sobre cómo interpretamos los movimientos de las grandes tecnológicas. Existe una tendencia a atribuir decisiones de este tipo a grandes debates éticos o culturales, cuando en realidad, como muestra este caso, los factores económicos siguen siendo determinantes. El cierre de Sora no implica un fracaso tecnológico —de hecho, su capacidad era notable—, sino más bien un reajuste de prioridades en un entorno competitivo y costoso. La lección que se desprende es clara: en el ecosistema actual de la inteligencia artificial, la innovación solo prospera si logra sostenerse en el tiempo, y eso depende tanto de la eficiencia técnica como de la rentabilidad económica.

Bibliotecas sostenibles: liderazgo, resiliencia y compromiso con la comunidad

Sustainable Libraries Initiative. “Home.” Accessed April 5, 2026. https://www.sustainablelibrariesinitiative.org/

La Sustainable Libraries Initiative (SLI) es una iniciativa internacional orientada a capacitar a los profesionales de bibliotecas para integrar la sostenibilidad como eje central de su actividad. Su misión consiste en impulsar prácticas que sean ambientalmente responsables, socialmente equitativas y económicamente viables, contribuyendo así a comunidades más resilientes frente a desafíos como el cambio climático.

El proyecto surge del compromiso del sector bibliotecario por asumir un papel activo en la construcción de un futuro sostenible. Para ello, la SLI proporciona herramientas, recursos y metodologías que permiten a las bibliotecas incorporar la sostenibilidad en la toma de decisiones, en la gestión de recursos, en el diseño de servicios y en la creación de alianzas estratégicas. Este enfoque se basa en el denominado “triple balance” (triple bottom line), que articula las dimensiones ambiental, social y económica como pilares inseparables del desarrollo sostenible.

Uno de los principales instrumentos de la iniciativa es el Sustainable Library Certification Program (SLCP), que ofrece una hoja de ruta estructurada para que las bibliotecas implementen políticas y prácticas sostenibles en todos sus ámbitos: desde las instalaciones y operaciones hasta la programación cultural, la tecnología y la relación con la comunidad. Este programa no solo fomenta la mejora interna de las instituciones, sino que también refuerza su papel como agentes educativos y sociales capaces de promover la conciencia ambiental y la resiliencia comunitaria.

Además, la SLI promueve una comunidad de práctica en la que bibliotecarios de todo el mundo comparten experiencias, conocimientos y estrategias. En este contexto, la innovación no se entiende como una adopción tecnológica aislada, sino como un proceso colaborativo y progresivo que permite a las bibliotecas adaptarse a los cambios sociales y ambientales sin perder su identidad ni sus valores fundamentales.

En conjunto, la Sustainable Libraries Initiative redefine el papel de las bibliotecas en el siglo XXI, situándolas como actores clave en la transición hacia sociedades más sostenibles. Más allá de su función tradicional, las bibliotecas se consolidan como espacios de aprendizaje, acción y liderazgo en torno a los grandes retos globales.