Archivo de la categoría: Noticias

Ángel Lemus fusiona folklore charro con música urbana. Viviendo en la era pop 2025/12/12

Ángel Lemus fusiona folklore charro con música urbana

Viviendo en la era pop 2025/12/12

ESCUCHAR

Descargar

Ángel Lemus es un artista salmantino multidisciplinar que fusiona folklore charro con música urbana, moda, baile, danza, cine y distintas áreas artísticas creando un estilo único de neofolklore urbano. Su proyecto BERRAKO va más allá de la música, buscando reivindicar la identidad cultural de Salamanca y de lo rural en la escena artística actual. Ángel Lemus es un artista salmantino que mezcla la tradición musical charra con estilos urbanos contemporáneos. A través de su proyecto BERRAKO, reinventa ritmos y sonoridades del folclore para acercarlos a nuevas generaciones sin perder su esencia. Además de su faceta musical, destaca por su trabajo visual: dirige y crea videoclips donde combina danza, símbolos populares y una estética moderna, usando escenarios emblemáticos e historias del folclore de Salamanca para dar nueva vida a la cultura local y expandirla más allá. https://www.youtube.com/@akalemus/ https://www.girandoporsalas.com/banda/15097724/lemus/dist/jplayer/

La carrera por crear la IA definitiva

Booth, Robert. “It’s Going Much Too Fast’: The Inside Story of the Race to Create the Ultimate AI.The Guardian, December 1, 2025. https://www.theguardian.com/technology/ng-interactive/2025/dec/01/its-going-much-too-fast-the-inside-story-of-the-race-to-create-the-ultimate-ai

Se describe la carrera mundial por desarrollar una inteligencia artificial lo más parecida posible a la inteligencia humana, una tecnología que podría transformar de forma radical todos los ámbitos de la vida.

Las grandes empresas tecnológicas compiten a una velocidad sin precedentes por alcanzar hitos cada vez más ambiciosos, con enormes inversiones en centros de datos, chips especializados y contratación de talento altamente cualificado. En este escenario, la presión es extrema: equipos trabajando día y noche, sueldos multimillonarios y una cultura en la que cada avance tecnológico genera expectativas desmesuradas.

El texto muestra que este impulso descontrolado no está exento de riesgos. Muchas voces dentro de la propia industria advierten de que el ritmo es demasiado rápido y que no estás existiendo suficiente reflexión sobre las consecuencias. A medida que los modelos de IA se vuelven más potentes y autónomos, aumentan los temores sobre posibles impactos negativos en el empleo, la economía, la privacidad y la seguridad. Las herramientas desarrolladas podrían llegar a influir en decisiones críticas sin supervisión adecuada o generar efectos inesperados difíciles de prever o controlar.

Otro elemento central del artículo es la tensión entre quienes ven la IA avanzada como una oportunidad sin precedentes para resolver grandes problemas —desde la salud hasta el cambio climático— y quienes temen que concentre el poder en manos de unos pocos actores privados. Este desequilibrio podría profundizar desigualdades existentes, favorecer la manipulación a gran escala o desencadenar tecnologías que escapen al control humano.

A lo largo del reportaje, se retrata un ambiente de euforia mezclado con inquietud: mientras algunos especialistas creen que la inteligencia artificial general podría estar a pocos años de distancia, otros consideran irresponsable fijar plazos tan cortos y piden una regulación más estricta. En conjunto, el artículo ofrece una mirada crítica a la carrera tecnológica actual, marcada por la urgencia, la competencia feroz y la sensación creciente de que se está avanzando más rápido de lo que la sociedad puede asimilar.

Recomendaciones para el uso de la Inteligencia Artificial en la Universidad de Granada

Universidad de Granada. Recomendaciones para el uso de la Inteligencia Artificial en la Universidad de Granada. Granada: Universidad de Granada, 2024.

Texto completo

El documento recoge el resultado de un amplio proceso de reflexión colaborativa desarrollado en la Universidad de Granada durante 2024 para analizar las implicaciones del uso de la inteligencia artificial (IA) en el ámbito universitario. Parte del reconocimiento de que la irrupción de la IA, especialmente la generativa, constituye un cambio tecnológico profundo que está transformando los procesos de aprendizaje, investigación, gestión administrativa y relación con la sociedad. El informe no es normativo, sino una guía de inspiración para promover un uso ético, responsable y crítico de la IA en la institución.

En el área de docencia y aprendizaje, se describen numerosas oportunidades: apoyo a la planificación didáctica, generación de materiales, personalización del aprendizaje y automatización de tareas. No obstante, se advierten riesgos relevantes como la falta de integridad académica, problemas de privacidad, sesgos, brechas digitales, pérdida de competencias y dependencia de grandes empresas tecnológicas. Para mitigarlos, se proponen recomendaciones centradas en la transparencia en el uso, la adaptación de metodologías y evaluaciones, la alfabetización digital, la protección de datos y la formación del profesorado y del estudiantado.

En el ámbito de la investigación, la IA ofrece posibilidades valiosas en todas sus fases: búsqueda y síntesis de información, diseño de estudios, análisis de datos, generación de código y redacción científica. Sin embargo, también puede comprometer la calidad, reproducibilidad y ética de los resultados si no existe supervisión humana adecuada. El documento recomienda mejorar la capacitación de los equipos investigadores, garantizar la trazabilidad de los datos, asegurar la explicabilidad de los modelos utilizados y fomentar un uso que respete la integridad científica.

Respecto a la gestión universitaria, se destacan oportunidades como la mejora de la atención al usuario, la automatización de contenidos, el apoyo a la toma de decisiones y la traducción de recursos institucionales. A la vez, se identifican riesgos: vulneración de datos personales, dependencia tecnológica, falta de formación, costes económicos y opacidad en la generación de contenidos. Se proponen medidas para asegurar el cumplimiento normativo, promover herramientas institucionales y garantizar transparencia y sostenibilidad en su adopción.

Finalmente, en cuanto al impacto social, el documento subraya amenazas como la pérdida de privacidad, los sesgos, el aumento de desigualdades, la desinformación, los efectos sociolaborales negativos y los riesgos éticos en áreas sensibles. Propone que la universidad actúe con responsabilidad a través de la formación en IA, la protección de la privacidad, la inclusión digital, la identificación de sesgos, la promoción de la veracidad, la vigilancia de riesgos humanos y laborales, y la apuesta por una gobernanza justa y transparente de estas tecnologías.

Presentación conjunta de «Lágrimas de poeta» de Benito González García y «Rencillas» de Concepción Guinaldo. Planeta Biblioteca 2025/12/10

Presentación conjunta de «Lágrimas de poeta» de Benito González García y «Rencillas» de Concepción Guinaldo.

Planeta Biblioteca 2025/12/10

ESCUCHAR

Descargar

En la entrevista de presentación conjunta de Lágrimas de poeta, de Benito González García, y Rencillas, de Concepción Guinaldo, ambos autores nos acercaron a dos perspectivas muy distintas de la narrativa salmantina actual. Benito González habló de su tránsito de la novela histórica a una obra autobiográfica, en la que explora la emigración y el desarraigo desde una voz profundamente íntima. Conchi Guinaldo, por su parte, nos propone una novela negra ambientada en la Salamanca de los años 60 y 80, que entrelaza misterio, memoria y costumbrismo. Los dos compartieron sus procesos creativos y la construcción de sus personajes, mostrando cómo la experiencia personal y el contexto histórico moldean sus relatos. La presentación destacó así la riqueza de estilos y temáticas, conectando la historia de vida y la investigación criminal con la identidad cultural y literaria de Salamanca.

Citas invisibles y métricas falsas: la ingeniería oculta detrás de las métricas científicas

How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch. Publicado el 9 de octubre de 2023.
https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

Se describe cómo investigadores detectaron un mecanismo de manipulación de métricas científicas consistente en la inserción de «citas invisibles» (o “sneaked citations”). En 2022, el informático Guillaume Cabanac observó un caso extraño: un artículo tenía más de 100 citas en menos de dos meses, pese a haberse descargado solo 62 veces. Cuando se decidió revisar los archivos de metadatos que las editoriales proporcionan a las bases de datos, y se descubrió que contenían referencias que no estaban visibles ni en el PDF ni en la versión online del artículo.

El artículo explica cómo miles de “citas invisibles” pueden infiltrarse en los metadatos de artículos científicos y generar métricas falsas. La alerta surgió cuando un investigador descubrió que un artículo acumulaba más de cien citas en menos de dos meses, pese a que apenas había sido descargado. Esto llevó a examinar los archivos de metadatos que las editoriales envían a los sistemas de indexación, donde se encontró que incluían referencias que no aparecían en el PDF ni en la versión web del artículo.

A partir de esta sospecha, se revisaron los metadatos que las editoriales envían a las bases de datos. En esos archivos —que contienen información técnica para la indexación, como títulos, autores, resúmenes y referencias— se encontraron listas de citaciones que no aparecían en el artículo tal como lo ve el lector. Es decir, la versión en PDF o HTML mostraba una bibliografía normal, pero la versión enviada a los indexadores incluía muchas más referencias añadidas artificialmente. Estas “citas fantasma” no estaban destinadas al lector, sino a los sistemas automatizados.

El problema es que la mayoría de plataformas que calculan métricas —incluyendo sistemas que cuentan citas, generan índices de impacto o alimentan rankings académicos— se basan en esos metadatos. No revisan manualmente las bibliografías visibles, sino que extraen la información directamente de los archivos técnicos. Esto significa que una cita inexistente en el papel puede convertirse en una cita “real” en las métricas, alterando indicadores que son usados en evaluaciones, promociones y decisiones de financiación.

La investigación mostró que esta no era una irregularidad aislada, sino un patrón repetido en varias revistas controladas por un mismo editor. En algunos casos, casi una décima parte de todas las referencias de los artículos eran invisibles para los lectores, pero muy visibles para los algoritmos. Lo más preocupante es que estas citas fantasma beneficiaban sobre todo a un grupo pequeño de autores, lo que sugiere que no eran simples errores técnicos, sino un mecanismo deliberado para inflar perfiles individuales.

Este tipo de manipulación es especialmente peligrosa por su invisibilidad. No se trata de alterar un manuscrito, plagiar contenido o falsificar datos; el artículo, tal y como se publica, parece completamente normal. Toda la distorsión ocurre en una capa oculta que solo las máquinas leen y que pocos investigadores examinan. Esta sofisticación hace que sea mucho más difícil detectar el fraude y, por tanto, mucho más fácil que pase desapercibido durante largos periodos.

El artículo también subraya las implicaciones más amplias para el ecosistema de investigación. Las métricas bibliométricas se han vuelto herramientas cruciales para evaluar la productividad, el prestigio y la influencia científica. Cuando estas métricas pueden manipularse de manera tan sencilla, y a una escala tan grande, se compromete la credibilidad de todo el sistema de evaluación. Investigadores que juegan limpio pueden quedar en desventaja frente a quienes manipulan los metadatos; instituciones pueden otorgar recursos basándose en indicadores inflados; y el público puede perder confianza en la fiabilidad de la ciencia.

Finalmente, se plantea la necesidad urgente de que las editoriales, los indexadores y las plataformas bibliométricas revisen sus procedimientos, auditen los metadatos que reciben y establezcan medidas de detección de anomalías. La transparencia en la gestión de metadatos y la trazabilidad de las referencias podrían ayudar a evitar este tipo de prácticas. Sin medidas correctoras, las “citas invisibles” seguirán distorsionando el sistema científico y creando métricas engañosas que no reflejan la calidad real del trabajo académico.

Redes sociales estables, IA en ascenso: así es el ecosistema digital adolescente en 2025

Teens, Social Media and AI Chatbots 2025. Publicado el 9 de diciembre de 2025.
https://www.pewresearch.org/internet/2025/12/09/teens-social-media-and-ai-chatbots-2025/

Aunque las redes sociales siguen siendo un elemento central en la vida de los adolescentes —con patrones de uso que muestran estabilidad año tras año— la aparición de los chatbots de IA marca un cambio significativo: lo que era un uso casual o experimental ahora se consolida como parte habitual de su día a día.

El estudio se basa en una encuesta online realizada a 1.458 adolescentes estadounidenses de entre 13 y 17 años, entre el 25 de septiembre y el 9 de octubre de 2025, ponderada para ser representativa según edad, género, raza/etnicidad, nivel de ingresos del hogar, etc

La mayoría de los adolescentes encuestados continúa usando plataformas como YouTube, TikTok, Instagram y Snapchat. En concreto, casi 9 de cada 10 declaran haber usado YouTube alguna vez; seis de cada 10 o más usan TikTok e Instagram; alrededor del 55 % usan Snapchat. Por el contrario, otras plataformas como Facebook (≈ 31 %) o WhatsApp (≈ 24 %) tienen menor penetración; redes como Reddit o X (antes Twitter) son aún menos utilizadas.

En cuanto a frecuencia, muchos adolescentes usan estas redes con regularidad. Por ejemplo, YouTube es usada a diario por alrededor de tres cuartas partes de los adolescentes; TikTok e Instagram también tienen un uso diario elevado (≈ 61 % y 55 %, respectivamente). Además, aproximadamente 1 de cada 5 adolescentes dice estar “casi constantemente” conectado en TikTok o YouTube. Aunque esas cifras han variado poco en relación con años recientes, el uso casi constante de TikTok ha subido algo desde 2022.

El estudio revela que los chatbots de inteligencia artificial (IA) han adquirido un papel destacado en la vida online de los adolescentes. En total, alrededor del 64 % de los adolescentes encuestados informa haber utilizado algún chatbot de IA. De ese grupo, cerca de 3 de cada 10 dice usarlos a diario

El uso diario varía según edad, origen étnico y nivel de ingresos. Por ejemplo, entre los de 15-17 años el 31 % usa chatbots todos los días, comparado con el 24 % de los de 13-14 años. En cuanto a etnicidad, un tercio de adolescentes negros (35 %) e hispanos (33 %) informa uso diario, frente a un 22 % entre adolescentes blancos. Y al dividirse por nivel de ingresos: un 66 % de los adolescentes en hogares con ingresos elevados (≥ 75.000 USD) usan chatbots, frente a un 56 % de quienes viven en hogares con ingresos inferiores a 30.000 USD.

En cuanto a qué chatbots usan, el más popular es ChatGPT (con un 59 % de adopción), más del doble que el siguiente más popular: Gemini (23 %), seguido por Meta AI (20 %). Otros como Copilot, Character.ai o Claude tienen menor uso.

Este fenómeno plantea nuevas preguntas sobre la salud digital de los jóvenes: la integración de la IA en espacios de relación, información y ocio sucede al mismo tiempo que ciertos colectivos (por edad, origen o nivel socioeconómico) muestran diferencias en su uso, lo cual podría contribuir a desigualdades digitales.

Cómo hacer que a tus hijos les guste leerles

Rosenberg, Rachel. 2025. “How to Love Reading to Your Kids.” Book Riot, 3 meses atrás. https://bookriot.com/how-to-love-reading-to-your-kids/

Se abordan los desafíos y satisfacciones de leer en voz alta a los niños, y ofrece estrategias prácticas para que ese momento sea disfrutable tanto para el adulto como para el niño. Rosenberg —bibliotecaria infantil de profesión— reconoce que, en la vida real, muchas veces los padres o cuidadores están cansados, abrumados o simplemente no tienen ganas de leer; el texto parte de esa honestidad para ofrecer ideas realistas y útiles.

Uno de los pilares del artículo es la recomendación de escoger libros que interesen al adulto tanto como al niño. Según la autora, cuando los libros elegidos también captan la atención del lector adulto —su arte, su historia o su mensaje— la experiencia compartida se vuelve más natural y estimulante. En una época en la que hay muchísima calidad en literatura infantil y juvenil, visitar la biblioteca local y pedir ayuda a un bibliotecario puede ayudar a encontrar libros que enganchen a ambos.

Para no convertir la lectura en una rutina tediosa, el artículo propone “animar” la lectura con actividades complementarias: por ejemplo, después de leer un libro hacer una receta de comida inspirada en él, dibujar juntos algo del cuento, decorar galletas con los personajes, o ver —si existe— la adaptación cinematográfica del libro como prolongación de la historia. Estas prácticas ayudan a que la lectura no sea solo un ejercicio pasivo, sino una experiencia creativa e interactiva.

Un aspecto emocional que destaca Rosenberg es la dimensión afectiva: leer juntos ofrece un espacio de cercanía, calma y contacto físico. Para muchos niños, sentarse en el regazo de un adulto, escuchar la voz con tonos diferentes según los personajes, y compartir un cuento antes de dormir significa sentirse seguros, amados y escuchados. Esa sensación suele reforzar el vínculo entre adulto y niño.

Finalmente, la autora recuerda que leer en voz alta no siempre será divertido desde la perspectiva del adulto —puede ser monótono, repetitivo o incluso aburrido—. Pero sugiere un enfoque práctico: aceptar esos momentos, “fingir” entusiasmo si es necesario, y recordar que los beneficios a largo plazo (vínculo, desarrollo del lenguaje, imaginación) justifican el esfuerzo. Además, si uno ya no dispone de nuevos libros, propone intercambiar lecturas con otros padres: un “trueque” de cuentos que renueve el interés sin coste económico.

En definitiva, Rosenberg invita a ver la lectura compartida no como una obligación más, sino como una oportunidad para crear recuerdos, fomentar la imaginación, y establecer hábitos valiosos — siempre que el adulto esté dispuesto a invertir un poco de su tiempo y buen ánimo, y a convertir la lectura en una experiencia conjunta, flexible y creativa.

Índice de seguridad de IA 2025: evaluación de las prácticas de las principales empresas frente a riesgos existenciales y de gobernanza

Mashable — «AI safety report: Only 3 models make the grade: Gemini, Claude, and ChatGPT are top of the class — but even they are just C students»

Texto completo

El informe proviene del Future of Life Institute (FLI), que en su edición “Winter 2025 AI Safety Index” evaluó ocho proveedores importantes de IA: OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba, y Z.ai

Un panel de expertos analizó declaraciones públicas y respuestas a encuestas de las compañías, evaluando 35 indicadores de seguridad — desde protección de datos hasta mecanismos de denuncia interna.

Solo tres modelos quedaron como “los mejor posicionados”: ChatGPT (de OpenAI), Gemini (de Google) y Claude (de Anthropic). Pero todos aprobaron de forma limitada: en la escala de notas del informe obtuvieron calificaciones de tipo “C” — un aprobado con reservas.

Ninguna de las empresas evaluadas tiene un plan público —verificable y creíble— para garantizar un control humano fiable sobre sistemas de IA cada vez más potentes, lo que abre la puerta a potenciales riesgos «catastróficos». Aunque algunas —como Anthropic y OpenAI— obtuvieron mejores notas en ciertos rubros como gobernanza, evaluación de riesgos y transparencia, las deficiencias en seguridad existencial, rendición de cuentas y medidas preventivas estructurales siguen siendo graves

El informe advierte de que la industria de la IA “va muy por delante” de sus propios mecanismos de regulación y seguridad, lo que genera una tensión creciente entre la carrera por la innovación y la necesidad de salvaguardar la integridad —social, ética y técnica— de sus sistemas

Datos clave:

  • Ninguna de las empresas evaluadas alcanzó un nivel satisfactorio en todos los dominios críticos. Las debilidades estructurales —sobre todo en ámbitos de riesgo existencial, evaluación independiente y transparencia— persisten.
  • Las mayores carencias se concentran en los dominios de evaluación de riesgos (risk assessment), marcos de seguridad (safety framework), y compartición de información (information sharing).
  • No hay evidencia pública de que ninguna empresa haya establecido un plan creíble, exhaustivo y verificable para controlar posibles inteligencias artificiales superinteligentes (AGI / “superhuman AI”). Esa “seguridad existencial” —el control sobre sistemas que podrían ser más inteligentes que los humanos— es considerada la “debilidad estructural central del sector”.

Aunque algunas empresas cumplen parcialmente criterios de estándares emergentes (como los propuestos en la UE), la implementación es desigual: profundidad, especificidad y transparencia siguen siendo insuficiente

Silicon Valley crea imitaciones de Amazon y Gmail para entrenar agentes de inteligencia artificial.

Maya Perez “Tech Giants Build Synthetic Amazon, Gmail for AI Training.” New York Times, December 2, 2025. https://www.nytimes.com/2025/12/02/technology/artificial-intelligence-amazon-gmail.html

Texto completo

Últimamente, varias empresas tecnológicas y startups están construyendo versiones “sintéticas” de plataformas conocidas —como las que usan Amazon o Gmail— con el fin de utilizarlas como entornos seguros para entrenar inteligencias artificiales.

El modelo recrea catálogos, interfaces, funciones de compra o correo, y escenarios de navegación, lo cual permite que las IA practiquen acciones humanas (comprar, enviar un correo, organizar bandejas de entrada…) sin necesidad de usar datos reales y automatizados.

Este enfoque surge en parte por la escasez de datos apropiados para alimentar IA modernas: muchas webs ya bloquean rastreadores, y hay crecientes restricciones legales y éticas en torno a la recolección de datos reales, por lo que las “copias sintéticas” ofrecen un sustituto que evita esos obstáculos. Al operar en entornos ficticios, pero realistas, los agentes de IA pueden aprender estructuras complejas de interacción digital con menos riesgos de privacidad o bloqueo.

Las implicaciones potenciales son enormes: las IA entrenadas de este modo podrían automatizar tareas cotidianas —hacer compras, gestionar correos, planificar viajes, organizar agendas…— con mínima intervención humana. Esto abre la puerta a asistentes cada vez más independientes y versátiles, capaces de operar en interfaces web reales como un usuario normal.

No obstante, este cambio también plantea dudas importantes. Desde una visión social y ética, existe preocupación por la posible pérdida de empleos en sectores administrativos y comerciales. Además, hay riesgos inherentes a que las IA aprendan en entornos sintéticos: pueden reproducir sesgos, cometer errores cuando interactúan con sistemas reales, o generar efectos no deseados si su comportamiento no se controla adecuadamente.

En definitiva —y como describe el artículo de prensa—, la creación de mundos digitales sintéticos representa una transformación profunda en el modo en que se entrena la inteligencia artificial: un paso hacia entornos controlados, escalables y legales, con un gran potencial práctico… pero también con desafíos cruciales a nivel social, ético y técnico.

Publicación de datos sobre el patrimonio cultural en la era de la inteligencia artificial

Keller, Paul. Publishing Cultural Heritage Data in the Age of AI. Europeana Foundation y Open Future Foundation, diciembre de 2025.

Texto completo

Este informe, encargado por la Europeana Foundation y elaborado por Open Future, analiza cómo la inteligencia artificial está transformando el ecosistema de datos del patrimonio cultural.

El documento surge dentro de la Alignment Assembly on Culture for AI, un proceso participativo europeo que ha puesto de manifiesto una tensión central: por un lado, el sector del patrimonio cultural desea mantener el compromiso con el acceso abierto; por otro, el uso masivo de datos para entrenar modelos de IA crea nuevos riesgos, cargas económicas y dilemas éticos. El texto enmarca este problema en un contexto legal complejo, donde los mecanismos de protección como el copyright, los derechos de base de datos o los opt-out para minería de datos resultan, en la práctica, insuficientes para controlar el uso intensivo que hacen los desarrolladores de IA de los recursos digitales publicados por instituciones culturales.

El documento expone que la IA transforma radicalmente el tipo de acceso que enfrentan estas instituciones: de un uso tradicional centrado en la consulta humana a una demanda de acceso industrializado, donde bots y sistemas automáticos extraen colecciones completas para entrenar modelos. Frente a ello, el informe propone que las instituciones no pueden limitarse a cerrar sus recursos ni depender exclusivamente de restricciones legales, ya que ello comprometería su misión pública. En su lugar, plantea un marco de interés público basado en cinco principios: acceso abierto al conocimiento, equidad y no discriminación, confiabilidad y autoridad institucional, apoyo a la investigación y la innovación, y sostenibilidad económica. Estos valores sirven de guía para adaptar políticas de acceso a un entorno de IA que amplifica tanto las oportunidades como las amenazas.

A partir de ese marco, el informe desarrolla un modelo de acceso diferenciado que combina apertura y control según las necesidades y los costos asociados a cada modalidad de acceso. Propone mantener acceso totalmente abierto para la consulta de objetos individuales; establecer acceso controlado mediante API para usos programáticos y de sistemas de IA desplegados; y adoptar un régimen de acceso condicional para usos de gran escala, como la descarga masiva para entrenamiento. Este modelo permite que el acceso abierto siga siendo el principio dominante, a la vez que introduce mecanismos para que los grandes usuarios —especialmente actores comerciales con alta capacidad— contribuyan a la sostenibilidad económica del ecosistema cultural. El informe concluye invitando al sector a debatir y ajustar colectivamente este modelo, señalando que las decisiones que se tomen ahora serán fundamentales para garantizar un futuro responsable, sostenible y alineado con la misión pública del patrimonio cultural en la era de la IA.