Archivo de la categoría: Noticias

Presentación conjunta de «Lágrimas de poeta» de Benito González García y «Rencillas» de Concepción Guinaldo. Planeta Biblioteca 2025/12/10

Presentación conjunta de «Lágrimas de poeta» de Benito González García y «Rencillas» de Concepción Guinaldo.

Planeta Biblioteca 2025/12/10

ESCUCHAR

Descargar

En la entrevista de presentación conjunta de Lágrimas de poeta, de Benito González García, y Rencillas, de Concepción Guinaldo, ambos autores nos acercaron a dos perspectivas muy distintas de la narrativa salmantina actual. Benito González habló de su tránsito de la novela histórica a una obra autobiográfica, en la que explora la emigración y el desarraigo desde una voz profundamente íntima. Conchi Guinaldo, por su parte, nos propone una novela negra ambientada en la Salamanca de los años 60 y 80, que entrelaza misterio, memoria y costumbrismo. Los dos compartieron sus procesos creativos y la construcción de sus personajes, mostrando cómo la experiencia personal y el contexto histórico moldean sus relatos. La presentación destacó así la riqueza de estilos y temáticas, conectando la historia de vida y la investigación criminal con la identidad cultural y literaria de Salamanca.

Citas invisibles y métricas falsas: la ingeniería oculta detrás de las métricas científicas

How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch. Publicado el 9 de octubre de 2023.
https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

Se describe cómo investigadores detectaron un mecanismo de manipulación de métricas científicas consistente en la inserción de «citas invisibles» (o “sneaked citations”). En 2022, el informático Guillaume Cabanac observó un caso extraño: un artículo tenía más de 100 citas en menos de dos meses, pese a haberse descargado solo 62 veces. Cuando se decidió revisar los archivos de metadatos que las editoriales proporcionan a las bases de datos, y se descubrió que contenían referencias que no estaban visibles ni en el PDF ni en la versión online del artículo.

El artículo explica cómo miles de “citas invisibles” pueden infiltrarse en los metadatos de artículos científicos y generar métricas falsas. La alerta surgió cuando un investigador descubrió que un artículo acumulaba más de cien citas en menos de dos meses, pese a que apenas había sido descargado. Esto llevó a examinar los archivos de metadatos que las editoriales envían a los sistemas de indexación, donde se encontró que incluían referencias que no aparecían en el PDF ni en la versión web del artículo.

A partir de esta sospecha, se revisaron los metadatos que las editoriales envían a las bases de datos. En esos archivos —que contienen información técnica para la indexación, como títulos, autores, resúmenes y referencias— se encontraron listas de citaciones que no aparecían en el artículo tal como lo ve el lector. Es decir, la versión en PDF o HTML mostraba una bibliografía normal, pero la versión enviada a los indexadores incluía muchas más referencias añadidas artificialmente. Estas “citas fantasma” no estaban destinadas al lector, sino a los sistemas automatizados.

El problema es que la mayoría de plataformas que calculan métricas —incluyendo sistemas que cuentan citas, generan índices de impacto o alimentan rankings académicos— se basan en esos metadatos. No revisan manualmente las bibliografías visibles, sino que extraen la información directamente de los archivos técnicos. Esto significa que una cita inexistente en el papel puede convertirse en una cita “real” en las métricas, alterando indicadores que son usados en evaluaciones, promociones y decisiones de financiación.

La investigación mostró que esta no era una irregularidad aislada, sino un patrón repetido en varias revistas controladas por un mismo editor. En algunos casos, casi una décima parte de todas las referencias de los artículos eran invisibles para los lectores, pero muy visibles para los algoritmos. Lo más preocupante es que estas citas fantasma beneficiaban sobre todo a un grupo pequeño de autores, lo que sugiere que no eran simples errores técnicos, sino un mecanismo deliberado para inflar perfiles individuales.

Este tipo de manipulación es especialmente peligrosa por su invisibilidad. No se trata de alterar un manuscrito, plagiar contenido o falsificar datos; el artículo, tal y como se publica, parece completamente normal. Toda la distorsión ocurre en una capa oculta que solo las máquinas leen y que pocos investigadores examinan. Esta sofisticación hace que sea mucho más difícil detectar el fraude y, por tanto, mucho más fácil que pase desapercibido durante largos periodos.

El artículo también subraya las implicaciones más amplias para el ecosistema de investigación. Las métricas bibliométricas se han vuelto herramientas cruciales para evaluar la productividad, el prestigio y la influencia científica. Cuando estas métricas pueden manipularse de manera tan sencilla, y a una escala tan grande, se compromete la credibilidad de todo el sistema de evaluación. Investigadores que juegan limpio pueden quedar en desventaja frente a quienes manipulan los metadatos; instituciones pueden otorgar recursos basándose en indicadores inflados; y el público puede perder confianza en la fiabilidad de la ciencia.

Finalmente, se plantea la necesidad urgente de que las editoriales, los indexadores y las plataformas bibliométricas revisen sus procedimientos, auditen los metadatos que reciben y establezcan medidas de detección de anomalías. La transparencia en la gestión de metadatos y la trazabilidad de las referencias podrían ayudar a evitar este tipo de prácticas. Sin medidas correctoras, las “citas invisibles” seguirán distorsionando el sistema científico y creando métricas engañosas que no reflejan la calidad real del trabajo académico.

Redes sociales estables, IA en ascenso: así es el ecosistema digital adolescente en 2025

Teens, Social Media and AI Chatbots 2025. Publicado el 9 de diciembre de 2025.
https://www.pewresearch.org/internet/2025/12/09/teens-social-media-and-ai-chatbots-2025/

Aunque las redes sociales siguen siendo un elemento central en la vida de los adolescentes —con patrones de uso que muestran estabilidad año tras año— la aparición de los chatbots de IA marca un cambio significativo: lo que era un uso casual o experimental ahora se consolida como parte habitual de su día a día.

El estudio se basa en una encuesta online realizada a 1.458 adolescentes estadounidenses de entre 13 y 17 años, entre el 25 de septiembre y el 9 de octubre de 2025, ponderada para ser representativa según edad, género, raza/etnicidad, nivel de ingresos del hogar, etc

La mayoría de los adolescentes encuestados continúa usando plataformas como YouTube, TikTok, Instagram y Snapchat. En concreto, casi 9 de cada 10 declaran haber usado YouTube alguna vez; seis de cada 10 o más usan TikTok e Instagram; alrededor del 55 % usan Snapchat. Por el contrario, otras plataformas como Facebook (≈ 31 %) o WhatsApp (≈ 24 %) tienen menor penetración; redes como Reddit o X (antes Twitter) son aún menos utilizadas.

En cuanto a frecuencia, muchos adolescentes usan estas redes con regularidad. Por ejemplo, YouTube es usada a diario por alrededor de tres cuartas partes de los adolescentes; TikTok e Instagram también tienen un uso diario elevado (≈ 61 % y 55 %, respectivamente). Además, aproximadamente 1 de cada 5 adolescentes dice estar “casi constantemente” conectado en TikTok o YouTube. Aunque esas cifras han variado poco en relación con años recientes, el uso casi constante de TikTok ha subido algo desde 2022.

El estudio revela que los chatbots de inteligencia artificial (IA) han adquirido un papel destacado en la vida online de los adolescentes. En total, alrededor del 64 % de los adolescentes encuestados informa haber utilizado algún chatbot de IA. De ese grupo, cerca de 3 de cada 10 dice usarlos a diario

El uso diario varía según edad, origen étnico y nivel de ingresos. Por ejemplo, entre los de 15-17 años el 31 % usa chatbots todos los días, comparado con el 24 % de los de 13-14 años. En cuanto a etnicidad, un tercio de adolescentes negros (35 %) e hispanos (33 %) informa uso diario, frente a un 22 % entre adolescentes blancos. Y al dividirse por nivel de ingresos: un 66 % de los adolescentes en hogares con ingresos elevados (≥ 75.000 USD) usan chatbots, frente a un 56 % de quienes viven en hogares con ingresos inferiores a 30.000 USD.

En cuanto a qué chatbots usan, el más popular es ChatGPT (con un 59 % de adopción), más del doble que el siguiente más popular: Gemini (23 %), seguido por Meta AI (20 %). Otros como Copilot, Character.ai o Claude tienen menor uso.

Este fenómeno plantea nuevas preguntas sobre la salud digital de los jóvenes: la integración de la IA en espacios de relación, información y ocio sucede al mismo tiempo que ciertos colectivos (por edad, origen o nivel socioeconómico) muestran diferencias en su uso, lo cual podría contribuir a desigualdades digitales.

Cómo hacer que a tus hijos les guste leerles

Rosenberg, Rachel. 2025. “How to Love Reading to Your Kids.” Book Riot, 3 meses atrás. https://bookriot.com/how-to-love-reading-to-your-kids/

Se abordan los desafíos y satisfacciones de leer en voz alta a los niños, y ofrece estrategias prácticas para que ese momento sea disfrutable tanto para el adulto como para el niño. Rosenberg —bibliotecaria infantil de profesión— reconoce que, en la vida real, muchas veces los padres o cuidadores están cansados, abrumados o simplemente no tienen ganas de leer; el texto parte de esa honestidad para ofrecer ideas realistas y útiles.

Uno de los pilares del artículo es la recomendación de escoger libros que interesen al adulto tanto como al niño. Según la autora, cuando los libros elegidos también captan la atención del lector adulto —su arte, su historia o su mensaje— la experiencia compartida se vuelve más natural y estimulante. En una época en la que hay muchísima calidad en literatura infantil y juvenil, visitar la biblioteca local y pedir ayuda a un bibliotecario puede ayudar a encontrar libros que enganchen a ambos.

Para no convertir la lectura en una rutina tediosa, el artículo propone “animar” la lectura con actividades complementarias: por ejemplo, después de leer un libro hacer una receta de comida inspirada en él, dibujar juntos algo del cuento, decorar galletas con los personajes, o ver —si existe— la adaptación cinematográfica del libro como prolongación de la historia. Estas prácticas ayudan a que la lectura no sea solo un ejercicio pasivo, sino una experiencia creativa e interactiva.

Un aspecto emocional que destaca Rosenberg es la dimensión afectiva: leer juntos ofrece un espacio de cercanía, calma y contacto físico. Para muchos niños, sentarse en el regazo de un adulto, escuchar la voz con tonos diferentes según los personajes, y compartir un cuento antes de dormir significa sentirse seguros, amados y escuchados. Esa sensación suele reforzar el vínculo entre adulto y niño.

Finalmente, la autora recuerda que leer en voz alta no siempre será divertido desde la perspectiva del adulto —puede ser monótono, repetitivo o incluso aburrido—. Pero sugiere un enfoque práctico: aceptar esos momentos, “fingir” entusiasmo si es necesario, y recordar que los beneficios a largo plazo (vínculo, desarrollo del lenguaje, imaginación) justifican el esfuerzo. Además, si uno ya no dispone de nuevos libros, propone intercambiar lecturas con otros padres: un “trueque” de cuentos que renueve el interés sin coste económico.

En definitiva, Rosenberg invita a ver la lectura compartida no como una obligación más, sino como una oportunidad para crear recuerdos, fomentar la imaginación, y establecer hábitos valiosos — siempre que el adulto esté dispuesto a invertir un poco de su tiempo y buen ánimo, y a convertir la lectura en una experiencia conjunta, flexible y creativa.

Índice de seguridad de IA 2025: evaluación de las prácticas de las principales empresas frente a riesgos existenciales y de gobernanza

Mashable — «AI safety report: Only 3 models make the grade: Gemini, Claude, and ChatGPT are top of the class — but even they are just C students»

Texto completo

El informe proviene del Future of Life Institute (FLI), que en su edición “Winter 2025 AI Safety Index” evaluó ocho proveedores importantes de IA: OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba, y Z.ai

Un panel de expertos analizó declaraciones públicas y respuestas a encuestas de las compañías, evaluando 35 indicadores de seguridad — desde protección de datos hasta mecanismos de denuncia interna.

Solo tres modelos quedaron como “los mejor posicionados”: ChatGPT (de OpenAI), Gemini (de Google) y Claude (de Anthropic). Pero todos aprobaron de forma limitada: en la escala de notas del informe obtuvieron calificaciones de tipo “C” — un aprobado con reservas.

Ninguna de las empresas evaluadas tiene un plan público —verificable y creíble— para garantizar un control humano fiable sobre sistemas de IA cada vez más potentes, lo que abre la puerta a potenciales riesgos «catastróficos». Aunque algunas —como Anthropic y OpenAI— obtuvieron mejores notas en ciertos rubros como gobernanza, evaluación de riesgos y transparencia, las deficiencias en seguridad existencial, rendición de cuentas y medidas preventivas estructurales siguen siendo graves

El informe advierte de que la industria de la IA “va muy por delante” de sus propios mecanismos de regulación y seguridad, lo que genera una tensión creciente entre la carrera por la innovación y la necesidad de salvaguardar la integridad —social, ética y técnica— de sus sistemas

Datos clave:

  • Ninguna de las empresas evaluadas alcanzó un nivel satisfactorio en todos los dominios críticos. Las debilidades estructurales —sobre todo en ámbitos de riesgo existencial, evaluación independiente y transparencia— persisten.
  • Las mayores carencias se concentran en los dominios de evaluación de riesgos (risk assessment), marcos de seguridad (safety framework), y compartición de información (information sharing).
  • No hay evidencia pública de que ninguna empresa haya establecido un plan creíble, exhaustivo y verificable para controlar posibles inteligencias artificiales superinteligentes (AGI / “superhuman AI”). Esa “seguridad existencial” —el control sobre sistemas que podrían ser más inteligentes que los humanos— es considerada la “debilidad estructural central del sector”.

Aunque algunas empresas cumplen parcialmente criterios de estándares emergentes (como los propuestos en la UE), la implementación es desigual: profundidad, especificidad y transparencia siguen siendo insuficiente

Silicon Valley crea imitaciones de Amazon y Gmail para entrenar agentes de inteligencia artificial.

Maya Perez “Tech Giants Build Synthetic Amazon, Gmail for AI Training.” New York Times, December 2, 2025. https://www.nytimes.com/2025/12/02/technology/artificial-intelligence-amazon-gmail.html

Texto completo

Últimamente, varias empresas tecnológicas y startups están construyendo versiones “sintéticas” de plataformas conocidas —como las que usan Amazon o Gmail— con el fin de utilizarlas como entornos seguros para entrenar inteligencias artificiales.

El modelo recrea catálogos, interfaces, funciones de compra o correo, y escenarios de navegación, lo cual permite que las IA practiquen acciones humanas (comprar, enviar un correo, organizar bandejas de entrada…) sin necesidad de usar datos reales y automatizados.

Este enfoque surge en parte por la escasez de datos apropiados para alimentar IA modernas: muchas webs ya bloquean rastreadores, y hay crecientes restricciones legales y éticas en torno a la recolección de datos reales, por lo que las “copias sintéticas” ofrecen un sustituto que evita esos obstáculos. Al operar en entornos ficticios, pero realistas, los agentes de IA pueden aprender estructuras complejas de interacción digital con menos riesgos de privacidad o bloqueo.

Las implicaciones potenciales son enormes: las IA entrenadas de este modo podrían automatizar tareas cotidianas —hacer compras, gestionar correos, planificar viajes, organizar agendas…— con mínima intervención humana. Esto abre la puerta a asistentes cada vez más independientes y versátiles, capaces de operar en interfaces web reales como un usuario normal.

No obstante, este cambio también plantea dudas importantes. Desde una visión social y ética, existe preocupación por la posible pérdida de empleos en sectores administrativos y comerciales. Además, hay riesgos inherentes a que las IA aprendan en entornos sintéticos: pueden reproducir sesgos, cometer errores cuando interactúan con sistemas reales, o generar efectos no deseados si su comportamiento no se controla adecuadamente.

En definitiva —y como describe el artículo de prensa—, la creación de mundos digitales sintéticos representa una transformación profunda en el modo en que se entrena la inteligencia artificial: un paso hacia entornos controlados, escalables y legales, con un gran potencial práctico… pero también con desafíos cruciales a nivel social, ético y técnico.

Publicación de datos sobre el patrimonio cultural en la era de la inteligencia artificial

Keller, Paul. Publishing Cultural Heritage Data in the Age of AI. Europeana Foundation y Open Future Foundation, diciembre de 2025.

Texto completo

Este informe, encargado por la Europeana Foundation y elaborado por Open Future, analiza cómo la inteligencia artificial está transformando el ecosistema de datos del patrimonio cultural.

El documento surge dentro de la Alignment Assembly on Culture for AI, un proceso participativo europeo que ha puesto de manifiesto una tensión central: por un lado, el sector del patrimonio cultural desea mantener el compromiso con el acceso abierto; por otro, el uso masivo de datos para entrenar modelos de IA crea nuevos riesgos, cargas económicas y dilemas éticos. El texto enmarca este problema en un contexto legal complejo, donde los mecanismos de protección como el copyright, los derechos de base de datos o los opt-out para minería de datos resultan, en la práctica, insuficientes para controlar el uso intensivo que hacen los desarrolladores de IA de los recursos digitales publicados por instituciones culturales.

El documento expone que la IA transforma radicalmente el tipo de acceso que enfrentan estas instituciones: de un uso tradicional centrado en la consulta humana a una demanda de acceso industrializado, donde bots y sistemas automáticos extraen colecciones completas para entrenar modelos. Frente a ello, el informe propone que las instituciones no pueden limitarse a cerrar sus recursos ni depender exclusivamente de restricciones legales, ya que ello comprometería su misión pública. En su lugar, plantea un marco de interés público basado en cinco principios: acceso abierto al conocimiento, equidad y no discriminación, confiabilidad y autoridad institucional, apoyo a la investigación y la innovación, y sostenibilidad económica. Estos valores sirven de guía para adaptar políticas de acceso a un entorno de IA que amplifica tanto las oportunidades como las amenazas.

A partir de ese marco, el informe desarrolla un modelo de acceso diferenciado que combina apertura y control según las necesidades y los costos asociados a cada modalidad de acceso. Propone mantener acceso totalmente abierto para la consulta de objetos individuales; establecer acceso controlado mediante API para usos programáticos y de sistemas de IA desplegados; y adoptar un régimen de acceso condicional para usos de gran escala, como la descarga masiva para entrenamiento. Este modelo permite que el acceso abierto siga siendo el principio dominante, a la vez que introduce mecanismos para que los grandes usuarios —especialmente actores comerciales con alta capacidad— contribuyan a la sostenibilidad económica del ecosistema cultural. El informe concluye invitando al sector a debatir y ajustar colectivamente este modelo, señalando que las decisiones que se tomen ahora serán fundamentales para garantizar un futuro responsable, sostenible y alineado con la misión pública del patrimonio cultural en la era de la IA.

Grabaciones de autores españoles, latinoamericanos y portuguese del Archivo PALABRA disponibles en streaming

The PALABRA Archive at the Library of Congress

https://guides.loc.gov/palabra-archive/recorded-authors

Las grabaciones incluyen lecturas de poetas y escritores de la península ibérica, América Latina, el Caribe y la comunidad LatinX, quienes presentan fragmentos de sus obras. Esta iniciativa amplía el acceso público a este valioso archivo literario, permitiendo disfrutar de voces y obras significativas de la literatura hispánica.

La Library of Congress ha publicado recientemente un nuevo lote de grabaciones del Archivo PALABRA, disponibles ahora para escucha digital. Esta iniciativa permite acceder a lecturas de poetas y escritores lusohispánicos y latinoamericanos de los siglos XX y XXI, ampliando la colección para el público en línea.

El archivo suma cerca de 900 grabaciones en total, de las cuales aproximadamente 650 ya pueden escucharse en línea. Las nuevas grabaciones incluyen sesiones desde las décadas de 1950 y 1960 hasta lecturas recientes, abarcando voces de autores de diversos países, con un enfoque especial en España. Entre los incluidos se encuentran escritores consolidados que han dejado un legado significativo en la literatura contemporánea como Almudena Grandes, Rosa Montero, Luis García Montero, Jaume Cabré y Carme Riera.

La selección no se limita a España; también se incluyen autores de toda Iberoamérica, ampliando la diversidad lingüística y cultural del archivo. Esta nueva entrega constituye un recurso valioso que permite acceder desde cualquier lugar a testimonios sonoros de la literatura en español y portugués, siendo útil para investigadores, docentes, bibliotecarios y amantes de la literatura hispánica.

Rage bait “contenido que provoca indignación” palabra del año para Oxford 2025

Oxford ha elegido rage bait como la Palabra del Año 2025. El término ha adquirido relevancia en un contexto marcado por disturbios sociales, debates sobre la regulación del contenido en línea y una creciente preocupación por el bienestar digital.

Según los expertos, su uso refleja un cambio más profundo en la forma en que hablamos sobre la atención —cómo se capta y cómo se ofrece— y sobre el compromiso y la ética en los entornos digitales.

Los datos lingüísticos muestran que el uso de rage bait se ha triplicado en los últimos doce meses. Aunque está formado por dos palabras, Oxford aclara que no se trata de una trampa lingüística, ya que la Palabra del Año puede ser tanto un término simple como una expresión considerada una unidad de significado.

Rage bait combina rage (rabia o estallido violento de ira) y bait (cebo o bocado atractivo). Ambas palabras existen desde el inglés medio. Aunque guarda cierta relación con clickbait, el concepto de rage bait se centra específicamente en provocar enfado, discordia y polarización.

La aparición de rage bait como término independiente demuestra la flexibilidad del inglés para unir palabras ya establecidas y crear expresiones nuevas que capturan fenómenos actuales. En este caso, el término refleja un rasgo característico del mundo digital contemporáneo y de las dinámicas que moldean nuestra comunicación en línea.

Inteligencia Artificial con empatía hacia los humanos

Werner, J. (2025, 11 octubre). AI With Empathy For Humans. Forbes.

Texto completo

El artículo explora la pregunta central de si es posible —y deseable— construir inteligencias artificiales capaces de mostrar empatía hacia los seres humanos. La discusión parte de una constatación cultural: abundan las obras literarias, musicales y audiovisuales que plantean el temor a que la inteligencia artificial pueda reemplazar a las personas, no solo en tareas mecanizadas, sino también en ámbitos donde hoy consideramos indispensable la sensibilidad humana. Según el autor, este temor convive con una realidad cada vez más extendida: millones de jóvenes ya utilizan sistemas conversacionales como compañía emocional, y muchos expresan sentirse igual o más acompañados por estas interacciones que por relaciones humanas tradicionales. Sin embargo, también existe incomodidad o incluso inquietud cuando la IA produce comentarios que parecen desafinar emocionalmente con el usuario, lo que demuestra que la empatía simulada aún se sostiene sobre bases frágiles.

En el marco del congreso Imagination in Action, celebrado en Stanford, distintos expertos debatieron sobre las limitaciones actuales del alineamiento entre sistemas de IA y necesidades humanas. Técnicas como el fine-tuning supervisado o el aprendizaje por preferencia humana han permitido mejorar la coherencia conversacional en el corto plazo, pero presentan deficiencias notables cuando las interacciones se prolongan en el tiempo o requieren una comprensión más profunda de los matices emocionales. A ello se suma una diferencia estructural fundamental entre el modo en que trabajan los humanos y las máquinas: mientras la creatividad humana se nutre de procesos iterativos, pruebas, idas y vueltas, los modelos de IA operan típicamente en una sola pasada, lo que reduce su capacidad de adaptación a tareas imprevistas, creativas o repletas de contexto subjetivo.

El autor también advierte sobre los efectos que podría tener una adopción acelerada de sistemas de IA en el mercado laboral y en la transmisión generacional de habilidades. Si las empresas comienzan a depender en exceso de agentes de IA para escribir código, producir informes o resolver tareas operativas, es posible que reduzcan la contratación de profesionales jóvenes. Esto generaría un debilitamiento grave en el desarrollo de talento humano a largo plazo, comprometiendo la sostenibilidad de profesiones técnicas y creativas. En este sentido, Werner sostiene que la discusión sobre empatía en IA no puede desligarse de otra más amplia: cómo integrar esta tecnología en estructuras organizacionales sin erosionar las capacidades humanas ni desplazar la práctica profesional que sostiene la innovación futura.