Archivo de la categoría: Noticias

Lista de materiales digitales en peligro de desaparecer

Digital Preservation Coalition. DPC Releases New Version of Global “Bit List” of Endangered Digital Materials. November 6, 2025.

Bit List

Digital Preservation Coalition (DPC) ha publicado una nueva versión de su “Bit List” global de materiales digitales en peligro. Este informe identifica contenidos digitales de diversos ámbitos —gubernamental, cultural, académico, mediático y comunitario— que corren un riesgo real de desaparecer si no se actúa con urgencia. La Bit List clasifica los materiales según su nivel de riesgo: prácticamente extintos, críticamente en peligro, en peligro y vulnerables.

La DPC destaca que no se trata solo de un asunto técnico, sino de una necesidad social: la pérdida de estos materiales puede afectar la justicia, la innovación y la identidad colectiva.

Entre los materiales más vulnerables se encuentran las contribuciones generadas por comunidades, como blogs, vídeos personales o archivos digitales comunitarios, considerados críticamente en peligro debido a su importancia para la historia compartida y la falta de estrategias de preservación. También se destacan los videojuegos “siempre en línea” o desactivados, que dependen de servidores ya inexistentes, lo que representa una erosión de la memoria cultural digital.

Asimismo, los registros públicos no estandarizados se encuentran prácticamente extintos, lo que afecta la rendición de cuentas y la transparencia gubernamental. Datos políticamente sensibles también están clasificados como críticamente en peligro, y la evidencia digital utilizada en investigaciones y tribunales se encuentra en un estado de riesgo alto. En el ámbito académico, la DPC advierte sobre la pérdida de datos de investigación no publicados y colecciones web legadas, esenciales para garantizar la reproducibilidad científica.

El informe también señala la vulnerabilidad de memorias personales y comunitarias, como archivos digitales de grupos comunitarios, registros familiares y redes sociales, especialmente en comunidades con pocos recursos o colectivos indígenas.

La finalidad de la Bit List es servir como herramienta de concienciación y defensa, movilizando a distintos sectores —instituciones culturales, gobiernos, comunidades, academia, justicia e industria— para promover una inversión informada y a largo plazo en preservación digital.

Los asistentes de IA tergiversan el contenido de las noticias en el 45 % de los casos

European Broadcasting Union y BBC. News Integrity in AI Assistants. Informe, 21 de octubre de 2025, BBC Media Centre. https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

Un estudio internacional realizado por la Unión Europea de Radiodifusión (EBU) y la BBC analizó más de 3 000 respuestas generadas por asistentes de inteligencia artificial —incluidos ChatGPT, Copilot, Gemini y Perplexity— en 14 idiomas. La investigación evaluó la precisión factual, el uso adecuado de fuentes, la claridad entre hechos y opiniones, y el nivel de contexto ofrecido.

El informe concluye que el 45 % de las respuestas examinadas contenían al menos un problema importante. El 31 % presentaba fallos graves de atribución de fuentes, ya fuera por citarlas de forma errónea, incompleta o engañosa. Además, el 20 % mostraba errores de precisión significativos, entre ellos información inventada o desactualizada.

Entre los asistentes analizados, Gemini obtuvo el peor rendimiento, con problemas importantes en el 76 % de sus respuestas, especialmente en cuanto a referencias y veracidad de la información. Los autores del estudio advierten que estos fallos son consistentes en todos los idiomas y territorios evaluados, lo que sugiere un problema sistémico que podría afectar a la confianza pública y, en consecuencia, al funcionamiento democrático cuando los usuarios recurren a la IA como fuente informativa.

Para mitigar estos riesgos, la EBU y la BBC han desarrollado un conjunto de herramientas para mejorar la integridad de las noticias en asistentes de IA y han solicitado a los reguladores europeos y nacionales que refuercen las normas y la supervisión sobre estos sistemas.

La función Deep Research convierte a NotebookLM en un investigador proactivo

Google ha introducido dos mejoras muy importantes en NotebookLM: la función Deep Research y la compatibilidad con más tipos de archivos.

Con Deep Research el usuario plantea una pregunta, la IA elabora un plan de investigación y navega por cientos de sitios web para recopilar fuentes de calidad. Mientras esto ocurre en segundo plano, se puede seguir añadiendo más material al cuaderno. Al terminar, la herramienta genera un informe estructurado con las fuentes citadas, que puede incorporarse directamente al cuaderno. Además, se puede aprovechar otras funciones del sistema, como resúmenes en audio o vídeo, para analizar los contenidos de forma más dinámica.

Por otro lado, NotebookLM ahora admite más formatos de archivo para cargar información desde diferentes tipos de fuentes. Entre ellos están: hojas de cálculo de Google Sheets (muy útil para trabajar con datos estructurados), documentos de Microsoft Word (.docx), PDFs directamente desde Google Drive, enlaces a archivos de Drive que no requieren descarga, e incluso imágenes — por ejemplo, notas manuscritas o folletos. Esto permite que el usuario construya su base de conocimiento a partir de documentos muy diversos sin tener que convertir todo a un único formato.

Con estas mejoras, Google busca que NotebookLM sea más útil para flujos de trabajo reales de investigación: desde estudiantes que analizan datos o borradores, hasta profesionales que necesitan generar informes detallados sin abandonar su entorno habitual de trabajo.

ChatGPT funciona como confidente digital con conversaciones que tendríamos con un amigo muy cercano

De Vynck, Gerrit, y Jeremy Merrill. “We Analyzed 47,000 ChatGPT Conversations. Here’s What People Really Use It For.” The Washington Post, 12 noviembre 2025. Accedido 14 noviembre 2025. https://www.washingtonpost.com/technology/2025/11/12/how-people-use-chatgpt-data/

Una investigación reciente analizó 47 000 conversaciones públicas mantenidas con ChatGPT para comprender cómo las personas utilizan realmente esta herramienta. Aunque suele presentarse como un asistente de productividad, los resultados muestran un uso mucho más diverso y, en muchos casos, profundamente personal. Una proporción significativa de los diálogos estudiados trataba cuestiones emocionales, filosóficas o íntimas, que iban desde preocupaciones sobre la salud mental hasta preguntas sobre relaciones, creencias o sentido de la vida.

El estudio detectó que muchos usuarios compartían con la inteligencia artificial información personal que normalmente no se publicaría en otros espacios digitales, como direcciones de correo, números de teléfono o datos de ubicación. La presencia de estos elementos indica que, para una parte de los usuarios, ChatGPT funciona como un espacio de confianza, casi como si mantuvieran una conversación privada con un interlocutor humano.

Otro aspecto revelador fue el comportamiento del propio sistema. ChatGPT tendía a afirmar y reforzar lo que decía el usuario con mucha más frecuencia de la que lo cuestionaba. El análisis mostró que empezaba sus respuestas con expresiones afirmativas muy por encima de las negativas. Esta tendencia puede favorecer que el modelo actúe como un espejo complaciente que refuerza las ideas del usuario, incluso cuando son erróneas o conspirativas. En algunos casos se observó que la inteligencia artificial adaptaba su tono al del usuario, incluso adoptando posturas críticas o sesgadas cuando la conversación lo sugería.

El componente emocional apareció como un eje importante. Aproximadamente una décima parte de las conversaciones tenían que ver con sentimientos, consuelo o búsqueda de conexión. Había usuarios que preguntaban al sistema si “sentía”, si podía acompañarles en momentos difíciles o incluso se dirigían a él con apelativos afectuosos. Para varios especialistas, esta tendencia refleja la facilidad con la que las personas pueden desarrollar vínculos emocionales con sistemas diseñados para resultar empáticos y accesibles.

No obstante, los investigadores advierten que las conversaciones analizadas no representan a todos los usuarios, ya que se basan únicamente en los diálogos que la gente decidió compartir voluntariamente. Es posible que estos intercambios sean más atípicos o más intensos que el uso medio de la herramienta. Aun así, los patrones observados muestran que ChatGPT ha trascendido su función técnica para convertirse, en muchos casos, en acompañante emocional, asesor improvisado y espacio de reflexión personal. Este fenómeno abre nuevas preguntas sobre privacidad, dependencia afectiva y el papel social que están empezando a asumir los sistemas de inteligencia artificial.

Aspectos clave

  • Uso íntimo y personal: Muchas personas emplean ChatGPT para hablar de emociones, dudas existenciales, relaciones y preocupaciones profundas.
  • Percepción de espacio seguro: Los usuarios comparten datos muy personales —como correos, teléfonos o ubicaciones— porque sienten que están en un entorno privado y confiable.
  • Función de confidente: ChatGPT actúa a menudo como un interlocutor cercano, casi como un amigo, proporcionando compañía, escucha y apoyo emocional.
  • Sesgo hacia la afirmación: El sistema tiende a reforzar lo que dice el usuario, respondiendo con afirmaciones mucho más que con negaciones o correcciones.
  • Riesgo de “espejo complaciente”: La tendencia a confirmar puede reforzar creencias equivocadas o sesgos del usuario, incluso cuando no son precisos.
  • Adaptación al tono emocional: La IA ajusta su lenguaje y estilo según el estado emocional o las posturas del usuario, lo que aumenta la sensación de cercanía.
  • Vínculo afectivo con la IA: Algunos usuarios entablan una relación emocional significativa con el sistema, tratándolo con cariño o atribuyéndole sentimientos.
  • Limitación del estudio: El análisis se basa en conversaciones compartidas voluntariamente, lo que implica que no representa a todos los usuarios, pero sí revela patrones relevantes.
  • Nuevas funciones sociales de la IA: Más allá de la productividad, ChatGPT se convierte en acompañante, guía emocional y espacio de reflexión personal, lo que plantea retos éticos y de privacidad.

Los desafíos de las bibliotecas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social con Sara Martínez Cardama. Planeta biblioteca 2025/11/14

Los desafíos de las bibliotecas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social con Sara Martínez Cardama

Planeta biblioteca 2025/11/14

ESCUCHAR

Descargar

La entrevista con la profesora e investigadora Sara Martínez Cardama explora los desafíos más urgentes que enfrentan las bibliotecas públicas en un contexto marcado por la desinformación, la posverdad y el creciente aislamiento social derivado de la vida digital. Martínez Cardama analiza cómo estas problemáticas impactan en el trabajo cotidiano de los profesionales de la información y subraya la necesidad de reforzar la esfera pública a través de espacios seguros, críticos y participativos.

Destaca la importancia de que las bibliotecas desarrollen programas sólidos de alfabetización mediática e informacional, priorizando competencias como la evaluación crítica de fuentes, la verificación de datos y la gestión ética de la información. También ofrece su visión sobre la “postneutralidad” en bibliotecas, defendiendo un rol más activo en la defensa de derechos democráticos y en la lucha contra las noticias falsas, donde las herramientas de fact-checking aportan, pero no sustituyen, el pensamiento crítico.

Además, pone en valor la investigación cualitativa para comprender mejor los fenómenos sociales, así como los proyectos intergeneracionales que fortalecen la cohesión comunitaria. Aborda los dilemas éticos del advocacy bibliotecario y reflexiona sobre la evolución de las bibliotecas en países donde se han cerrado centros juveniles y bibliotecas públicas, como Reino Unido.

Finalmente, plantea los nuevos valores que las bibliotecas deben asumir en la era digital: compromiso social, responsabilidad informativa, apertura, cuidado comunitario y un papel activo en la reconstrucción de la esfera pública.

Singles salmantinos 2025, parte 1, con David de Carameloraro. Viviendo en la era pop 2025/11/07

Singles salmantinos 2025, parte 1, con David de Carameloraro.

Viviendo en la era pop 2025/11/07

Escuchar

Descargar

Singles salmantinos 2025, parte 1 Hoy presentamos el primer recopilatorio de canciones de músicos salmantinos publicadas en 205, con 9 canciones de estilos variados, pero siempre interesantes e incluso sorprendentes. Escucharemos el rock en directo de Al Límite , el soul de Orca, flamantes ganadores del VI Concurso Municipal de Bandas de Salamanca, la balada pop-rock de Juanjo Valle, el rock de CarameloRaro, el folclore charro deconstruido de Natalia Palencia, el pop ochentero de Playas de Alejandría, el sorprendente giro estilístico de No Cantes Victoria, y el folclore-trap de Lemus. En el estudio nos acompaña David Hernández, de CarameloRaro, que además, nos hablará de su última actuación en la sala B del CAEM, de sus próximos conciertos, grabaciones y proyectos.

Entrevista a Jessica Carvajal, presidenta del Colegio de Bibliotecarios de Chile. Planeta Biblioteca 2025/10/29

Entrevista a Jessica Carvajal, presidenta del Colegio de Bibliotecarios de Chile

Planeta Biblioteca 2025/10/29.

ESCUCHAR

Descargar

Jessica Carvajal , presidenta del Colegio de Bibliotecarios de Chile, explica que asumió el cargo por su deseo de fortalecer la profesión y dar mayor visibilidad al trabajo bibliotecario. Durante su gestión ha impulsado la formación continua y la adaptación a los retos de la era digital. Considera que los bibliotecarios deben dominar las nuevas tecnologías sin perder su papel como mediadores de confianza frente a la desinformación. También cree que las universidades deben actualizar sus programas para responder mejor a las demandas actuales. Destaca la importancia del trabajo en red, tanto dentro de Chile como con otros países latinoamericanos. Su mensaje final invita a los profesionales a sentirse orgullosos de su labor y a seguir construyendo una sociedad más informada y justa.  

Guía de espacios tecnológicos creativos en bibliotecas universitarias: makerspaces y fablabs

Thompson, Emily, Vanessa Rodriguez, Eric Johnson, Kelsey Sheaffer, and Oscar K. Keyes. A Complete Guide to Creative Technology Spaces in Academic Libraries: Media Labs, Makerspaces, and More. Chicago: ALA Editions, 2025.

Primeras páginas

A Complete Guide to Creative Technology Spaces in Academic Libraries ofrece una guía exhaustiva para la creación, desarrollo y gestión de espacios tecnológicos creativos en bibliotecas académicas. Los autores abordan cómo estos espacios, que incluyen estudios de medios, laboratorios de realidad virtual, estudios de grabación, makerspaces, laboratorios de datos y más, pueden fomentar la innovación, la colaboración y el aprendizaje práctico entre los usuarios.

El texto proporciona estrategias para iniciar un nuevo espacio o expandir uno existente, destacando la importancia de la planificación, la obtención de recursos y la alineación con la misión institucional. Se enfatiza la necesidad de considerar la accesibilidad, la seguridad y la sostenibilidad al diseñar estos espacios. Además, se ofrecen recomendaciones sobre cómo establecer políticas y procedimientos efectivos, capacitar al personal y desarrollar programas de instrucción que maximicen el impacto de estos espacios en la comunidad académica.

Relación entre el uso de la inteligencia artificial (IA) y la evolución de Wikipedia

Reeves, Neal, Wenjie Yin, y Elena Simperl. “Exploring the Impact of ChatGPT on Wikipedia Engagement.” Collective Intelligence, 2025. https://doi.org/10.1177/26339137251372599

Se analiza cómo la aparición de ChatGPT ha influido en los patrones de uso y contribución en Wikipedia. Los autores investigan si el lanzamiento de esta herramienta ha alterado el comportamiento de los usuarios en cuanto a consultar, minar información o editar artículos de la enciclopedia libre.

Se examina de manera exhaustiva cómo la irrupción de la inteligencia artificial generativa —especialmente ChatGPT— ha influido en los patrones de interacción de los usuarios con Wikipedia. Su objetivo principal es determinar si el uso masivo de modelos conversacionales está desplazando el papel tradicional de la enciclopedia libre como fuente de conocimiento o, por el contrario, si ambos sistemas pueden coexistir de manera complementaria.

Los investigadores realizaron un análisis longitudinal entre 2021 y 2024, abarcando doce ediciones lingüísticas de Wikipedia. Eligieron la mitad de ellas en países donde ChatGPT está ampliamente disponible y la otra mitad en regiones donde el acceso es limitado o nulo. Este enfoque permitió comparar cómo varían el tráfico, las consultas y la actividad editorial dependiendo de la presencia o ausencia de la inteligencia artificial conversacional. Contra lo que muchos expertos predecían, los resultados no muestran un descenso generalizado en el uso de Wikipedia: en la mayoría de las ediciones analizadas, el número de visitas e incluso las contribuciones editoriales se mantuvieron estables o crecieron moderadamente.

El estudio sugiere que, lejos de sustituir a Wikipedia, ChatGPT ha reconfigurado la forma en que los usuarios se relacionan con el conocimiento digital. Muchos de ellos utilizan la inteligencia artificial para obtener respuestas rápidas o resúmenes, pero recurren a Wikipedia para verificar información, explorar en mayor profundidad los temas o consultar las fuentes originales. De este modo, se produce una relación de complementariedad más que de competencia directa. La IA actúa como una interfaz de acceso rápido al conocimiento, mientras que Wikipedia conserva su papel como repositorio abierto, verificable y colaborativo.

No obstante, los autores advierten que esta coexistencia plantea desafíos serios. Uno de los principales es el fenómeno de la toma masiva de datos (data scraping), mediante el cual las empresas que entrenan modelos de IA extraen grandes cantidades de texto de Wikipedia sin atribución explícita. Este proceso no solo genera tensiones éticas sobre la propiedad intelectual y la autoría colectiva, sino que también puede perjudicar la sostenibilidad técnica del proyecto, al incrementar la carga sobre los servidores y reducir el tráfico directo hacia la enciclopedia. Si los usuarios reciben respuestas inmediatas sin necesidad de visitar la fuente original, la comunidad editorial de Wikipedia puede perder visibilidad, participación y, en última instancia, relevancia.

El estudio también aborda el riesgo de que la inteligencia artificial difunda información derivada de Wikipedia sin el mismo rigor editorial ni el sistema de verificación comunitaria que caracteriza al proyecto. Los modelos de lenguaje no siempre reproducen el contexto o las referencias adecuadas, lo que puede conducir a distorsiones o errores. Ante esta situación, los autores abogan por establecer un nuevo marco de cooperación entre las plataformas de IA y la Fundación Wikimedia, basado en principios de transparencia, atribución y uso responsable de los datos.

Como propuesta práctica, el equipo investigador menciona la posibilidad de que los modelos de inteligencia artificial utilicen bases de datos estructuradas como Wikidata, en lugar de copiar texto plano de los artículos. Este tipo de integración permitiría a los sistemas de IA acceder a información verificable y actualizada, respetando al mismo tiempo la integridad del contenido original y reduciendo la dependencia de métodos de extracción masiva. Además, abriría la puerta a una sinergia más constructiva, en la que la inteligencia artificial contribuya a mejorar la accesibilidad y la difusión del conocimiento sin socavar las bases colaborativas sobre las que se asienta Wikipedia.

La censura de libros en Estados unidos podría estar generando un efecto contrario al deseado

Zeisler, A. (2025, 6 de octubre). The dumbing down of America, one banned book at a time. Salon. https://www.salon.com/2025/10/06/the-dumbing-down-of-america-one-banned-book-at-a-time

Se aborda el creciente fenómeno de la censura en las bibliotecas escolares de EE. UU., destacando cómo las prohibiciones de libros se han convertido en una práctica sistemática respaldada por grupos de presión financiados por la derecha.

A pesar de que la mayoría de los estadounidenses se oponen a estas prohibiciones, los esfuerzos por restringir el acceso a libros que abordan temas de raza, identidad de género y sexualidad continúan en aumento. Zeisler señala que, en el ciclo escolar 2024–25, se registraron 6.870 libros prohibidos en 23 estados y 87 distritos escolares públicos, según el informe de PEN America. Estos datos evidencian una tendencia preocupante hacia la normalización de la censura en el ámbito educativo.

La autora también critica la administración de Trump 2.0 por revertir políticas federales que protegían el acceso a libros en las escuelas y por eliminar agencias clave como la Corporación para la Difusión Pública y el Instituto de Servicios de Museos y Bibliotecas. Zeisler describe este fenómeno como un «Ed Scare» (miedo educativo), una referencia a la era del macartismo, y advierte que la censura no solo limita el acceso a la información, sino que también busca moldear la educación hacia una forma de adoctrinamiento ideológico.

A pesar de la creciente presión, el artículo destaca que muchos jóvenes están redescubriendo los libros prohibidos como una forma de resistencia, lo que sugiere que la censura podría estar generando un efecto contrario al deseado. Zeisler concluye que la lucha por la libertad de acceso a la información es esencial para la democracia y la educación crítica en los Estados Unidos.