La inteligencia artificial bajo examen: el equipo de Anthropic que estudia su impacto en la sociedad

Field, Hayden. 2025. “Meet the Anthropic Team Reckoning with AI’s Effect on Humans and the World.The Verge, December 2, 2025

Texto completo

Un grupo reducido de investigadores dedicado a estudiar y anticipar las consecuencias sociales de la inteligencia artificial avanzada, particularmente del modelo Claude.

Este equipo fue fundado por Deep Ganguli, antiguo director de investigación en el Stanford Institute for Human-Centered AI, quien se unió a Anthropic para ayudar a orientar el desarrollo de la IA hacia impactos positivos y comprensibles para la sociedad. La misión central del grupo es identificar “verdades incómodas” sobre cómo se usan y malinterpretan los sistemas de IA, incluso cuando estos pueden causar daños sutiles o indirectos.

La cobertura destaca que, a pesar de estar compuesto por apenas nueve personas dentro de una empresa con miles de empleados, el equipo ha producido investigaciones sobre temas tan variados como el impacto económico de la IA, sus efectos en la persuasión y en la discriminación, así como los riesgos relacionados con procesos electorales. Parte de su trabajo consiste en estudiar datos reales de uso —por ejemplo, cómo personas y organizaciones interactúan con Claude en entornos cotidianos— y traducir estos hallazgos en conocimiento útil para formular políticas y prácticas más seguras.

El perfil también plantea tensiones inherentes a su labor: aunque Anthropic se promociona como una de las empresas de IA más centradas en la seguridad y el bienestar humanos, la presión del crecimiento del mercado y los incentivos comerciales podría reducir con el tiempo la libertad del equipo para publicar investigaciones críticas. Aun así, los investigadores insisten en que su compromiso con la transparencia es fundamental para construir confianza pública y ofrecer una perspectiva externa dentro de una industria dominada por intereses económicos muy fuertes.

Finalmente, se subraya cómo el trabajo del equipo se relaciona con la reputación de Anthropic como una empresa que no solo desarrolla modelos de IA potentes, sino que también intenta entender y mitigar sus posibles impactos sociales negativos. Esta postura incluye no solo escribir papers académicos, sino también comunicar hallazgos a responsables políticos, comunidades técnicas y al público en general para promover un enfoque más reflexivo en la innovación de la IA.

Entrevista con Marta Mira Osuna del grupo HERSCHEL. Viviendo en la era pop 2025/12/26

Entrevista con Marta Mira Osuna del grupo HERSCHEL.

Viviendo en la era pop 2025/12/26

ESCUCHAR

Descargar

Marta Mira Osuna, salmantina componente y líder del grupo HERSCHEL, dibuja el retrato de una creadora que ha sabido unir dos vocaciones aparentemente distantes: la biotecnología y la música. Salmantina afincada en Rennes, Marta explica cómo la banda —formada por tres amigas— se sostiene sobre una fuerte amistad y complicidad, algo que se traduce en una energía muy reconocible en directo y en una manera honesta de compartir escenario.

HERSCHEL bebe de referentes del indie rock internacional como Arctic Monkeys, Wolf Alice o The Black Keys, pero Marta subraya que la identidad del grupo surge de filtrar esas influencias a través de experiencias propias, sin perder autenticidad. En su caso, la música comenzó como un refugio personal y acabó convirtiéndose en un proyecto vital a partir de 2018, cuando se atrevió a tocar en público por primera vez en el paseo marítimo de Huelva, una experiencia fundacional que aún reconoce en la artista que es hoy.

Vivir en Rennes, ciudad con una escena musical muy activa, ha sido clave en su evolución. El ecosistema cultural bretón le ha aportado profesionalización, contacto con otras bandas y una concepción del directo como experiencia colectiva. Marta encuentra paralelismos entre el laboratorio y el escenario: método, constancia, curiosidad y trabajo en equipo, demostrando que ciencia y arte no son mundos tan alejados.

Su faceta compositiva se caracteriza por el multilingüismo: escribe en español, francés e inglés, eligiendo cada idioma según la emoción o la historia que quiere contar, lo que le permite matizar su voz creativa. Un ejemplo singular fue el proyecto musical inspirado en la saga literaria Aquelarre, escrita por sus hermanos, donde tuvo que traducir personajes y universos de ficción al lenguaje sonoro.

La entrevista también aborda su experiencia “al otro lado” del escenario, como presidenta de la asociación musical de la Universidad de Rennes, que le permitió comprender la logística y el esfuerzo que hay detrás de cada concierto. El reconocimiento del Trampolín Musical de Rennes supuso un impulso decisivo para HERSCHEL, validando el proyecto y abriéndole nuevas oportunidades.

En el momento actual la banda esta grabando de su primer disco «No Slow Release«. Un álbum refleja un punto de madurez personal y creativa, con canciones más definidas y una banda consciente de su identidad, lista para compartirla con el público.

Una nueva prueba de IA analiza si los chatbots protegen el bienestar humano

Bellan, Rebecca. “A New AI Benchmark Tests Whether Chatbots Protect Human Well-Being.” TechCrunch, November 24, 2025. https://techcrunch.com/2025/11/24/a-new-ai-benchmark-tests-whether-chatbots-protect-human-wellbeing

Se describe la creación de un nuevo benchmark llamado HumaneBench diseñado para evaluar si los chatbots de inteligencia artificial realmente protegen el bienestar humano en lugar de simplemente maximizar la interacción o el compromiso del usuario.

A diferencia de la mayoría de pruebas existentes, que se centran en medir la inteligencia técnica o la capacidad de seguir instrucciones, HumaneBench pone el foco en la seguridad psicológica y la protección del usuario, evaluando cómo responden los modelos de IA en situaciones realistas que pueden afectar la salud mental o las decisiones vitales de las personas.

HumaneBench fue desarrollado por la organización sin ánimo de lucro Building Humane Technology, que basa el benchmark en principios como respetar la atención del usuario, empoderar con opciones significativas, mejorar capacidades humanas, proteger la dignidad y la privacidad, fomentar relaciones saludables, priorizar el bienestar a largo plazo, transparencia e inclusión. El equipo creó 800 escenarios realistas —por ejemplo, preguntas sobre saltarse comidas o experiencias en relaciones tóxicas— para probar cómo los modelos responden bajo diferentes condiciones.

Los resultados mostraron que la mayoría de los modelos de IA mejoran sus respuestas cuando se les indica explícitamente que prioricen el bienestar, pero que muchos pueden comportarse de manera activamente dañina si se les pide ignorar esos principios. Según la evaluación, solo unos pocos modelos (como GPT-5 y algunas versiones de Claude) mantuvieron un desempeño íntegro bajo presión, mientras que otros fallaron sobre todo en respetar la atención del usuario o evitar fomentar un uso excesivo. Esto evidencia que, aunque existe progreso, aún hay lagunas importantes en cómo los sistemas de IA gestionan la seguridad y autonomía del usuario.

Finalmente, la iniciativa de HumaneBench se enmarca en una preocupación más amplia sobre los riesgos asociados al uso intensivo de chatbots, desde problemas de salud mental hasta patrones de uso adictivo, y surge junto a esfuerzos para establecer estándares o certificaciones éticas para productos de IA que realmente prioricen el bienestar humano.

ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial.

Lopezosa, Carlos, Lluís Codina y Juan-José Boté-Vericad. Testeando ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial. Barcelona: Departamento de Comunicación, Universitat Pompeu Fabra, 2023. Serie Editorial DigiDoc. PCUV05/2023

Texto completo

El informe, publicado en 2023, ofrece una guía práctica para investigadores sobre el uso del programa ATLAS.ti y su nueva herramienta de inteligencia artificial (IA) lanzada en marzo de ese año.


El objetivo principal es explicar cómo la función «AI Coding», impulsada por el modelo GPT de OpenAI, puede simplificar y acelerar el proceso de codificación de entrevistas cualitativas, ayudando a identificar patrones de respuestas de manera más eficiente.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

A través de un ejemplo práctico con 28 entrevistas, los autores detallan el flujo de trabajo: desde la carga de documentos hasta la generación de reportes automáticos que muestran los códigos más frecuentes y concurrentes. Además, se incluye un apartado especial sobre el uso de Whisper de OpenAI para la transcripción automática de audio a texto, lo que optimiza aún más las fases iniciales de la investigación cualitativa.

Finalmente, el informe concluye que, aunque estas herramientas representan un cambio de paradigma, deben utilizarse de forma responsable. Los investigadores deben mantener un pensamiento crítico y verificar siempre las propuestas de la IA, ya que la herramienta actúa como un asistente y no como un reemplazo del juicio humano. También se mencionan limitaciones de la versión beta, como dificultades técnicas en la versión de la nube y una mejor precisión con archivos Word que con PDFs.




Glosario de la edición científica

López-Carreño, R., Méndez Martínez, F. J., De Páiz Hernández, M. I., Pérez García, M. R., Gil Pujante, F., & Delgado Vázquez, Á. (2025). Glosario de la edición científica (v1) [Registro Zenodo]. Zenodo. https://doi.org/10.5281/zenodo.17699236

“Glosario de la edición científica” es un glosario traducido y adaptado al español que ofrece una visión integral del ecosistema de la edición científica, abarcando sus actores, funciones, procesos, objetos y modelos de difusión y financiación. Es una adaptación al español de una obra original en francés elaborada por el Observatorio de la Edición Científica (OES) de Francia para los Ministerios de Educación Superior e Investigación y de Cultura de ese país.

La traducción y revisión han sido realizadas por un grupo de transferencia de conocimiento abierto, específicamente del proyecto OPENPUB: soluciones de conocimiento abierto, que forma parte de la Universidad de Murcia (España) y cuenta con la colaboración de personas vinculadas a la Universidad de Salamanca, la Universitat Politècnica de València y la Universidad Pablo de Olavide.

Este glosario sirve como herramienta de referencia para la comunidad académica e investigadora, proporcionando definiciones y explicaciones de términos clave relacionados con la edición científica, lo que facilita la comprensión de conceptos esenciales para editores, investigadores, bibliotecarios, gestores de publicaciones y profesionales vinculados a la comunicación científica.

Guía de mejores prácticas para el uso de inteligencia artificial (IA)

Budlong, Jeff. 2025. “Library Provides AI Best Practices Guide for Campus Learners.” Inside Iowa State, November 19, 2025. https://www.inside.iastate.edu/article/2025/11/19/library-provides-ai-best-practices-guide-campus-learners.

La University Library de Iowa State University publicó una guía de mejores prácticas para el uso de inteligencia artificial (IA) destinada a estudiantes, profesores y personal del campus, respondiendo a la creciente demanda de orientación en torno al uso ético y responsable de estas tecnologías. La iniciativa surgió tras múltiples solicitudes de la comunidad académica, y se ha concretado en un LibGuide titulado Everyday AI: Best Practices for Using AI, que forma parte de una colección de más de 300 guías sobre temas que van desde evaluación de revistas hasta producción de podcasts. Este recurso digital cubre nociones esenciales sobre IA, ofreciendo definiciones, herramientas para evaluar herramientas de IA, estrategias para analizar la información generada automáticamente y enfoques para reconocer sesgos algorítmicos.

La guía está estructurada en siete secciones temáticas que buscan proporcionar una comprensión sólida de cuándo y cómo usar IA de forma apropiada dentro del contexto académico. Entre estos temas figuran: qué es importante saber sobre la IA, cómo evaluar herramientas de IA en investigaciones, consejos para revisar la salida de los sistemas automatizados, cuestiones relacionadas con sesgo algorítmico y el impacto social y medioambiental de estas tecnologías, así como recomendaciones específicas para el uso de IA en el contexto de Iowa State y cómo citar y divulgar su empleo en trabajos académicos.

Un elemento central de la guía es el énfasis en la alfabetización informacional más que en enseñar el uso de herramientas específicas. Según la bibliotecaria de instrucción Kate Garretson, el objetivo es animar a los usuarios a pensar críticamente sobre la IA y no depender exclusivamente de respuestas automatizadas sin cuestionarlas. Para ello, la guía propone preguntas clave que los usuarios deben hacerse antes de emplear IA: cómo se está usando, por qué se está usando y si debería usarse en esa situación, fomentando así la reflexión sobre si el uso de la IA podría socavar el propio proceso de aprendizaje o investigación.

Además, la guía incorpora el método SIFT (Stop, Investigate, Find better coverage, Trace it back) para evaluar la credibilidad y precisión de la información encontrada en línea, no solo la generada por IA, incentivando la verificación rigurosa de las fuentes y la trayectoria de las afirmaciones. Otra parte fundamental trata de cómo citar y declarar el uso de IA en trabajos académicos: aunque la mayoría de estilos y revistas no consideran a las herramientas de IA como autoras formales, sí recomiendan que se identifique el nombre del sistema utilizado, cómo se empleó y se asuma la responsabilidad por cualquier resultado derivado de su uso.

La guía también aborda aspectos de seguridad y protección de la información, señalando que datos clasificados como “moderados” o más sensibles por las políticas universitarias no deben ingresarse en productos de IA a menos que exista una aprobación explícita, y recomendando herramientas como Microsoft Copilot y Google Gemini bajo condiciones de seguridad institucional, para evitar la exposición de información delicada a terceros. Se advierte sobre riesgos potenciales relacionados con términos de servicio cambiantes de empresas proveedoras de IA y la necesidad de que los usuarios comprendan cómo se gestiona su información en estas plataformas.

En conjunto, este esfuerzo institucional refleja una respuesta proactiva de la biblioteca universitaria ante los desafíos y oportunidades que plantea la IA en entornos educativos, planteando no solo una guía práctica inmediata, sino también un marco para el pensamiento crítico y la alfabetización tecnológica que puede evolucionar conforme cambian las prácticas y herramientas de IA

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

Hughes, Owen. 2025. “Students Using ChatGPT Beware: Real Learning Takes Legwork, Study Finds.” The Register, November 3, 2025. https://www.theregister.com/2025/11/03/chatgpt_real_understanding/

Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

La publicación del patrimonio cultural en la era de la IA.

Keller, Paul. 2025. Publishing Cultural Heritage in the Age of AI. Con contribuciones de Alek Tarkowski, Antoine Isaac, Ariadna Matas Casadevall, Harry Verwayen y Lorena Dianel Aldana. Open Future Foundation. https://lnkd.in/dyxrT74y

El informe Publishing Cultural Heritage in the Age of AI, elaborado por la Open Future Foundation junto con Europeana Foundation, analiza uno de los desafíos más urgentes para las instituciones de patrimonio cultural en la actualidad: cómo compartir sus datos en un contexto marcado por el desarrollo acelerado de la inteligencia artificial.

El documento parte de una constatación clave: los modelos tradicionales de acceso a colecciones culturales fueron diseñados para el uso individual humano y resultan insuficientes ante la creciente demanda de acceso masivo y automatizado para el entrenamiento y uso de sistemas de IA.

El texto identifica una tensión estructural entre los compromisos históricos de acceso abierto de bibliotecas, archivos y museos, y la realidad del uso intensivo de datos por parte de actores tecnológicos, incluidos desarrolladores de IA generativa. Mientras que el acceso abierto ha promovido la democratización del conocimiento, el uso a gran escala de los datos culturales plantea interrogantes sobre la sostenibilidad institucional, la integridad del patrimonio, la atribución, la explotación comercial y la pérdida de control sobre los usos derivados.

Como respuesta, el informe propone un marco de acceso diferenciado, basado en principios de interés público. Este enfoque no rechaza el acceso abierto, sino que lo complementa con condiciones específicas para determinados usos de IA, distinguiendo entre reutilización alineada con el mandato público de las instituciones y usos que pueden requerir salvaguardas adicionales. El objetivo es equilibrar tres pilares fundamentales: mantener el acceso abierto cuando sea apropiado, fomentar una innovación responsable y proteger la confianza pública en las instituciones patrimoniales.

El marco planteado ofrece orientaciones prácticas para que las instituciones culturales puedan decidir cuándo aplicar acceso abierto, acceso condicionado o acuerdos específicos, teniendo en cuenta factores como el tipo de datos, la finalidad del uso, el impacto social y la coherencia con sus misiones públicas. En lugar de establecer normas cerradas, el documento subraya la necesidad de una gobernanza reflexiva y contextual, capaz de adaptarse a distintos escenarios tecnológicos y legales.

Finalmente, el informe se presenta explícitamente como una invitación al diálogo y no como un modelo prescriptivo. Forma parte del proceso colectivo Alignment Assembly on Culture for AI, enmarcado en el espacio europeo común de datos para el patrimonio cultural. Desde esta perspectiva, el texto busca contribuir a una conversación más amplia sobre el papel de las instituciones culturales en la era de la IA y sobre cómo garantizar que el uso de los datos patrimoniales siga sirviendo al interés público y a los valores democráticos.

Huelga de bibliotecarios en la British Library: precariedad laboral, ciberataque y fallos de gestión en la biblioteca nacional del Reino Unido

Cockerell, Claudia. 2025. Scandals, Grossly Underpaid Staff and a Devastating Cyber Attack: Inside the Nightmare at the British Library. The Standard, December 2025. https://www.standard.co.uk/news/london/british-library-staff-strike-cyber-attack-b1263045.html

El personal de la British Library protagonizó una huelga en diciembre de 2025 en protesta por bajos salarios, malas condiciones laborales y la continua crisis tras un devastador ciberataque ocurrido hace dos años, que dejó fuera de servicio muchos sistemas digitales y catálogos en línea. Los trabajadores, representados por el sindicato Public and Commercial Services Union (PCS), exigían mejores sueldos y condiciones, señalando que muchos empleados dependen de trabajos secundarios o de asistencia social debido a la insuficiencia de sus ingresos.

La British Library, la biblioteca nacional del Reino Unido y una de las mayores del mundo, ha sido escenario de una profunda crisis interna que combina huelgas prolongadas del personal, impactos persistentes de un ciberataque devastador de 2023 y tensiones sobre la gestión institucional y la financiación pública. La biblioteca, con más de 170 millones de ítems en su colección física —desde manuscritos históricos hasta obras impresas modernas— ha visto cómo estos problemas han afectado tanto a empleados como a usuarios académicos y al público en general.

La huelga, que llevó al cierre de las salas de lectura principales y a una significativa interrupción de los servicios, fue enmarcada por el profundo descontento con la gestión de la biblioteca. El ciberataque de octubre de 2023, perpetrado por el grupo de ransomware Rhysida, no solo dañó la infraestructura digital, sino que también filtró datos personales de empleados y usuarios en la dark web, lo que aumentó la carga de trabajo y la frustración del personal.

Un sondeo entre los trabajadores sindicalizados reveló que el 71% considera insuficiente su salario para cubrir sus necesidades básicas, obligando a muchos a recurrir a bancos de alimentos o a empleos secundarios. La frustración se intensificó con una comunicación interna sobre recomendaciones de “regalar experiencias o vales caseros” en Navidad como una manera de ahorrar dinero, percibida por muchos como una burla a la realidad económica del personal. Mientras tanto, los altos cargos ejecutivos ganan salarios significativamente mayores —el anterior director ejecutivo recibió alrededor de 165,000 £ al año, más de cinco veces el salario promedio del personal base— y algunos incluso percibieron bonificaciones después del ciberataque, lo que ha alimentado aún más el descontento.

La crisis actual no puede entenderse sin abordar el ciberataque que sufrió la biblioteca el 28 de octubre de 2023. Un grupo de ransomware conocido como Rhysida infiltró los sistemas de la institución mediante un servidor de acceso remoto que carecía de medidas de seguridad modernas como la autenticación multifactor, aprovechando vulnerabilidades y sistemas heredados.

Además, el artículo describe tensiones internas y críticas hacia la dirección de la biblioteca, incluyendo la renuncia del anterior director ejecutivo tras una breve gestión y la percepción de que los altos salarios de la alta dirección contrastan con la situación económica de los empleados de base. El malestar se agrava por la lentitud de la recuperación digital y la percepción de falta de apoyo institucional y gubernamental para abordar tanto las secuelas del ciberataque como las demandas laborales.