Archivo de la categoría: Tecnologías de la información

Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Aquí tienes la traducción de los textos y globos de la imagen, organizada por paneles:

Panel 1 (Arriba a la izquierda)

  • Encabezado: La IA está creando revistas falsas, y los investigadores están pagando el precio.
  • En el robot: IA
  • Globo del robot: Mira esta investigación de la Revista de Socorro Internacional.

Panel 2 (Arriba a la derecha)

  • Encabezado: Las solicitudes generadas por IA para citas falsas inundan las bibliotecas.
  • Mujer: ¿Puedo conseguir este artículo?
  • Bibliotecario: Lo siento, no puedo encontrarlo…

Panel 3 (Centro a la izquierda)

  • Encabezado: Pasos a seguir:
    1. Usa fuentes oficiales.
    2. Verifica las citas de la IA.
    3. Divulga el uso de la IA.

Panel 4 y 5 (Centro derecha y abajo)

  • Encabezado: Las fuentes fabricadas por IA socavan la confianza y hacen perder el tiempo a los investigadores.

Herramientas de Inteligencia Artificial aplicadas a la catalogación de bibliotecas para el año 2025

El contenido se divide en seis categorías principales que abarcan desde sistemas integrados comerciales hasta soluciones personalizadas y experimentales, destacando sus características, casos de uso, ventajas y limitaciones.

En el ámbito de las grandes plataformas, se mencionan el Ex Libris Alma AI Metadata Assistant y las herramientas de Machine Learning de OCLC. La primera está enfocada en bibliotecas universitarias para sugerir metadatos enriquecidos, destacando por su integración fluida con sistemas actuales, aunque requiere una suscripción. La segunda utiliza aprendizaje automático para la resolución de entidades en catalogación digital, caracterizándose por ser de código abierto pero aún en etapa experimental.

Por otro lado, instituciones académicas y gubernamentales lideran proyectos como el de la Biblioteca del Congreso y Harvard, que explora la descripción computacional y su integración con BIBFRAME para informes abiertos. Paralelamente, Harvard ha desarrollado una herramienta basada en GPT para bibliotecarios de Asia Oriental, la cual facilita sugerencias de encabezamientos de materia (LCSH) y análisis de temas mediante embeddings multilingües.

Finalmente, la infografía destaca soluciones más flexibles como las Custom Power Apps y los Chatbots de IA de uso general. Las Power Apps están diseñadas para bibliotecas pequeñas y materiales en idiomas asiáticos (CJK), ofreciendo modelos entrenables a pesar de estar en fase beta. Por su parte, los chatbots genéricos se utilizan para el prototipado rápido y la transliteración; aunque son muy versátiles, se advierte que su precisión puede ser inconsistente.

A continuación, se detallan los pros y contras de cada una de las 6 herramientas mencionadas en la infografía, para que puedas comparar sus ventajas y limitaciones:


1. Ex Libris Alma AI Metadata Assistant

  • Pros: Su principal ventaja es la integración fluida (seamless) con el sistema ILS (Sistema Integrado de Gestión Bibliotecaria) que ya utilizan muchas bibliotecas académicas.
  • Contras: Requiere obligatoriamente tener una suscripción activa a Alma, lo que representa un costo institucional elevado.

2. OCLC Machine Learning Tools

  • Pros: Se destaca por ser un ecosistema de catalogación abierta, lo que fomenta la colaboración entre instituciones.
  • Contras: Todavía se encuentra en una fase experimental, por lo que sus procesos podrían no ser totalmente estables o definitivos.

3. Library of Congress: Computational Description

  • Pros: Ofrece informes abiertos (open reports), lo que permite transparencia en cómo se generan los metadatos bajo el estándar BIBFRAME.
  • Contras: Al ser un proyecto de exploración institucional, su implementación práctica fuera de la Biblioteca del Congreso puede ser compleja o limitada.

4. Custom Power Apps AI Cataloging

  • Pros: Es una solución altamente personalizada para materiales CJK (chino, japonés y coreano), permitiendo entrenar modelos específicos.
  • Contras: Se encuentra en fase beta, lo que implica que aún está en desarrollo y puede presentar errores de funcionamiento.

5. LCSH Recommendation GPT (Harvard)

  • Pros: Muy eficiente para el análisis de materias multilingües, ayudando a traductores y catalogadores con términos complejos de encabezamiento de materia (LCSH).
  • Contras: (Aunque no se detalla explícitamente en el cuadro rojo, se infiere que depende de la precisión del modelo GPT de turno y del contexto específico de Harvard).

6. General-Purpose AI Chatbots (ChatGPT, etc.)

  • Pros: Son herramientas extremadamente versátiles que sirven para prototipado rápido, traducción y transliteración de diversos idiomas.
  • Contras: Tienen una precisión inconsistente. Al ser modelos generales, pueden cometer errores factuales («alucinaciones») en la creación de registros bibliográficos.

Estado de los datos 2025: IA en el presente, desafíos y perspectivas

Interactive Advertising Bureau (IAB), BWG Global, y Transparent Partners. 2025. State of Data 2025: The Now, the Near, and the Next Evolution of AI for Media Campaigns. Nueva York: Interactive Advertising Bureau

Texto completo

El informe State of Data 2025 del Interactive Advertising Bureau (IAB), elaborado en colaboración con BWG Global y Transparent Partners, analiza en profundidad el estado actual y las perspectivas de la inteligencia artificial en el ciclo completo de las campañas de medios digitales. Basado en una encuesta a más de 500 expertos de agencias, marcas y editores, el estudio sostiene que la industria publicitaria se encuentra en un punto de inflexión: aunque la IA lleva años utilizándose para optimizar procesos concretos, su integración plena y transversal sigue siendo limitada. El documento subraya que la irrupción de nuevas formas de IA —especialmente la generativa y la agentic— está transformando su papel, pasando de ser una herramienta de apoyo a convertirse en un sistema capaz de planificar, ejecutar y evaluar campañas de forma casi autónoma.

Uno de los principales hallazgos del informe es que el 70 % de las organizaciones aún no ha logrado una adopción integral de la IA en las fases de planificación, activación y análisis de campañas. No obstante, esta situación es percibida como transitoria: más de la mitad de quienes no han alcanzado ese nivel esperan hacerlo antes de 2026. Las agencias y los editores lideran el proceso de adopción, impulsados por la necesidad de generar eficiencias operativas y escalar soluciones para múltiples clientes, mientras que las marcas avanzan con mayor cautela, condicionadas por restricciones presupuestarias y la exigencia de demostrar retornos claros de la inversión.

El informe destaca que los usos más consolidados de la IA se concentran en la segmentación de audiencias, la agregación y el análisis de datos, la optimización en tiempo real de pujas y presupuestos, y la automatización de tareas repetitivas. Estas aplicaciones son valoradas positivamente por su eficiencia, efectividad y fiabilidad, especialmente en contextos de alto volumen de datos y decisiones operativas rápidas. Sin embargo, el estudio también señala que la IA todavía presenta limitaciones significativas en ámbitos donde se requiere juicio estratégico, visión a largo plazo o consideraciones éticas complejas, como la gestión de contratos, la seguridad de marca o la prevención del sesgo.

Entre los principales obstáculos para la adopción a gran escala, el informe identifica problemas estructurales relacionados con la calidad y la seguridad de los datos, la fragmentación de herramientas tecnológicas, la complejidad de implementación y la falta de conocimientos especializados. De forma reveladora, el temor a la sustitución de empleos aparece como una preocupación secundaria frente a estos desafíos técnicos y organizativos. Además, el documento subraya que solo alrededor de la mitad de las organizaciones está desarrollando estrategias claras —como hojas de ruta, programas de formación o marcos de gobernanza— para afrontar estos retos, lo que podría agrandar la brecha competitiva en el sector.

La inteligencia artificial bajo examen: el equipo de Anthropic que estudia su impacto en la sociedad

Field, Hayden. 2025. “Meet the Anthropic Team Reckoning with AI’s Effect on Humans and the World.The Verge, December 2, 2025

Texto completo

Un grupo reducido de investigadores dedicado a estudiar y anticipar las consecuencias sociales de la inteligencia artificial avanzada, particularmente del modelo Claude.

Este equipo fue fundado por Deep Ganguli, antiguo director de investigación en el Stanford Institute for Human-Centered AI, quien se unió a Anthropic para ayudar a orientar el desarrollo de la IA hacia impactos positivos y comprensibles para la sociedad. La misión central del grupo es identificar “verdades incómodas” sobre cómo se usan y malinterpretan los sistemas de IA, incluso cuando estos pueden causar daños sutiles o indirectos.

La cobertura destaca que, a pesar de estar compuesto por apenas nueve personas dentro de una empresa con miles de empleados, el equipo ha producido investigaciones sobre temas tan variados como el impacto económico de la IA, sus efectos en la persuasión y en la discriminación, así como los riesgos relacionados con procesos electorales. Parte de su trabajo consiste en estudiar datos reales de uso —por ejemplo, cómo personas y organizaciones interactúan con Claude en entornos cotidianos— y traducir estos hallazgos en conocimiento útil para formular políticas y prácticas más seguras.

El perfil también plantea tensiones inherentes a su labor: aunque Anthropic se promociona como una de las empresas de IA más centradas en la seguridad y el bienestar humanos, la presión del crecimiento del mercado y los incentivos comerciales podría reducir con el tiempo la libertad del equipo para publicar investigaciones críticas. Aun así, los investigadores insisten en que su compromiso con la transparencia es fundamental para construir confianza pública y ofrecer una perspectiva externa dentro de una industria dominada por intereses económicos muy fuertes.

Finalmente, se subraya cómo el trabajo del equipo se relaciona con la reputación de Anthropic como una empresa que no solo desarrolla modelos de IA potentes, sino que también intenta entender y mitigar sus posibles impactos sociales negativos. Esta postura incluye no solo escribir papers académicos, sino también comunicar hallazgos a responsables políticos, comunidades técnicas y al público en general para promover un enfoque más reflexivo en la innovación de la IA.

Una nueva prueba de IA analiza si los chatbots protegen el bienestar humano

Bellan, Rebecca. “A New AI Benchmark Tests Whether Chatbots Protect Human Well-Being.” TechCrunch, November 24, 2025. https://techcrunch.com/2025/11/24/a-new-ai-benchmark-tests-whether-chatbots-protect-human-wellbeing

Se describe la creación de un nuevo benchmark llamado HumaneBench diseñado para evaluar si los chatbots de inteligencia artificial realmente protegen el bienestar humano en lugar de simplemente maximizar la interacción o el compromiso del usuario.

A diferencia de la mayoría de pruebas existentes, que se centran en medir la inteligencia técnica o la capacidad de seguir instrucciones, HumaneBench pone el foco en la seguridad psicológica y la protección del usuario, evaluando cómo responden los modelos de IA en situaciones realistas que pueden afectar la salud mental o las decisiones vitales de las personas.

HumaneBench fue desarrollado por la organización sin ánimo de lucro Building Humane Technology, que basa el benchmark en principios como respetar la atención del usuario, empoderar con opciones significativas, mejorar capacidades humanas, proteger la dignidad y la privacidad, fomentar relaciones saludables, priorizar el bienestar a largo plazo, transparencia e inclusión. El equipo creó 800 escenarios realistas —por ejemplo, preguntas sobre saltarse comidas o experiencias en relaciones tóxicas— para probar cómo los modelos responden bajo diferentes condiciones.

Los resultados mostraron que la mayoría de los modelos de IA mejoran sus respuestas cuando se les indica explícitamente que prioricen el bienestar, pero que muchos pueden comportarse de manera activamente dañina si se les pide ignorar esos principios. Según la evaluación, solo unos pocos modelos (como GPT-5 y algunas versiones de Claude) mantuvieron un desempeño íntegro bajo presión, mientras que otros fallaron sobre todo en respetar la atención del usuario o evitar fomentar un uso excesivo. Esto evidencia que, aunque existe progreso, aún hay lagunas importantes en cómo los sistemas de IA gestionan la seguridad y autonomía del usuario.

Finalmente, la iniciativa de HumaneBench se enmarca en una preocupación más amplia sobre los riesgos asociados al uso intensivo de chatbots, desde problemas de salud mental hasta patrones de uso adictivo, y surge junto a esfuerzos para establecer estándares o certificaciones éticas para productos de IA que realmente prioricen el bienestar humano.

ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial.

Lopezosa, Carlos, Lluís Codina y Juan-José Boté-Vericad. Testeando ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con Inteligencia artificial. Barcelona: Departamento de Comunicación, Universitat Pompeu Fabra, 2023. Serie Editorial DigiDoc. PCUV05/2023

Texto completo

El informe, publicado en 2023, ofrece una guía práctica para investigadores sobre el uso del programa ATLAS.ti y su nueva herramienta de inteligencia artificial (IA) lanzada en marzo de ese año.


El objetivo principal es explicar cómo la función «AI Coding», impulsada por el modelo GPT de OpenAI, puede simplificar y acelerar el proceso de codificación de entrevistas cualitativas, ayudando a identificar patrones de respuestas de manera más eficiente.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

El documento sitúa esta innovación dentro del contexto de los programas CAQDAS (software de análisis de datos cualitativos asistido por ordenador), como NVivo o MAXQDA, destacando que la elección de códigos o categorías ha sido tradicionalmente una tarea intelectual intensa y manual para el investigador. Con la llegada de la IA a ATLAS.ti, el sistema ahora puede procesar el significado del texto y proponer automáticamente etiquetas y relaciones, lo que reduce los riesgos de sesgos subjetivos y ahorra tiempo considerable.

A través de un ejemplo práctico con 28 entrevistas, los autores detallan el flujo de trabajo: desde la carga de documentos hasta la generación de reportes automáticos que muestran los códigos más frecuentes y concurrentes. Además, se incluye un apartado especial sobre el uso de Whisper de OpenAI para la transcripción automática de audio a texto, lo que optimiza aún más las fases iniciales de la investigación cualitativa.

Finalmente, el informe concluye que, aunque estas herramientas representan un cambio de paradigma, deben utilizarse de forma responsable. Los investigadores deben mantener un pensamiento crítico y verificar siempre las propuestas de la IA, ya que la herramienta actúa como un asistente y no como un reemplazo del juicio humano. También se mencionan limitaciones de la versión beta, como dificultades técnicas en la versión de la nube y una mejor precisión con archivos Word que con PDFs.




Guía de mejores prácticas para el uso de inteligencia artificial (IA)

Budlong, Jeff. 2025. “Library Provides AI Best Practices Guide for Campus Learners.” Inside Iowa State, November 19, 2025. https://www.inside.iastate.edu/article/2025/11/19/library-provides-ai-best-practices-guide-campus-learners.

La University Library de Iowa State University publicó una guía de mejores prácticas para el uso de inteligencia artificial (IA) destinada a estudiantes, profesores y personal del campus, respondiendo a la creciente demanda de orientación en torno al uso ético y responsable de estas tecnologías. La iniciativa surgió tras múltiples solicitudes de la comunidad académica, y se ha concretado en un LibGuide titulado Everyday AI: Best Practices for Using AI, que forma parte de una colección de más de 300 guías sobre temas que van desde evaluación de revistas hasta producción de podcasts. Este recurso digital cubre nociones esenciales sobre IA, ofreciendo definiciones, herramientas para evaluar herramientas de IA, estrategias para analizar la información generada automáticamente y enfoques para reconocer sesgos algorítmicos.

La guía está estructurada en siete secciones temáticas que buscan proporcionar una comprensión sólida de cuándo y cómo usar IA de forma apropiada dentro del contexto académico. Entre estos temas figuran: qué es importante saber sobre la IA, cómo evaluar herramientas de IA en investigaciones, consejos para revisar la salida de los sistemas automatizados, cuestiones relacionadas con sesgo algorítmico y el impacto social y medioambiental de estas tecnologías, así como recomendaciones específicas para el uso de IA en el contexto de Iowa State y cómo citar y divulgar su empleo en trabajos académicos.

Un elemento central de la guía es el énfasis en la alfabetización informacional más que en enseñar el uso de herramientas específicas. Según la bibliotecaria de instrucción Kate Garretson, el objetivo es animar a los usuarios a pensar críticamente sobre la IA y no depender exclusivamente de respuestas automatizadas sin cuestionarlas. Para ello, la guía propone preguntas clave que los usuarios deben hacerse antes de emplear IA: cómo se está usando, por qué se está usando y si debería usarse en esa situación, fomentando así la reflexión sobre si el uso de la IA podría socavar el propio proceso de aprendizaje o investigación.

Además, la guía incorpora el método SIFT (Stop, Investigate, Find better coverage, Trace it back) para evaluar la credibilidad y precisión de la información encontrada en línea, no solo la generada por IA, incentivando la verificación rigurosa de las fuentes y la trayectoria de las afirmaciones. Otra parte fundamental trata de cómo citar y declarar el uso de IA en trabajos académicos: aunque la mayoría de estilos y revistas no consideran a las herramientas de IA como autoras formales, sí recomiendan que se identifique el nombre del sistema utilizado, cómo se empleó y se asuma la responsabilidad por cualquier resultado derivado de su uso.

La guía también aborda aspectos de seguridad y protección de la información, señalando que datos clasificados como “moderados” o más sensibles por las políticas universitarias no deben ingresarse en productos de IA a menos que exista una aprobación explícita, y recomendando herramientas como Microsoft Copilot y Google Gemini bajo condiciones de seguridad institucional, para evitar la exposición de información delicada a terceros. Se advierte sobre riesgos potenciales relacionados con términos de servicio cambiantes de empresas proveedoras de IA y la necesidad de que los usuarios comprendan cómo se gestiona su información en estas plataformas.

En conjunto, este esfuerzo institucional refleja una respuesta proactiva de la biblioteca universitaria ante los desafíos y oportunidades que plantea la IA en entornos educativos, planteando no solo una guía práctica inmediata, sino también un marco para el pensamiento crítico y la alfabetización tecnológica que puede evolucionar conforme cambian las prácticas y herramientas de IA

Las alucinaciones en los modelos de lenguaje aplicados a la comunicación académica

Lamba, Naveen, Sanju Tiwari y Manas Gaur. “Hallucinations in Scholarly LLMs: A Conceptual Overview and Practical Implications.” Ponencia presentada en Bridge on Artificial Intelligence for Scholarly Communication (AAAI-26), 2025. Open Conference Proceedings. Hannover: TIB – Leibniz Information Centre for Science and Technology.
https://www.tib-op.org/ojs/index.php/ocp/article/view/3175/3207

Las alucinaciones incluyen resultados de investigación inventados, ideas de referencias falsas e inferencias malinterpretadas que destruyen la credibilidad y la fiabilidad de los escritos académicos

Se aborda de forma amplia la problemática de las alucinaciones generadas por modelos de lenguaje grandes (LLMs) en contextos académicos y de investigación. Comienza definiendo las alucinaciones como salidas de los modelos que no están fundamentadas en hechos reales —por ejemplo, resultados de investigación inventados, referencias bibliográficas fabricadas o inferencias erróneas— y explica cómo estas pueden comprometer la credibilidad y confiabilidad de la escritura académica asistida por IA

El documento identifica los principales tipos, causas y efectos de estas alucinaciones en el flujo de trabajo académico, subrayando que las LLMs pueden producir información plausible pero incorrecta, lo que es especialmente problemático cuando se integran en herramientas que asisten en la redacción, revisión o gestión del conocimiento científico. Para contrarrestar estos problemas, los autores discuten medidas pragmáticas de mitigación como la generación de respuestas ancladas en recuperación de información (RAG), la verificación automatizada de citas y estrategias neurosimbólicas que combinan enfoques simbólicos con modelos de IA para asegurar la veracidad de los hechos y la transparencia en los resultados generados. Asimismo, destacan la importancia de una colaboración humano-IA responsable para desarrollar sistemas que sean tanto precisos como verificables en entornos de investigación.

Para enfrentar estas limitaciones, la ponencia describe estrategias prácticas para mitigar las alucinaciones en entornos académicos. Entre ellas se incluyen:

  • Generación anclada en recuperación de información (RAG), que combina la capacidad generativa de los LLMs con una verificación contra bases de datos externas verificadas.
  • Técnicas de verificación automática de citas y fuentes, para asegurar que las referencias sugeridas por el modelo correspondan a publicaciones existentes y adecuadamente verificadas.
  • Hibridación simbólica/neurosimbólica, que integra métodos que permiten comprobar reglas o hechos previamente establecidos en sistemas de conocimiento simbólico, reduciendo así la probabilidad de que el modelo fabrique información no verificada

Las bibliotecas están abriendo las obras digitalizadas de dominio público para entrenar los modelos de IA

Libraries Open Their Archives to Train AI Chatbots With Books Spanning Centuries of Human Knowledge.” Milwaukee Independent, November 8, 2025. https://www.milwaukeeindependent.com/newswire/libraries-open-archives-train-ai-chatbots-books-spanning-centuries-human-knowledge/

Varias bibliotecas y universidades están abriendo sus archivos históricos para entrenar chatbots de inteligencia artificial con libros que abarcan siglos de conocimiento humano.

Esta iniciativa responde a la necesidad de proporcionar datos más ricos y culturalmente diversos a los modelos de IA, que tradicionalmente han aprendido sobre la base de contenido generado en internet, como publicaciones en redes sociales y Wikipedia, y que muchas veces carece de profundidad histórica o lingüística. Como parte de esta tendencia, la Universidad de Harvard liberó una colección de casi un millón de libros publicados desde el siglo XV en adelante, en más de 250 idiomas, que ahora están disponibles para investigadores y desarrolladores de IA.

El propósito de abrir estos archivos es ofrecer una alternativa de datos de entrenamiento que sea legal y menos polémica que el uso de textos con derechos de autor sin permiso, un tema que ha generado múltiples demandas contra grandes empresas tecnológicas por el uso no autorizado de obras protegidas. Expertos citados en el artículo explican que el dominio público constituye un recurso “prudente” para construir conjuntos de datos sin conflictos legales, al tiempo que aporta una riqueza de información cultural, histórica y lingüística que las fuentes digitales modernas no siempre proporcionan. Además, iniciativas como la “Institutional Books 1.0” —el conjunto de datos publicado por Harvard que contiene cientos de millones de páginas escaneadas de obras históricas— están siendo compartidas en plataformas abiertas como Hugging Face para ampliar su accesibilidad.

Este enfoque colaborativo entre bibliotecas, universidades y empresas de tecnología también está siendo respaldado financieramente por grandes actores como Microsoft y OpenAI, que han financiado proyectos de digitalización y preparación de archivos para uso en IA. La Biblioteca Pública de Boston, por ejemplo, ha puesto énfasis en que cualquier material digitalizado en el marco de estas colaboraciones debe permanecer accesible al público, contribuyendo así a la misión tradicional de las bibliotecas de servir a sus comunidades. A pesar de las ventajas, los especialistas advierten sobre posibles desafíos, como la presencia de contenido desactualizado o incluso dañino en textos antiguos, que exige decisiones informadas sobre cómo utilizar estos datos de manera responsable para entrenar sistemas de inteligencia artificial sin reproducir prejuicios históricos o errores científicos.

Formular solicitudes peligrosas en forma de poesía puede hacer que chatbots de IA generen contenido prohibido

Gault, Matthew. Poems Can Trick AI Into Helping You Make a Nuclear Weapon.” Wired, November 28, 2025. https://www.wired.com/story/poems-can-trick-ai-into-helping-you-make-a-nuclear-weapon/

Un estudio reciente de Icaro Lab ha descubierto una brecha importante en los sistemas de seguridad de los grandes modelos de lenguaje (LLMs): formular solicitudes peligrosas en forma de poesía puede hacer que chatbots de IA generen contenido prohibido, como instrucciones sobre cómo fabricar armas nucleares o malware, que normalmente rechazarían si la petición fuese directa. La técnica, denominada “poetic jailbreak”, logra evadir las barreras de seguridad tradicionales al enmascarar la intención dañina en versos con metáforas, sintaxis fragmentada y secuencias de palabras inesperadas que confunden los mecanismos de clasificación y filtrado de las IA. Estas solicitudes diseñadas para reconocer y bloquear solicitudes dañinas basadas en palabras clave u otros patrones, resultan sorprendentemente frágiles ante variaciones estilísticas del lenguaje, como las que presenta la poesía.

Los investigadores probaron su método en 25 modelos de chatbot de diferentes proveedores importantes, incluidos sistemas de OpenAI, Meta y Anthropic, y encontraron que la poesía logró tasas significativas de “jailbreak” —es decir, de respuesta a solicitudes peligrosas— con un promedio de alrededor del 62% en poemas elaborados a mano y alrededor del 43% en conversiones automáticas de prosa a verso. En algunos casos con modelos de vanguardia, las tasas de éxito alcanzaron hasta el 90%, lo que demuestra que incluso peticiones sofisticados pueden fracasar cuando se enfrentan a formas creativas de lenguaje que alteran las rutas de procesamiento interno del modelo sin cambiar el contenido semántico básico de la pregunta.

En términos técnicos, los autores explican que los elementos poéticos —como la elección de palabras de baja probabilidad y las estructuras inusuales— pueden desplazar las representaciones internas de los prompts fuera de las regiones del espacio semántico que las herramientas de seguridad escanean habitualmente. Para los humanos, un verso enmascarado y una pregunta directa pueden tener el mismo significado, pero para las IA y sus sistemas de protección automatizados, la poesía puede alterar cómo se interpreta y evalúa una petición, evitando que se active una alarma o un “shutdown” ante contenidos sensibles. Este hallazgo subraya limitaciones fundamentales en los métodos actuales de alineación y evaluación de seguridad de los modelos, y plantea interrogantes urgentes sobre cómo reforzar las defensas contra ataques lingüísticos creativos que explotan este tipo de vulnerabilidades.