Archivo de la etiqueta: Inteligencia artificial

Publicación de datos sobre el patrimonio cultural en la era de la inteligencia artificial

Keller, Paul. Publishing Cultural Heritage Data in the Age of AI. Europeana Foundation y Open Future Foundation, diciembre de 2025.

Texto completo

Este informe, encargado por la Europeana Foundation y elaborado por Open Future, analiza cómo la inteligencia artificial está transformando el ecosistema de datos del patrimonio cultural.

El documento surge dentro de la Alignment Assembly on Culture for AI, un proceso participativo europeo que ha puesto de manifiesto una tensión central: por un lado, el sector del patrimonio cultural desea mantener el compromiso con el acceso abierto; por otro, el uso masivo de datos para entrenar modelos de IA crea nuevos riesgos, cargas económicas y dilemas éticos. El texto enmarca este problema en un contexto legal complejo, donde los mecanismos de protección como el copyright, los derechos de base de datos o los opt-out para minería de datos resultan, en la práctica, insuficientes para controlar el uso intensivo que hacen los desarrolladores de IA de los recursos digitales publicados por instituciones culturales.

El documento expone que la IA transforma radicalmente el tipo de acceso que enfrentan estas instituciones: de un uso tradicional centrado en la consulta humana a una demanda de acceso industrializado, donde bots y sistemas automáticos extraen colecciones completas para entrenar modelos. Frente a ello, el informe propone que las instituciones no pueden limitarse a cerrar sus recursos ni depender exclusivamente de restricciones legales, ya que ello comprometería su misión pública. En su lugar, plantea un marco de interés público basado en cinco principios: acceso abierto al conocimiento, equidad y no discriminación, confiabilidad y autoridad institucional, apoyo a la investigación y la innovación, y sostenibilidad económica. Estos valores sirven de guía para adaptar políticas de acceso a un entorno de IA que amplifica tanto las oportunidades como las amenazas.

A partir de ese marco, el informe desarrolla un modelo de acceso diferenciado que combina apertura y control según las necesidades y los costos asociados a cada modalidad de acceso. Propone mantener acceso totalmente abierto para la consulta de objetos individuales; establecer acceso controlado mediante API para usos programáticos y de sistemas de IA desplegados; y adoptar un régimen de acceso condicional para usos de gran escala, como la descarga masiva para entrenamiento. Este modelo permite que el acceso abierto siga siendo el principio dominante, a la vez que introduce mecanismos para que los grandes usuarios —especialmente actores comerciales con alta capacidad— contribuyan a la sostenibilidad económica del ecosistema cultural. El informe concluye invitando al sector a debatir y ajustar colectivamente este modelo, señalando que las decisiones que se tomen ahora serán fundamentales para garantizar un futuro responsable, sostenible y alineado con la misión pública del patrimonio cultural en la era de la IA.

Open AI activa el ‘Código Rojo’ mientras Google y Anthropic amenazan con destronar a ChatGPT

Hart, Robert. 2025. “OpenAI declares ‘code red’ as Google catches up in AI race.” The Verge, 2 de diciembre 2025

Ver noticia

La empresa OpenAI ha declarado internamente un “code red”, una señal de alarma para centrar todos sus esfuerzos en mejorar su producto estrella ChatGPT, tras constatar que la competencia —sobre todo Google y Anthropic— se acerca peligrosamente en el terreno de la inteligencia artificial.

Según un memorando interno difundido por la prensa, el director ejecutivo Sam Altman pidió al personal que priorizara mejoras en la velocidad, fiabilidad, personalización y capacidad de respuesta de ChatGPT. En consecuencia, se han suspendido temporalmente otras iniciativas en desarrollo: desde planes de publicidad y agentes de compras o salud, hasta un asistente personal llamado “Pulse”.

Además del cambio de prioridades, OpenAI ha ordenado convocatorias diarias de desarrollo y la redistribución de equipos internos hacia tareas centradas en ChatGPT, con el objetivo de acelerar su evolución.

Este giro estratégico refleja un momento crítico para OpenAI: tras años de liderazgo en IA, la compañía reconoce que su ventaja competitiva podría estar decayendo, lo que la obliga a redoblar esfuerzos para mantenerse en la vanguardia.

La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa


Alonso Arévalo, Julio. «La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa». Item: revista de biblioteconomia i documentació, 2025, vol. VOL 2025, n.º 79, doi:10.60940/itemn79id9900246. https://gredos.usal.es/handle/10366/168088

Texto en castellano

Texto en catalán


La inteligencia artificial (IA) está transformando profundamente el trabajo bibliotecario, desde la automatización de tareas repetitivas como la catalogación y la asistencia al usuario a través de chatbots, hasta las mejoras en la accesibilidad, las recomendaciones personalizadas y la conservación digital de documentos históricos. Estas herramientas permiten una gestión más eficiente y personalizada de los servicios, pero también plantean retos éticos relacionados con la privacidad, los sesgos, la transparencia y la desinformación. Por lo tanto, más allá de la implementación de la tecnología, las bibliotecas deben asumir un papel activo en la alfabetización en IA, promoviendo el pensamiento crítico, la formación continua y el uso responsable de estas herramientas. Se requieren nuevas habilidades, como la ingeniería rápida, la gestión de datos y la comunicación eficaz para explicar la IA a los usuarios. Marcos como el de la Asociación de Bibliotecas Universitarias y de Investigación (ACRL) proponen una educación integral que abarque tanto el funcionamiento técnico como las implicaciones éticas de la IA. En este contexto, se refuerza el papel del bibliotecario como mediador del conocimiento y garante de un uso ético y equitativo de la IA.

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

Los chatbots de IA pueden ser engañados mediante peticiones dañinas redactadas en forma de poesía.

Euronews. 2025. “Poetry Can Trick AI Chatbots into Ignoring Safety Rules, New Research Shows.” Publicado el 1 de diciembre de 2025. https://www.euronews.com/next/2025/12/01/poetry-can-trick-ai-chatbots-into-ignoring-safety-rules-new-research-shows

Estudio

Investigadores de Icaro Lab, perteneciente a la firma ética de inteligencia artificial DexAI, descubrieron que los chatbots avanzados pueden ser engañados mediante peticiones redactadas en forma de poesía.

En su estudio, emplearon veinte poemas compuestos en inglés e italiano, cada uno de ellos ocultando al final una petición prohibida, como la generación de discurso de odio, pornografía infantil, instrucciones para el suicidio o métodos de fabricación de armas. Lo sorprendente fue que la forma poética —con su sintaxis irregular, metáforas y estructuras no convencionales— resultó capaz de confundir los sistemas de seguridad que suelen detectar estas solicitudes cuando están formuladas de manera directa.

Las pruebas se realizaron con veinticinco modelos de lenguaje de nueve grandes compañías tecnológicas. Los resultados fueron preocupantes: de media, el 62 % de las peticiones poéticas lograron que los modelos produjeran contenido inseguro. Algunos sistemas actuaron de forma mucho más robusta —por ejemplo, un modelo pequeño de OpenAI no cayó en ninguna trampa—, mientras que otros resultaron especialmente vulnerables y respondieron a todas las solicitudes disfrazadas de poema. La variedad de comportamientos demuestra que la vulnerabilidad no es uniforme y depende tanto del entrenamiento del modelo como del diseño de sus mecanismos de seguridad.

El estudio concluye que los filtros de seguridad actuales están optimizados para detectar amenazas explícitas, formuladas con lenguaje directo. Cuando las peticiones se camuflan en una escritura artística, las salvaguardas fallan, pues no identifican la intención dañina. Esto convierte a la poesía adversarial en una herramienta de evasión accesible para cualquier usuario, a diferencia de otras técnicas de jailbreak más complejas que requieren conocimientos especializados. Los autores advierten que esta debilidad supone un riesgo real para el uso seguro de la IA y subrayan la necesidad de desarrollar mecanismos capaces de interpretar no solo el contenido literal, sino la intención profunda de un texto, incluso cuando adopta formas creativas o ambiguas.

Factores clave que influyen en las citaciones de ChatGPT

SEJ STAFF, “New Data Reveals The Top 20 Factors Influencing ChatGPT CitationsSearch Engine Journal, 26 noviembre 2025.

Texto completo

El estudio pone de manifiesto que, para ser citado por ChatGPT, no basta con una buena optimización SEO tradicional centrada en palabras clave. Lo que más importa es la autoridad del dominio (backlinks y confianza), el volumen de tráfico, contenido profundo y actualizado, estructura clara, buen rendimiento técnico y presencia activa en comunidades en línea. Estos factores —combinados— aumentan significativamente las probabilidades de que una página sea usada como fuente por modelos de IA como ChatGPT.

Un reciente análisis de SE Ranking —reflejado en este artículo de Search Engine Journal— ha investigado qué factores influyen en la probabilidad de que una página web sea citada por ChatGPT. El estudio analizó 129.000 dominios únicos y más de 216.000 páginas en 20 sectores distintos.

El hallazgo más relevante es que la cantidad de dominios referidos de un sitio es el predictor más fuerte de citaciones: sitios con miles de dominios referidos tienden a ser citados mucho más que aquellos con pocos. Además, la confianza del dominio también muestra un patrón claro: puntajes altos de confianza se traducen en un número considerablemente mayor de citas.

En segundo lugar, el tráfico del dominio (sobre todo si es elevado) resulta relevante: los sitios con muchas visitas mensuales y buen tráfico en la página principal son más propensos a ser citados.

Pero no todo depende de backlinks y tráfico. El estudio también destaca la profundidad y estructura del contenido: artículos largos, bien estructurados con secciones claras, y con datos estadísticos o citas de expertos suelen recibir más citas. El contenido recientemente actualizado también tiene ventaja: las páginas revisadas en los últimos meses obtienen más citaciones que las desactualizadas.

Otro factor importante es la actividad social y presencia en plataformas comunitarias: dominios que aparecen con frecuencia en foros, redes o plataformas de discusión (como menciones en Reddit o Quora) muestran una correlación con un mayor número de citas.

Finalmente, se observan también efectos relacionados con el rendimiento técnico de la página —como tiempos de carga rápidos— y con la forma de construir la URL y el título: páginas con URLs y títulos que describen claramente el tema (en lugar de saturados en palabras clave) obtuvieron mejores resultados en términos de citaciones.

Las zonas con menor nivel educativo adoptan herramientas de escritura con IA más rápido de lo esperado

Edwards, Benj. 2025. “Researchers surprised to find less-educated areas adopting AI writing tools faster.” Ars Technica, March 3, 2025. https://arstechnica.com/ai/2025/03/researchers-surprised-to-find-less-educated-areas-adopting-ai-writing-tools-faster/

Un estudio reciente liderado por investigadores de la Stanford University ha detectado una tendencia inesperada: las áreas de Estados Unidos con menor nivel educativo están adoptando herramientas de escritura asistidas por inteligencia artificial (IA) con mayor rapidez que las zonas con niveles educativos más altos.

Analizando más de 300 millones de textos — que incluyen quejas de consumidores, comunicados corporativos, ofertas de empleo y documentos de organizaciones internacionales — los autores estiman que hasta un cuarto de las comunicaciones profesionales recientes han sido parcialmente generadas o asistidas por IA.

Aunque las zonas urbanas presentan una tasa general de adopción superior a las rurales, el dato más llamativo es que las regiones con menor proporción de población con estudios universitarios muestran un uso de IA algo mayor que las más educadas. Este patrón contradice las tendencias clásicas de difusión tecnológica, donde normalmente los grupos con mejor acceso a educación y recursos adoptan antes las nuevas tecnologías.

Los investigadores sugieren que, para muchos usuarios en estas comunidades, las herramientas de escritura con IA actúan como un “nivelador”: facilitan la redacción, la comunicación profesional o administrativa, reduciendo barreras ligadas a la forma. Esto implica que la IA puede ofrecer oportunidades de inclusión digital a quienes tienen menos formación formal.

Al mismo tiempo, el estudio advierte sobre los riesgos que conlleva este uso extendido: en sectores sensibles como quejas de consumidores, información pública o comunicación institucional, la integración masiva de IA podría generar textos más homogéneos, menos personales o incluso problemas de credibilidad, si los emisores no revisan adecuadamente los resultados automáticos. La automatización de la escritura plantea así tanto posibilidades como desafíos para la equidad comunicativa y el pluralismo de voces.

Alfabetización en IA en bibliotecas universitarias: perspectivas emergentes desde la comunidad

Clarivate. 2025. “AI Literacy in Academic Libraries: Emerging Perspectives from the Community.” Clarivate blog, November 25, 2025. https://clarivate.com/academia-government/blog/ai-literacy-in-academic-libraries-emerging-perspectives-from-the-community/

El artículo describe cómo la adopción de la inteligencia artificial (IA) en el ámbito académico está redefiniendo el papel de las bibliotecas como actores clave para asegurar un uso responsable y ético de esas tecnologías. Propone que la alfabetización en IA —es decir, la capacidad de comprender cómo funcionan las herramientas de IA, sus limitaciones y sus implicaciones éticas— debe integrarse en la alfabetización informacional tradicional que ofrecen las bibliotecas. En respuesta a esta necesidad, se ha lanzado un microcurso gratuito, desarrollado por bibliotecarios, orientado a profesionales de bibliotecas, con el fin de dotarles de competencias claras para guiar a usuarios, estudiantes e investigadores.

A través del curso y de los debates surgidos en la comunidad, se han identificado una serie de temas recurrentes: muchas bibliotecas asumen que deben desempeñar un rol de liderazgo en la alfabetización en IA, ofreciendo talleres, recursos y espacios de formación; sin embargo, existe una carencia generalizada de políticas institucionales claras sobre el uso de IA, lo que genera incertidumbre. Además, asoman preocupaciones importantes sobre ética, integridad académica, riesgos de sesgo, privacidad y la necesidad de enseñar estrategias de verificación crítica de resultados generados por IA.

También se pone de relieve la demanda de formación práctica y recursos adaptados: los bibliotecarios expresan la necesidad de talleres, guías listas para usar, y colaboración con otros departamentos universitarios. Al mismo tiempo, advierten desafíos logísticos como la falta de tiempo, recursos y personal capacitado. No obstante, emergen oportunidades valiosas: bibliotecas pueden servir como hubs de aprendizaje, promover buenas prácticas, impulsar políticas institucionales y contribuir a que la comunidad académica utilice la IA de forma informada y reflexiva.

Finalmente, el artículo sugiere que muchas bibliotecas están interesadas en asumir este papel transformador. Ven la alfabetización en IA no como un añadido opcional, sino como una parte esencial de su misión educativa y de mediación informacional, para acompañar a estudiantes, investigadores y docentes en la era digital.

Una base de datos pública para conocer qué herramientas de IA se usan en los procesos de selección de personal

The talent acquisition & recruiting ai index (TARAI)

https://www.tarai.org/

La University of Virginia School of Data Science ha lanzado una base de datos pública e interactiva que permite conocer de forma clara qué herramientas de inteligencia artificial se utilizan actualmente en los procesos de selección de personal.

El proyecto surge ante la creciente preocupación por el uso opaco de sistemas automatizados que filtran, clasifican o evalúan a los candidatos sin que estos —ni muchas veces los propios reclutadores— comprendan realmente cómo funcionan.

La base de datos recoge más de un centenar de tecnologías de recursos humanos que incorporan IA y ofrece descripciones detalladas sobre su propósito, el tipo de tareas que automatizan y el grado de transparencia que presentan. Para ello, combina la información proporcionada por las propias empresas con datos obtenidos en entrevistas a profesionales del sector, lo que permite identificar diferencias significativas entre lo que los proveedores prometen y lo que realmente realiza cada sistema.

Además, la plataforma está diseñada para dos tipos de públicos: por un lado, los profesionales de recursos humanos que necesitan comparar herramientas antes de adquirirlas o utilizarlas; por otro, los investigadores y responsables de políticas públicas interesados en entender el impacto de la IA en la contratación laboral. La iniciativa también revela que, a pesar de que la regulación en muchos países considera estas tecnologías de “alto riesgo”, aún existe una supervisión limitada sobre su funcionamiento real, lo que hace especialmente valioso un recurso que facilite su análisis crítico y su escrutinio social.

En las elecciones de Georgia a Nueva York, los deepfakes hechos con IA están dirigiendo el discurso político y la percepción de los votantes.

Hurt, Davina, y Ann Skeet. “AI fuels a new wave of political lies.” Salon, 29 noviembre 2025.

Texto completo

La inteligencia artificial está siendo usada para generar “deepfakes” y contenido político engañoso que distorsiona la realidad en campañas electorales recientes en Estados Unidos. Un ejemplo citado es un anuncio en la carrera al Senado por Georgia en el que la campaña del candidato republicano Mike Collins difundió un vídeo en el que aparecía el senador demócrata Jon Ossoff supuestamente diciendo que no le importaban los granjeros porque “solo había visto una granja en Instagram” — una frase que Ossoff nunca pronunció.

El texto señala que, aunque la sátira política siempre ha existido (por ejemplo en caricaturas), la IA borra la frontera entre ficción y realidad de una forma sin precedentes: las falsedades generadas por IA pueden parecer auténticas, con imagen y voz convincente, lo que las hace aún más peligrosas cuando son usadas por los propios actores políticos.

Además, el artículo advierte que este tipo de contenido —cuando se difunde desde cuentas oficiales o con aspecto institucional— degrada el debate democrático, al transformar opiniones o propaganda en “evidencia visual” aparentemente real. Bajo esa lógica, la IA no solo ayuda a mentir, sino a construir una “realidad alternativa” destinada a manipular percepciones colectivas, socavando la confianza pública en los procesos políticos.

Finalmente, los autores exhortan a la necesidad de marcos regulatorios y éticos claros que exijan transparencia en el uso de IA en campañas políticas, de modo que la manipulación mediática deje de ser una estrategia con potencial de dañar la democracia