Archivo de la etiqueta: Inteligencia artificial

La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa


Alonso Arévalo, Julio. «La biblioteca y la construcción de una cultura de alfabetización en la inteligencia artificial generativa». Item: revista de biblioteconomia i documentació, 2025, vol. VOL 2025, n.º 79, doi:10.60940/itemn79id9900246. https://gredos.usal.es/handle/10366/168088

Texto en castellano

Texto en catalán


La inteligencia artificial (IA) está transformando profundamente el trabajo bibliotecario, desde la automatización de tareas repetitivas como la catalogación y la asistencia al usuario a través de chatbots, hasta las mejoras en la accesibilidad, las recomendaciones personalizadas y la conservación digital de documentos históricos. Estas herramientas permiten una gestión más eficiente y personalizada de los servicios, pero también plantean retos éticos relacionados con la privacidad, los sesgos, la transparencia y la desinformación. Por lo tanto, más allá de la implementación de la tecnología, las bibliotecas deben asumir un papel activo en la alfabetización en IA, promoviendo el pensamiento crítico, la formación continua y el uso responsable de estas herramientas. Se requieren nuevas habilidades, como la ingeniería rápida, la gestión de datos y la comunicación eficaz para explicar la IA a los usuarios. Marcos como el de la Asociación de Bibliotecas Universitarias y de Investigación (ACRL) proponen una educación integral que abarque tanto el funcionamiento técnico como las implicaciones éticas de la IA. En este contexto, se refuerza el papel del bibliotecario como mediador del conocimiento y garante de un uso ético y equitativo de la IA.

los derechos de autor en la era de la Inteligencia Artificial generativa

Chaudhry, Uzma; Borda, Ann; Forbes, Stephanie; Jones, Joe; Perini, Antonella Maia; Rättzén, Mattias; Stewart-David, Mary. Creative Grey Zones: Copyright in the Age of Hybridity. The Alan Turing Institute, 2025. https://www.turing.ac.uk/news/publications/creative-grey-zones-copyright-age-hybridity

El informe analiza cómo la IA generativa tensiona las leyes de derechos de autor al usar obras protegidas para entrenar modelos sin consentimiento claro. Identifica “zonas grises” donde se mezclan autoría humana, producción automatizada y vacíos legales. Propone comprender estos dilemas éticos, técnicos y jurídicos para guiar futuras reformas del copyright.

El informe Creative Grey Zones: Copyright in the Age of Hybridity del The Alan Turing Institute examina cómo el auge de la inteligencia artificial generativa está forzando una reevaluación global de las leyes de derecho de autor. Parte del problema radica en que los modelos de IA se entrenan utilizando enormes cantidades de material protegido por derechos de autor —sin autorización explícita de los titulares—, y luego generan nuevos contenidos derivados de ese entrenamiento. Este uso masivo pone en tensión la eficacia de los marcos legales tradicionales que regulan la autoría

El informe identifica cuatro “zonas grises” donde convergen ética, derecho, estándares técnicos y actores híbridos (usuarios, desarrolladores, titulares de derechos, reguladores), y en las que la frontera entre creación humana y producción automatizada se vuelve difusa.

Su propósito es mapear este panorama complejo —no dictar soluciones definitivas—, aportando un análisis multidisciplinar que permita un diálogo informado para futuras reformas normativas.

Entre las tensiones destacadas, están: la dificultad de definir cuándo una obra generada o asistida por IA sigue siendo fruto de creatividad humana; los dilemas sobre consentimiento o remuneración a los autores originales cuyos trabajos alimentan los modelos; y la necesidad de adaptar las leyes de copyright para incluir nuevos tipos de “stakeholders híbridos”. El informe subraya que estos retos no son puramente técnicos sino profundamente sociales y legales, lo que exige repensar las bases mismas de la autoría y la protección intelectual en la era de la IA.

Los chatbots de IA pueden ser engañados mediante peticiones dañinas redactadas en forma de poesía.

Euronews. 2025. “Poetry Can Trick AI Chatbots into Ignoring Safety Rules, New Research Shows.” Publicado el 1 de diciembre de 2025. https://www.euronews.com/next/2025/12/01/poetry-can-trick-ai-chatbots-into-ignoring-safety-rules-new-research-shows

Estudio

Investigadores de Icaro Lab, perteneciente a la firma ética de inteligencia artificial DexAI, descubrieron que los chatbots avanzados pueden ser engañados mediante peticiones redactadas en forma de poesía.

En su estudio, emplearon veinte poemas compuestos en inglés e italiano, cada uno de ellos ocultando al final una petición prohibida, como la generación de discurso de odio, pornografía infantil, instrucciones para el suicidio o métodos de fabricación de armas. Lo sorprendente fue que la forma poética —con su sintaxis irregular, metáforas y estructuras no convencionales— resultó capaz de confundir los sistemas de seguridad que suelen detectar estas solicitudes cuando están formuladas de manera directa.

Las pruebas se realizaron con veinticinco modelos de lenguaje de nueve grandes compañías tecnológicas. Los resultados fueron preocupantes: de media, el 62 % de las peticiones poéticas lograron que los modelos produjeran contenido inseguro. Algunos sistemas actuaron de forma mucho más robusta —por ejemplo, un modelo pequeño de OpenAI no cayó en ninguna trampa—, mientras que otros resultaron especialmente vulnerables y respondieron a todas las solicitudes disfrazadas de poema. La variedad de comportamientos demuestra que la vulnerabilidad no es uniforme y depende tanto del entrenamiento del modelo como del diseño de sus mecanismos de seguridad.

El estudio concluye que los filtros de seguridad actuales están optimizados para detectar amenazas explícitas, formuladas con lenguaje directo. Cuando las peticiones se camuflan en una escritura artística, las salvaguardas fallan, pues no identifican la intención dañina. Esto convierte a la poesía adversarial en una herramienta de evasión accesible para cualquier usuario, a diferencia de otras técnicas de jailbreak más complejas que requieren conocimientos especializados. Los autores advierten que esta debilidad supone un riesgo real para el uso seguro de la IA y subrayan la necesidad de desarrollar mecanismos capaces de interpretar no solo el contenido literal, sino la intención profunda de un texto, incluso cuando adopta formas creativas o ambiguas.

Factores clave que influyen en las citaciones de ChatGPT

SEJ STAFF, “New Data Reveals The Top 20 Factors Influencing ChatGPT CitationsSearch Engine Journal, 26 noviembre 2025.

Texto completo

El estudio pone de manifiesto que, para ser citado por ChatGPT, no basta con una buena optimización SEO tradicional centrada en palabras clave. Lo que más importa es la autoridad del dominio (backlinks y confianza), el volumen de tráfico, contenido profundo y actualizado, estructura clara, buen rendimiento técnico y presencia activa en comunidades en línea. Estos factores —combinados— aumentan significativamente las probabilidades de que una página sea usada como fuente por modelos de IA como ChatGPT.

Un reciente análisis de SE Ranking —reflejado en este artículo de Search Engine Journal— ha investigado qué factores influyen en la probabilidad de que una página web sea citada por ChatGPT. El estudio analizó 129.000 dominios únicos y más de 216.000 páginas en 20 sectores distintos.

El hallazgo más relevante es que la cantidad de dominios referidos de un sitio es el predictor más fuerte de citaciones: sitios con miles de dominios referidos tienden a ser citados mucho más que aquellos con pocos. Además, la confianza del dominio también muestra un patrón claro: puntajes altos de confianza se traducen en un número considerablemente mayor de citas.

En segundo lugar, el tráfico del dominio (sobre todo si es elevado) resulta relevante: los sitios con muchas visitas mensuales y buen tráfico en la página principal son más propensos a ser citados.

Pero no todo depende de backlinks y tráfico. El estudio también destaca la profundidad y estructura del contenido: artículos largos, bien estructurados con secciones claras, y con datos estadísticos o citas de expertos suelen recibir más citas. El contenido recientemente actualizado también tiene ventaja: las páginas revisadas en los últimos meses obtienen más citaciones que las desactualizadas.

Otro factor importante es la actividad social y presencia en plataformas comunitarias: dominios que aparecen con frecuencia en foros, redes o plataformas de discusión (como menciones en Reddit o Quora) muestran una correlación con un mayor número de citas.

Finalmente, se observan también efectos relacionados con el rendimiento técnico de la página —como tiempos de carga rápidos— y con la forma de construir la URL y el título: páginas con URLs y títulos que describen claramente el tema (en lugar de saturados en palabras clave) obtuvieron mejores resultados en términos de citaciones.

Las zonas con menor nivel educativo adoptan herramientas de escritura con IA más rápido de lo esperado

Edwards, Benj. 2025. “Researchers surprised to find less-educated areas adopting AI writing tools faster.” Ars Technica, March 3, 2025. https://arstechnica.com/ai/2025/03/researchers-surprised-to-find-less-educated-areas-adopting-ai-writing-tools-faster/

Un estudio reciente liderado por investigadores de la Stanford University ha detectado una tendencia inesperada: las áreas de Estados Unidos con menor nivel educativo están adoptando herramientas de escritura asistidas por inteligencia artificial (IA) con mayor rapidez que las zonas con niveles educativos más altos.

Analizando más de 300 millones de textos — que incluyen quejas de consumidores, comunicados corporativos, ofertas de empleo y documentos de organizaciones internacionales — los autores estiman que hasta un cuarto de las comunicaciones profesionales recientes han sido parcialmente generadas o asistidas por IA.

Aunque las zonas urbanas presentan una tasa general de adopción superior a las rurales, el dato más llamativo es que las regiones con menor proporción de población con estudios universitarios muestran un uso de IA algo mayor que las más educadas. Este patrón contradice las tendencias clásicas de difusión tecnológica, donde normalmente los grupos con mejor acceso a educación y recursos adoptan antes las nuevas tecnologías.

Los investigadores sugieren que, para muchos usuarios en estas comunidades, las herramientas de escritura con IA actúan como un “nivelador”: facilitan la redacción, la comunicación profesional o administrativa, reduciendo barreras ligadas a la forma. Esto implica que la IA puede ofrecer oportunidades de inclusión digital a quienes tienen menos formación formal.

Al mismo tiempo, el estudio advierte sobre los riesgos que conlleva este uso extendido: en sectores sensibles como quejas de consumidores, información pública o comunicación institucional, la integración masiva de IA podría generar textos más homogéneos, menos personales o incluso problemas de credibilidad, si los emisores no revisan adecuadamente los resultados automáticos. La automatización de la escritura plantea así tanto posibilidades como desafíos para la equidad comunicativa y el pluralismo de voces.

Alfabetización en IA en bibliotecas universitarias: perspectivas emergentes desde la comunidad

Clarivate. 2025. “AI Literacy in Academic Libraries: Emerging Perspectives from the Community.” Clarivate blog, November 25, 2025. https://clarivate.com/academia-government/blog/ai-literacy-in-academic-libraries-emerging-perspectives-from-the-community/

El artículo describe cómo la adopción de la inteligencia artificial (IA) en el ámbito académico está redefiniendo el papel de las bibliotecas como actores clave para asegurar un uso responsable y ético de esas tecnologías. Propone que la alfabetización en IA —es decir, la capacidad de comprender cómo funcionan las herramientas de IA, sus limitaciones y sus implicaciones éticas— debe integrarse en la alfabetización informacional tradicional que ofrecen las bibliotecas. En respuesta a esta necesidad, se ha lanzado un microcurso gratuito, desarrollado por bibliotecarios, orientado a profesionales de bibliotecas, con el fin de dotarles de competencias claras para guiar a usuarios, estudiantes e investigadores.

A través del curso y de los debates surgidos en la comunidad, se han identificado una serie de temas recurrentes: muchas bibliotecas asumen que deben desempeñar un rol de liderazgo en la alfabetización en IA, ofreciendo talleres, recursos y espacios de formación; sin embargo, existe una carencia generalizada de políticas institucionales claras sobre el uso de IA, lo que genera incertidumbre. Además, asoman preocupaciones importantes sobre ética, integridad académica, riesgos de sesgo, privacidad y la necesidad de enseñar estrategias de verificación crítica de resultados generados por IA.

También se pone de relieve la demanda de formación práctica y recursos adaptados: los bibliotecarios expresan la necesidad de talleres, guías listas para usar, y colaboración con otros departamentos universitarios. Al mismo tiempo, advierten desafíos logísticos como la falta de tiempo, recursos y personal capacitado. No obstante, emergen oportunidades valiosas: bibliotecas pueden servir como hubs de aprendizaje, promover buenas prácticas, impulsar políticas institucionales y contribuir a que la comunidad académica utilice la IA de forma informada y reflexiva.

Finalmente, el artículo sugiere que muchas bibliotecas están interesadas en asumir este papel transformador. Ven la alfabetización en IA no como un añadido opcional, sino como una parte esencial de su misión educativa y de mediación informacional, para acompañar a estudiantes, investigadores y docentes en la era digital.

Una base de datos pública para conocer qué herramientas de IA se usan en los procesos de selección de personal

The talent acquisition & recruiting ai index (TARAI)

https://www.tarai.org/

La University of Virginia School of Data Science ha lanzado una base de datos pública e interactiva que permite conocer de forma clara qué herramientas de inteligencia artificial se utilizan actualmente en los procesos de selección de personal.

El proyecto surge ante la creciente preocupación por el uso opaco de sistemas automatizados que filtran, clasifican o evalúan a los candidatos sin que estos —ni muchas veces los propios reclutadores— comprendan realmente cómo funcionan.

La base de datos recoge más de un centenar de tecnologías de recursos humanos que incorporan IA y ofrece descripciones detalladas sobre su propósito, el tipo de tareas que automatizan y el grado de transparencia que presentan. Para ello, combina la información proporcionada por las propias empresas con datos obtenidos en entrevistas a profesionales del sector, lo que permite identificar diferencias significativas entre lo que los proveedores prometen y lo que realmente realiza cada sistema.

Además, la plataforma está diseñada para dos tipos de públicos: por un lado, los profesionales de recursos humanos que necesitan comparar herramientas antes de adquirirlas o utilizarlas; por otro, los investigadores y responsables de políticas públicas interesados en entender el impacto de la IA en la contratación laboral. La iniciativa también revela que, a pesar de que la regulación en muchos países considera estas tecnologías de “alto riesgo”, aún existe una supervisión limitada sobre su funcionamiento real, lo que hace especialmente valioso un recurso que facilite su análisis crítico y su escrutinio social.

En las elecciones de Georgia a Nueva York, los deepfakes hechos con IA están dirigiendo el discurso político y la percepción de los votantes.

Hurt, Davina, y Ann Skeet. “AI fuels a new wave of political lies.” Salon, 29 noviembre 2025.

Texto completo

La inteligencia artificial está siendo usada para generar “deepfakes” y contenido político engañoso que distorsiona la realidad en campañas electorales recientes en Estados Unidos. Un ejemplo citado es un anuncio en la carrera al Senado por Georgia en el que la campaña del candidato republicano Mike Collins difundió un vídeo en el que aparecía el senador demócrata Jon Ossoff supuestamente diciendo que no le importaban los granjeros porque “solo había visto una granja en Instagram” — una frase que Ossoff nunca pronunció.

El texto señala que, aunque la sátira política siempre ha existido (por ejemplo en caricaturas), la IA borra la frontera entre ficción y realidad de una forma sin precedentes: las falsedades generadas por IA pueden parecer auténticas, con imagen y voz convincente, lo que las hace aún más peligrosas cuando son usadas por los propios actores políticos.

Además, el artículo advierte que este tipo de contenido —cuando se difunde desde cuentas oficiales o con aspecto institucional— degrada el debate democrático, al transformar opiniones o propaganda en “evidencia visual” aparentemente real. Bajo esa lógica, la IA no solo ayuda a mentir, sino a construir una “realidad alternativa” destinada a manipular percepciones colectivas, socavando la confianza pública en los procesos políticos.

Finalmente, los autores exhortan a la necesidad de marcos regulatorios y éticos claros que exijan transparencia en el uso de IA en campañas políticas, de modo que la manipulación mediática deje de ser una estrategia con potencial de dañar la democracia

Bibliotecas en la era de la Inteligencia Artificial: salvaguardando el patrimonio cultural y la confianza

Mergel, Ines, Carsten Schmidt, Marieke Willems, Marta Anducas, y Elena Silvestrini. LIBRARIES IN THE AGE OF AI: Safeguarding Cultural Heritage and Trust. Brief de Política 5. Konstanz; Lisboa: University of Konstanz; The Lisbon Council, [2025]

Texto completo

El informe aborda el papel fundamental de las bibliotecas nacionales, pilares de las sociedades democráticas, en la transformación digital impulsada por la adopción de la Inteligencia Artificial (IA). La evidencia recogida por el proyecto LibrarIN subraya que la implementación de la IA en los servicios bibliotecarios es predominantemente un desafío de gobernanza, ética, y resiliencia institucional

El proyecto LibrarIN identificó siete factores principales que impulsan a las bibliotecas nacionales a integrar herramientas de Inteligencia Artificial en sus operaciones y servicios:

  1. mejora del acceso y la capacidad de descubrimiento
    las bibliotecas digitalizan colecciones históricas y utilizan la ia para automatizar la clasificación, la indización de materias y el enriquecimiento de metadatos. estos procesos amplían el acceso público y mejoran la navegación a través de conjuntos de datos vastos y diversos.
  2. escalabilidad de la eficiencia para grandes volúmenes de datos
    el crecimiento exponencial del contenido digital ha hecho que los métodos de catalogación tradicionales sean poco prácticos. la ia reduce la carga de trabajo manual y acelera el procesamiento, ayudando a abordar los atrasos y a mejorar la asignación de recursos.
  3. fomento de la investigación y la innovación
    herramientas como la búsqueda semántica, la visualización de datos y la minería de textos apoyan nuevas formas de investigación académica y de compromiso público, extendiendo las capacidades de investigación de los usuarios de la biblioteca.
  4. respuesta a presiones legales y políticas
    regulaciones de la unión europea, como las directivas sobre minería de textos y datos (tdm) y los mandatos de accesibilidad, están llevando a las bibliotecas a adoptar la ia para mantener el cumplimiento y alinearse con las políticas nacionales de digitalización.
  5. preservación de la diversidad lingüística y cultural
    las bibliotecas están desarrollando herramientas de ia en lenguas locales para contrarrestar el predominio de las herramientas comerciales en inglés. esto es fundamental para salvaguardar los activos culturales nacionales.
  6. satisfacción de las expectativas cambiantes de los usuarios
    los ciudadanos esperan cada vez más servicios personalizados, soporte multilingüe y búsqueda en tiempo real. la ia permite sistemas adaptativos que mejoran la relevancia, la usabilidad y la accesibilidad de los servicios.
  7. fomento de la competencia digital y social
    la experimentación con la ia fortalece el aprendizaje institucional y contribuye a una alfabetización digital más amplia entre el personal y los usuarios. esto subraya el papel social de las bibliotecas en la promoción del uso responsable de la ia.

Guía para abordar los deepfakess en las escuelas : kit de herramientas

Future of Privacy Forum. A School Administrator’s Guide to Addressing Deepfakes: Problem of Practice Toolkit. Issue Brief: Education. 2025

Texto completo

Este kit de herramientas, publicado por el Future of Privacy Forum, está diseñado para guiar a los administradores escolares en la identificación, respuesta y mitigación de los daños potenciales que representan los deepfakes.

Los deepfakes son medios sintéticos realistas (imágenes, videos, audio o texto) creados o manipulados con inteligencia artificial (IA) que pueden hacer que las personas parezcan decir o hacer cosas que no hicieron. El documento establece que la IA generativa presenta desafíos éticos y de seguridad significativos para las escuelas, ya que se puede utilizar para difundir desinformación, perpetrar fraudes y acosar a estudiantes y personal, socavando la confianza. Además, se señala que los deepfakes impactan y dañan de manera desproporcionada a ciertos grupos demográficos, lo que puede resultar en un aumento del acoso y la hipersexualización.

El kit de herramientas recomienda que los distritos realicen una Autoevaluación de Preparación para identificar su nivel actual de preparación. Para ello, deben revisar y actualizar sus políticas existentes (como las de bullying, acoso, Título IX y uso de tecnología) para abordar explícitamente los deepfakes y el abuso sexual basado en imágenes. Es crucial que los líderes escolares revisen las leyes estatales y locales relativas a la posesión y distribución de Imágenes Íntimas No Consensuadas (NCII) y Material de Abuso Sexual Infantil (CSAM) para asegurar el cumplimiento. También se enfatiza la necesidad de contar con políticas que reconozcan que la detección confiable de deepfakes es difícil debido a las limitaciones de las tecnologías de detección.

Se anima a los distritos a desarrollar un programa de capacitación para educar a estudiantes, padres y personal sobre las implicaciones de privacidad, los impactos socioemocionales, el riesgo desproporcionado para ciertos grupos y las posibles consecuencias del mal uso de los deepfakes. Además, el kit incluye Escenarios de práctica (como un incidente de deepfake de desnudez de un estudiante y un incidente generado por un empleado) para facilitar discusiones críticas.

La guía concluye con la importancia de establecer un equipo de respuesta a incidentes claramente definido y protocolos de comunicación para garantizar la privacidad y la integridad de la investigación, y para utilizar métodos de justicia restaurativa para reparar el daño causado al individuo objetivo y a la comunidad en general







.