Archivo de la etiqueta: Inteligencia artificial

La inteligencia artificial confirma que La Madonna de la Rosa no fue pintada únicamente por Rafael

BGR Staff. “AI Confirmed a Raphael Masterpiece Wasn’t Painted by the Famous Artist Alone.BGR, May 1, 2025. https://bgr.com/tech/ai-confirmed-a-raphael-masterpiece-wasnt-painted-by-the-famous-artist-alone/

Un análisis reciente utilizando inteligencia artificial ha confirmado que la famosa pintura Madonna della Rosa, atribuida a Rafael, no fue realizada exclusivamente por el maestro renacentista. Investigadores del Reino Unido y Estados Unidos emplearon un algoritmo personalizado, basado en la arquitectura ResNet50 de Microsoft y técnicas de aprendizaje automático, para analizar detalladamente las características estilísticas de la obra. Este estudio reveló que, aunque tres de los rostros en la pintura coinciden con el estilo de Rafael, el rostro de San José, ubicado en la esquina superior izquierda, presenta diferencias significativas, lo que sugiere que fue pintado por otro artista, posiblemente uno de sus colaboradores cercanos.

La pintura, realizada entre 1518 y 1520, ha sido objeto de debate desde mediados del siglo XIX respecto a su autoría completa. Aunque la inteligencia artificial no puede identificar con certeza al autor del rostro de San José, su análisis proporciona una nueva perspectiva sobre la colaboración en obras maestras del Renacimiento

Este estudio destaca cómo las herramientas modernas de inteligencia artificial pueden ofrecer datos valiosos en el campo del análisis artístico, permitiendo una comprensión más profunda de las técnicas y colaboraciones en obras históricas.

¿Por qué ChatGPT utiliza frecuentemente la palabra ¿delve»?: explorando las fuentes de sobrerrepresentación léxica en grandes modelos lingüísticos

Juzek, T. S., & Ward, Z. B. (2024). Why does ChatGPT “delve” so much? Exploring the sources of lexical overrepresentation in large language models [Preprint]. arXiv. https://arxiv.org/abs/2412.11385

El investigador Jeremy Nguyen, de la Universidad de Tecnología Swinburne (Australia), ha calculado que delve ya aparece en más del 0,5% de los estudios médicos, cuando antes de ChatGPT no llegaba al 0,04%. La sobrerrepresentación léxica causada por los LLMs es un fenómeno real y relevante para el futuro del lenguaje científico. Entender sus causas es clave para usar estos modelos de manera más consciente y crítica.

El inglés científico está cambiando rápidamente. Palabras como “delve” (profundizar), “intricate” (complejo) o “underscore” (destacar) aparecen mucho más en los textos científicos actuales que hace unos años. Muchas personas creen que este cambio se debe al uso generalizado de modelos de lenguaje de gran escala (LLMs) como ChatGPT para escribir artículos académicos. Este estudio busca entender por qué ocurre este fenómeno, al que los autores llaman «sobrerrepresentación léxica» (lexical overrepresentation): ¿por qué ciertas palabras se usan demasiado en los textos generados con IA?

Para ello, los autores diseñaron un método formal y transferible para detectar qué palabras han aumentado notablemente su frecuencia en textos científicos, especialmente en resúmenes de artículos. Usando esta metodología, identifican 21 palabras clave cuya aparición frecuente probablemente se debe al uso de LLMs.

Una vez identificadas esas palabras, surge la gran pregunta del artículo:
¿Por qué los modelos como ChatGPT tienden a usar tanto esas palabras concretas?

Los autores exploran varias posibles causas:

  • ¿Es culpa de la arquitectura del modelo o del algoritmo usado?
    No encuentran evidencia de que el diseño técnico del modelo explique el uso excesivo.
  • ¿Se debe al tipo de datos con los que se entrena el modelo?
  • ¿Influye el aprendizaje por refuerzo con retroalimentación humana (RLHF)?

El estudio muestra que los LLMs están influyendo de forma clara en el lenguaje científico actual, incluso generando modas lingüísticas. Sin embargo, todavía no está claro por qué ciertas palabras sean usadas en exceso.

Este fenómeno plantea riesgos, porque puede dar lugar a un lenguaje académico artificial, repetitivo o menos preciso. Además, los autores alertan de que la falta de transparencia en el desarrollo de los modelos de IA limita la investigación sobre cómo y por qué ocurren estos cambios.

Litmaps:  herramienta IA para visualizar y rastrear la evolución de la investigación académica a través de mapas de citas.

Litmaps

Acceder

Litmaps es una solución innovadora para gestionar el conocimiento académico, descubrir nuevas conexiones entre investigaciones y mantener al día el seguimiento de publicaciones recientes. Ideal tanto para estudiantes como para investigadores consolidados, su uso puede marcar la diferencia a la hora de elaborar una revisión exhaustiva, preparar un artículo o simplemente organizar la información científica de manera visual y eficaz.

Litmaps es una herramienta digital diseñada para ayudar a investigadores, académicos y estudiantes a explorar, visualizar y gestionar literatura científica de manera más eficiente. Su principal utilidad radica en la creación de mapas conceptuales interactivos que muestran visualmente cómo están conectados diferentes artículos académicos mediante citas y referencias. Esto permite comprender la evolución de un campo de estudio y detectar relaciones clave entre investigaciones que, de otro modo, podrían pasar desapercibidas.

Una de sus funciones más destacadas es el descubrimiento automático de literatura relacionada. A partir de los artículos que el usuario incorpora en su mapa, Litmaps sugiere nuevas publicaciones relevantes, lo que facilita la ampliación de la revisión bibliográfica sin necesidad de realizar múltiples búsquedas manuales en distintas bases de datos. Además, ofrece la posibilidad de seguir temas de interés, de manera que se reciben notificaciones cuando se publican trabajos nuevos sobre el área específica que se está investigando.

Litmaps también permite organizar la información de forma clara. Los usuarios pueden agrupar artículos por temas, añadir etiquetas y notas personalizadas, lo que resulta especialmente útil para estructurar trabajos académicos como tesis, artículos científicos o presentaciones. Otra ventaja importante es su función colaborativa: los mapas pueden compartirse con otros investigadores o compañeros de equipo, lo que facilita el trabajo en grupo y la coordinación en proyectos conjuntos.

Esta plataforma funciona directamente desde el navegador y es compatible con herramientas como Zotero, Mendeley o archivos BibTeX, lo que permite importar bibliografía con facilidad. Litmaps ofrece una versión gratuita con funciones básicas y opciones de pago que habilitan características más avanzadas como mapas ilimitados o descubrimiento extendido.

Ninguna IA supo predecir que Prevost iba a ser el nuevo Papa de la Iglesia Católica

Un artículo de Euronews analizó las predicciones de diversos chatbots de inteligencia artificial sobre quién sería el próximo Papa tras el fallecimiento de Francisco. Modelos como ChatGPT, Gemini, Grok-2 y DeepSeek fueron consultados para conocer sus opiniones sobre el sucesor del Pontífice. Aunque como vemos las IA no pueden predecir eventos futuros con certeza, aunque sus respuestas ofrecen una visión interesante sobre las tendencias actuales en la Iglesia Católica

La mayoría de las IA consultadas antes del cónclave apostaban por otros cardenales, como Pietro Parolin, Luis Antonio Tagle o Matteo Zuppi . La sorpresa fue aún mayor porque Prevost, un agustino estadounidense de 69 años con una carrera misionera en Perú, tenía una probabilidad estimada de apenas el 2% en los mercados de predicción

Según los chatbots, el cardenal filipino Luis Antonio Tagle era uno de los favoritos para asumir el papado. Su perfil destacaba por su juventud, su apoyo al Papa Francisco y su proyección internacional. Sin embargo, algunos modelos señalaron que su edad podría ser un factor en contra para asumir un cargo de tanta responsabilidad.

Otro nombre que dieron las predicciones fue el del cardenal italiano Pietro Parolin, actual Secretario de Estado del Vaticano. Su experiencia administrativa y diplomática lo posicionaban como un candidato sólido para liderar la Iglesia en tiempos de desafíos institucionales.

Además de estos dos, otros cardenales como Matteo Zuppi, Jean-Claude Hollerich y Jean-Marc Aveline también fueron mencionados por las IA como posibles sucesores. Cada uno con características podrían contribuir a una visión renovada o continuista de la Iglesia.

En conclusión, se puede decir que aunque la inteligencia artificial puede analizar datos y tendencias, no fue capaz de predecir con precisión la elección de Robert Prevost como Papa. Su elección fue una sorpresa para muchos, incluidos los sistemas de IA.

Informe de la Oficina de Copyright de EE. UU. sobre Inteligencia Artificial y Derechos de Autor

U.S. Copyright Office. 2025. Copyright and Artificial Intelligence. Washington, D.C.: U.S. Copyright Office. https://www.copyright.gov/ai/

Desde principios de 2023, la Oficina de Copyright de EE. UU. ha estado analizando los desafíos legales y políticos que plantea la inteligencia artificial (IA), especialmente en relación con los derechos de autor sobre obras generadas por IA y el uso de materiales protegidos en el entrenamiento de estos sistemas. Tras realizar sesiones públicas y seminarios, en agosto de 2023 publicó una convocatoria de comentarios en el Federal Register, que recibió más de 10.000 aportaciones hasta diciembre.

Como resultado, la Oficina está publicando un informe dividido en varias partes, bajo el título Copyright and Artificial Intelligence, que analiza estos temas:

  • Parte 1 (publicada el 31 de julio de 2024): aborda las réplicas digitales.
  • Parte 2 (publicada el 29 de enero de 2025): examina la posibilidad de otorgar derechos de autor a los productos generados mediante IA generativa.
  • Parte 3 (versión preliminar publicada el 9 de mayo de 2025): responde a preguntas del Congreso y al interés de distintos actores. Se espera una versión final próximamente, sin cambios sustanciales.

Cómo hacer una revisión de la literatura con Elicit plataforma de IA

Hacer una revisión de la literatura con Elicit, una plataforma de inteligencia artificial para investigación académica, es un proceso ágil que combina búsqueda semántica, organización automatizada y extracción de información clave. A continuación, te explico cómo hacerlo paso a paso:


🔍 1. Accede a Elicit

  • Ve a: https://elicit.com
  • Puedes registrarte con tu cuenta de Google (es gratuito para funciones básicas).

📚 2. Elige el tipo de búsqueda

Tienes dos opciones principales:

a) Find Papers (Buscar artículos)

  • Ideal para una búsqueda rápida.
  • Te da hasta 8 artículos relevantes en segundos, junto con un resumen.
  • Recomendado si estás empezando o necesitas una visión general.

b) Systematic Review / Elicit Report

  • Genera una revisión más extensa con hasta 500 artículos.
  • Clasifica y explica la relevancia de cada resultado.
  • Puede tardar varios minutos, pero es muy útil para revisiones de literatura más completas.

✏️ 3. Formula tu pregunta de investigación

Ejemplo:

  • “What are the effects of music therapy on Alzheimer’s patients?”
  • “How does artificial intelligence impact library services?”

Elicit interpreta el significado (semántica) de tu pregunta, no solo palabras clave, por lo que puedes escribirla de forma natural.


📄 4. Explora los resultados

Elicit te mostrará:

  • Título, autores, año y resumen de cada artículo.
  • Información adicional como población estudiada, resultados clave, metodología, etc. (en columnas).
  • Puedes agregar columnas específicas, por ejemplo: outcomes, methods, sample size.

📁 5. Filtra, selecciona y exporta

  • Marca los artículos más relevantes para tu revisión.
  • Puedes exportar los datos en CSV o copiar directamente a tu procesador de textos o gestor bibliográfico.
  • Si hay PDF disponible, puedes acceder desde Elicit directamente.

⚠️ 6. Ten en cuenta sus limitaciones

  • Elicit no reemplaza por completo a bases de datos tradicionales como Scopus o Web of Science.
  • Los artículos que no están en acceso abierto pueden aparecer solo con resumen.
  • Conviene verificar la calidad y pertinencia de las fuentes encontradas.

Recomendaciones finales

  • Usa Find Papers para explorar, y Elicit Report para profundizar.
  • Combina Elicit con otras fuentes bibliográficas para mayor cobertura.
  • Añade citas manualmente si vas a incluir los artículos en tu trabajo académico.

La plataforma científica de IA Elicit incorpora la búsqueda semántica

Elicit

https://elicit.com/

Elicit utiliza un sistema de búsqueda semántica, lo que significa que no se limita a buscar palabras clave, sino que interpreta la intención de la consulta del usuario. Gracias a esto, puede encontrar artículos relevantes que podrían no aparecer en buscadores tradicionales como PubMed o Google Scholar. Esta forma de búsqueda permite obtener resultados más precisos y útiles para investigaciones complejas o preguntas abiertas.

Elicit es una herramienta de inteligencia artificial diseñada para ayudar en la búsqueda, análisis y síntesis de información científica. Su objetivo principal es facilitar el trabajo de investigadores, estudiantes y profesionales que necesitan encontrar artículos académicos relevantes y resumir evidencias de forma rápida y eficiente.

Existen dos formas principales de buscar artículos en Elicit: Systematic Review/Reports y Find Papers. La primera opción, Systematic Review/Reports, ofrece hasta 500 resultados y analiza detalladamente la relevancia de cada uno en relación con la consulta realizada, aunque el proceso puede tardar varios minutos. En cambio, Find Papers devuelve hasta 8 artículos relevantes acompañados de un resumen, y lo hace en pocos segundos. Por eso, se recomienda usar Find Papers para búsquedas rápidas y Systematic Review/Reports para revisiones más exhaustivas.

Elicit accede a una base de datos con más de 126 millones de artículos académicos procedentes del corpus de Semantic Scholar, que abarca todas las disciplinas académicas. Incluye publicaciones de revistas reconocidas como PubMed, JAMA, BMJ, Nature y Science, entre muchas otras. Esto permite que sus resultados sean amplios y multidisciplinares.

Cuando el PDF del artículo está disponible, Elicit permite acceder a él directamente haciendo clic en el título. Sin embargo, si el texto completo no está disponible por ser un artículo de acceso restringido, el sistema se basa en el resumen para ofrecer respuestas o generar análisis. Elicit no se limita a artículos de acceso abierto, aunque da prioridad al contenido completo cuando puede acceder a él.

Es importante tener en cuenta que Elicit no reemplaza completamente las búsquedas tradicionales en bases de datos para revisiones sistemáticas. Se recomienda como una herramienta complementaria que puede ayudar a descubrir trabajos que no aparecerían en búsquedas por palabras clave. Así, se convierte en un aliado útil tanto para investigadores como para estudiantes que buscan una visión más completa de un tema.

ChatGPT se vuelve más inteligente, pero también más propenso a alucinar

Schwartz, Eric Hal. “ChatGPT Is Getting Smarter, but Its Hallucinations Are Spiraling.” TechRadar, 7 de mayo de 2025. https://www.techradar.com/computing/artificial-intelligence/chatgpt-is-getting-smarter-but-its-hallucinations-are-spiraling.

Un reciente informe de The New York Times, basado en investigaciones de la propia OpenAI, revela una paradoja inquietante en la evolución de la inteligencia artificial generativa: a medida que los modelos de lenguaje como ChatGPT se vuelven más sofisticados y “razonan” mejor, también cometen más errores graves en forma de alucinaciones.

Las alucinaciones consisten en la generación de datos falsos, hechos inexistentes o afirmaciones engañosas expresadas con total confianza, lo que compromete seriamente la fiabilidad del sistema.

Los modelos más nuevos —GPT-0.3 y GPT-0.4-mini— han sido diseñados para emular procesos de razonamiento humano, superando a versiones anteriores enfocadas en la mera generación fluida de texto. OpenAI presumía de que su modelo GPT-0.1 podía igualar o superar a estudiantes de doctorado en química, biología o matemáticas. Sin embargo, los nuevos datos contradicen esta promesa en aspectos clave de precisión.

Cuando se evaluó a GPT-0.3 en una prueba sobre figuras públicas, se detectaron alucinaciones en un tercio de las respuestas, duplicando los errores del modelo anterior. El modelo GPT-0.4-mini mostró aún peores resultados, alucinando en el 48 % de los casos. En otro test de conocimientos generales (SimpleQA), los errores se dispararon: 51 % para GPT-0.3 y un alarmante 79 % para GPT-0.4-mini.

Este patrón sugiere que los modelos más avanzados, al intentar analizar información de manera más profunda y generar respuestas complejas, tienden también a “improvisar” con mayor frecuencia, lo que se traduce en un incremento de datos inventados. A diferencia de modelos más simples que solo repiten datos conocidos, estos nuevos sistemas exploran caminos especulativos y, en ocasiones, cruzan la línea entre la deducción válida y la fantasía sin fundamento.

Aunque OpenAI matiza que esta tendencia no implica necesariamente que los nuevos modelos sean peores —argumentando que simplemente son más creativos—, el hecho es que esa creatividad puede resultar peligrosa. Ya existen casos reales de errores generados por IA que han tenido consecuencias legales, como abogados que presentaron citas judiciales inventadas por ChatGPT.

A medida que estas herramientas se introducen en ámbitos como la educación, el trabajo administrativo, la sanidad o la gestión pública, la posibilidad de que una alucinación cause un error grave crece de forma proporcional. Aunque GPT-0.3 ha demostrado logros impresionantes en codificación y resolución de problemas lógicos, su credibilidad se desmorona si afirma con seguridad que Abraham Lincoln tenía un pódcast o que el agua hierve a 80°F.

En definitiva, estamos ante un dilema: cuanto más útil y versátil es una IA, menos margen hay para el error. La promesa de ahorrar tiempo y esfuerzo se ve anulada si el usuario debe verificar constantemente cada respuesta. Hasta que no se solucionen estos problemas de fiabilidad, es imprescindible usar estas herramientas con escepticismo y sentido crítico.

Actitudes hacia la IA 2024 revela que investigadores y clínicos creen en el potencial de la IA pero exigen transparencia para confiar en las herramientas

Elsevier. «The Insights 2024: Attitudes toward AI Report Reveals Researchers and Clinicians Believe in AI’s Potential but Demand Transparency in Order to Trust Tools.» 9 de julio de 2024.

Informe

Ver infografía

El estudio de Elsevier subraya que, aunque existe un reconocimiento generalizado del potencial de la IA para transformar la investigación y la atención médica, su adopción efectiva depende de abordar preocupaciones clave relacionadas con la transparencia, la calidad del contenido y la confianza en las herramientas. Para que la IA sea plenamente aceptada e integrada en estos campos, es esencial garantizar que las herramientas sean desarrolladas y utilizadas de manera ética y responsable

El informe «Insights 2024: Actitudes hacia la IA» de Elsevier ofrece una visión detallada sobre cómo investigadores y profesionales de la salud perciben la inteligencia artificial (IA) en sus campos. Basado en una encuesta a 3,000 participantes de 123 países, el estudio revela tanto el entusiasmo por las oportunidades que brinda la IA como las preocupaciones que genera su implementación.

Potencial percibido de la IA

Una mayoría significativa de investigadores (94%) y clínicos (96%) cree que la IA puede acelerar el descubrimiento de conocimientos. Además, el 92% de ambos grupos anticipa que la IA aumentará rápidamente el volumen de investigaciones académicas y médicas, así como generará ahorros de costos para instituciones y empresas. El 87% considera que la IA mejorará la calidad general del trabajo, y el 85% piensa que liberará tiempo para enfocarse en proyectos de mayor valor

Preocupaciones sobre la desinformación y la confianza

A pesar del optimismo, existen inquietudes significativas. El 95% de los investigadores y el 93% de los clínicos temen que la IA se utilice para difundir desinformación. Asimismo, el 86% de los investigadores y el 85% de los clínicos creen que la IA podría causar errores críticos, y una proporción similar expresa preocupación por el debilitamiento del pensamiento crítico debido a la dependencia excesiva de estas herramientas

Necesidad de transparencia y contenido confiable

Los encuestados enfatizan la importancia de que las herramientas de IA se basen en contenido de alta calidad y confianza. El 71% espera que los resultados de herramientas dependientes de IA generativa se basen únicamente en fuentes confiables. Además, si las herramientas de IA están respaldadas por contenido confiable, controles de calidad y principios de IA responsable, el 89% de los investigadores las utilizaría para generar síntesis de artículos, y el 94% de los clínicos las emplearía para evaluar síntomas e identificar condiciones o enfermedades

Variaciones geográficas en la adopción de la IA

El informe también destaca diferencias regionales en la familiaridad y uso de la IA. Por ejemplo, en China, el 39% de los encuestados ha utilizado activamente la IA para propósitos laborales, mientras que en India esta cifra es del 22%. Solo el 11% de los participantes se considera muy familiarizado con la IA o la utiliza con frecuencia. Sin embargo, el 67% de quienes no han utilizado la IA esperan hacerlo en los próximos dos a cinco años, con China (83%) e India (79%) superando significativamente a EE. UU. (53%) en estas expectativas .

Situación de la Alfabetización en Inteligencia Artificial en bibliotecas universitarias

Lo, Leo S. The State of AI Literacy in Academic Libraries: A Follow-up Study of Barriers and Opportunities. University of New Mexico, 2026. https://digitalrepository.unm.edu/ulls_fsp/215

El artículo presenta los resultados de una encuesta de seguimiento a nivel nacional en EE. UU. sobre la alfabetización en inteligencia artificial (IA) en bibliotecas universitarias, realizada tres años después del estudio original de 2020. El objetivo es evaluar cómo han cambiado las percepciones, conocimientos, programas y roles de las bibliotecas respecto a la IA, dada su creciente adopción en la sociedad y en el entorno educativo.

Se examina cómo ha evolucionado la alfabetización en inteligencia artificial (IA) entre el personal de bibliotecas universitarias en Estados Unidos entre 2023 y 2024. Esta investigación de seguimiento, realizada por Leo S. Lo, se basa en una encuesta longitudinal que evalúa el conocimiento técnico, las habilidades prácticas, la conciencia ética, el pensamiento crítico y el impacto social de la IA. El estudio aplica el marco TPACK (Technological Pedagogical Content Knowledge), lo que permite analizar la integración efectiva de la tecnología en las prácticas profesionales del personal bibliotecario. A diferencia del estudio de referencia de 2024, esta nueva investigación ofrece una perspectiva dinámica que permite observar tendencias, avances y persistencias en el desarrollo de competencias vinculadas con la IA.

Uno de los principales hallazgos es que, aunque se ha incrementado el conocimiento general sobre la IA, el desarrollo de habilidades más profundas sigue siendo desigual. El entendimiento medio de los conceptos de IA creció de 2.96 a 3.34 en una escala de 1 a 5, y la familiaridad con herramientas de IA generativa como ChatGPT también mostró un crecimiento notable. No obstante, este progreso se dio de manera desigual entre diferentes roles y niveles de experiencia profesional, siendo los grupos con menos años en la profesión y los empleados administrativos quienes mostraron los avances más significativos. En términos de herramientas, ChatGPT se consolidó como la más utilizada tanto en el ámbito profesional como personal.

Un dato llamativo es que la participación en programas de formación en IA no resultó en mejoras estadísticamente significativas en la alfabetización en IA. Los participantes que recibieron capacitación no mostraron diferencias destacables en comprensión, uso de herramientas ni confianza ética respecto a quienes no se formaron. En cambio, sí se evidenció una mejora clara y significativa entre quienes tenían acceso a versiones premium de herramientas de IA. Estas personas demostraron mayor comprensión, familiaridad, frecuencia de uso y confianza para aplicar IA en su trabajo, lo cual sugiere que la experiencia práctica con herramientas potentes tiene más impacto que los programas de formación aislados.

El estudio también indaga en las barreras persistentes para el desarrollo de la alfabetización en IA. Entre los principales obstáculos se encuentran la falta de acceso a herramientas de pago, la escasez de oportunidades de formación estructurada, las dificultades de gestión del tiempo y la resistencia institucional al cambio. Asimismo, se identificaron barreras personales como la ansiedad tecnológica o la inseguridad frente a la adopción de nuevas tecnologías. Estas limitaciones afectan especialmente a instituciones con menos recursos y a profesionales en etapas tempranas de sus carreras.

Las conclusiones del estudio destacan que no basta con ofrecer talleres ocasionales o suscripciones a herramientas: es necesario un enfoque holístico que combine formación práctica, acceso equitativo a tecnologías, tiempo protegido para la experimentación y apoyo institucional. Las bibliotecas que logren integrar estas condiciones en su cultura organizativa estarán mejor preparadas para afrontar los desafíos y aprovechar las oportunidades que ofrece la IA. Finalmente, el artículo recomienda implementar políticas institucionales claras, desarrollar marcos éticos de uso de la IA y fomentar comunidades de aprendizaje que incluyan formación continua y mentoría.

Conclusiones clave:

Incremento general en la alfabetización en IA:
Entre 2023 y 2024, los empleados de bibliotecas universitarias mejoraron significativamente su comprensión de los conceptos de IA y su familiaridad con herramientas como ChatGPT. Sin embargo, el avance se concentró en un nivel básico o intermedio, no en habilidades avanzadas.

El acceso a herramientas premium es clave:
Los participantes que pagaron por herramientas de IA (como ChatGPT Plus) mostraron mejoras estadísticamente significativas en comprensión, uso y confianza. Esto indica que la práctica directa con tecnología avanzada favorece el desarrollo de la alfabetización en IA más que otros factores.

La formación actual no es suficiente:
La participación en programas de formación o desarrollo profesional en IA no produjo mejoras significativas en los niveles de alfabetización. Esto sugiere que los cursos ofrecidos hasta ahora son demasiado generales, teóricos o desconectados de la práctica real.

Persisten barreras estructurales:
La falta de acceso a recursos, la escasez de tiempo para el aprendizaje, la ausencia de apoyo institucional y la resistencia al cambio continúan frenando la alfabetización en IA, especialmente en instituciones con menos recursos y entre profesionales con menos experiencia.

Necesidad de un enfoque holístico:
No basta con ofrecer acceso o formación por separado. Las iniciativas exitosas deben integrar capacitación práctica, acceso equitativo a herramientas, tiempo para experimentar y un entorno institucional que promueva la innovación tecnológica.

Cambio de actitud hacia la IA:
Aumentó la percepción positiva sobre el potencial de la IA para mejorar los servicios bibliotecarios. Esta actitud más receptiva es un factor favorable para impulsar futuras iniciativas.

Recomendación final:
Las bibliotecas universitarias deben adoptar estrategias coordinadas que combinen recursos tecnológicos, formación continua y cultura organizacional abierta al cambio para lograr una alfabetización efectiva y sostenida en IA.