Se exploran las percepciones, experiencias y necesidades de formación de los trabajadores de bibliotecas universitarias de Ontario en relación con la inteligencia artificial (IA) y el aprendizaje automático.
El estudio se desarrolló entre el 14 y el 30 de mayo de 2025 mediante un cuestionario cualitativo distribuido a través de canales de comunicación de OCUL y Scholars Portal. La encuesta recibió 247 respuestas válidas, lo que representa aproximadamente un 8 % del personal de las bibliotecas miembros.
Los resultados muestran un panorama mixto: el 51 % de los encuestados declaró sentirse extremadamente o moderadamente familiarizado con la IA, aunque solo un 16 % la utiliza más allá de herramientas populares como ChatGPT o Microsoft Copilot. Además, un 28 % de los participantes afirmó no emplear ninguna herramienta de IA, en muchos casos manifestando actitudes críticas o preocupaciones sobre su madurez tecnológica, los costos y el posible impacto en los puestos de trabajo. Por otro lado, quienes sí integran la IA en su labor la emplean para tareas administrativas, análisis de datos, comunicación estratégica, mejora de metadatos, programación y apoyo a la investigación de usuarios. Entre las herramientas citadas, además de ChatGPT y Copilot, destacan Gemini, Scopus AI, Web of Science AI, Perplexity y Github Copilot.
El informe también recoge una fuerte demanda de desarrollo profesional. Los participantes señalaron intereses en áreas como prompt engineering, evaluación de herramientas, ética y privacidad, integración en flujos de investigación, generación de metadatos y aplicaciones pedagógicas. Sin embargo, emergieron dos grandes obstáculos: el tiempo y la capacidad. Muchos trabajadores expresaron la dificultad de mantenerse actualizados en un campo en rápida evolución, así como la tensión entre los beneficios potenciales de la IA y la carga laboral existente.
Entre las recomendaciones, el informe sugiere crear un repositorio compartido de recursos y guías, garantizar tiempo y financiación para la capacitación, establecer grupos de trabajo para evaluar herramientas específicas, redactar lineamientos sobre el uso ético de la IA y promover casos de uso que muestren cómo la tecnología puede complementar —y no sustituir— el trabajo humano. Finalmente, plantea la necesidad de estudios más profundos y de seguimiento, incluyendo grupos focales y programas de capacitación, para dar forma a una estrategia más sólida de incorporación de la IA en las bibliotecas universitarias de Ontario.
El sondeo de WCET 2025 muestra que la IA está transformando la educación superior, especialmente en enseñanza, aprendizaje y evaluación. Destaca oportunidades en eficiencia e innovación, pero también riesgos como la brecha digital y la obsolescencia de programas tradicionales. El informe propone diez recomendaciones para una integración ética, equitativa y estratégica de la IA en las instituciones.
Desde hace apenas dos años, la adopción de herramientas de inteligencia artificial (IA) generativa ha comenzado a reformar profundamente la educación superior. El segundo sondeo de WCET, realizado en 2025 tras el inicial en 2023, revela que la incorporación de la IA ya no es una opción que se pueda postergar: muchas instituciones han iniciado procesos de integración, mayoritariamente en áreas como la enseñanza y el aprendizaje, pero también en operaciones y gobernanza. Este cambio refleja un movimiento decidido hacia una transformación estructural, más allá de los temores iniciales sobre la integridad académica.
En el ámbito pedagógico, la IA está redefiniendo tareas académicas: desde la creación y edición de contenidos hasta el diseño curricular, la herramienta se posiciona como un acelerador de eficiencia y productividad. Asimismo, se proyecta una innovación significativa en los métodos de evaluación: en lugar de valorar solamente productos finales, se prioriza el proceso de aprendizaje en sí, aprovechando la IA para analizar cómo interactúan los estudiantes con estas herramientas y obtener comprensión sobre su pensamiento crítico. Esta tendencia podría desplazar gradualmente el énfasis hacia habilidades orales y habilidades prácticas por encima del peso tradicional de los títulos.
No obstante, el informe subraya desafíos persistentes: la brecha digital y el riesgo de que los programas tradicionales queden obsoletos son preocupaciones centrales. Ante un mercado laboral cambiante, donde las competencias podrían prevalecer sobre los diplomas, las instituciones enfrentan el imperativo de garantizar un acceso justo a tecnologías de IA, y al mismo tiempo preparar estudiantes para un entorno donde las habilidades, más que los credenciales, conducirán al éxito profesional.
Para orientar esta transformación, el sondeo ofrece diez recomendaciones prácticas (actionable recommendations):
Crear políticas claras respecto al uso de IA.
Invertir en formación para alfabetización y fluidez en IA.
Establecer estructuras de apoyo institucionales.
Ofrecer incentivos para uso responsable e innovador.
Coordinar el uso de IA en el currículo.
Abordar desafíos de manera proactiva.
Promover un uso ético y equitativo de la IA.
Expandir la formación dirigida a estudiantes.
Emplear IA para mejorar la eficiencia operativa.
Fomentar la experimentación institucional
El documento insta a un paso decisivo del conocimiento a la acción: las instituciones de educación superior deben diseñar estrategias deliberadas que combinen ética, equidad y sostenibilidad para integrar la IA como una aliada de su misión centrada en el ser humano. Solo así podrán transformar la educación de forma responsable, sin que la tecnología reemplace, sino que complemente y potencie lo esencial del aprendizaje.
Li, Ning; Zhang, Jingran; Cui, Justin. ArXivBench: When You Should Avoid Using ChatGPT for Academic Writing. arXiv preprint (v2), 7 de agosto de 2025. arXiv:2504.10496 [cs.IR]. https://arxiv.org/html/2504.10496v2
Los modelos de lenguaje a gran escala (LLMs) han mostrado capacidades impresionantes en razonamiento, pregunta-respuesta y generación de texto, pero su tendencia a generar contenido erróneo o referencias falsas sigue siendo una preocupación crítica en entornos académicos rigurosos. El artículo se enfoca en evaluar qué tan fiables son estos modelos al generar referencias académicas, concretamente enlaces a artículos en arXiv.
El artículo presenta ArXivBench, un banco de pruebas diseñado para evaluar la fiabilidad de los modelos de lenguaje a gran escala (LLMs) al generar referencias y enlaces a artículos académicos en arXiv. Los autores parten de la preocupación por el uso creciente de LLMs en redacción académica, donde su capacidad para producir contenido coherente y persuasivo no siempre va acompañada de precisión factual. En particular, señalan el riesgo de que los modelos generen referencias inventadas o incorrectas, lo que compromete la integridad de un trabajo de investigación.
Para abordar este problema, ArXivBench reúne un conjunto de 6.500 prompts que cubren trece áreas temáticas dentro de la informática, organizadas en ocho categorías y cinco subcampos. La herramienta incluye un flujo de trabajo automatizado para generar nuevos prompts y un sistema de evaluación que permite medir el rendimiento de diferentes modelos sin recurrir a técnicas de recuperación aumentada (RAG), evaluando así sus capacidades “de fábrica”. Se probaron quince modelos, tanto de código abierto como propietarios, analizando su precisión al proporcionar enlaces correctos y contenido relevante.
Los resultados muestran que el rendimiento varía de forma significativa según la disciplina. El subcampo de inteligencia artificial es donde los modelos ofrecen mejores resultados, mientras que en otras áreas las tasas de error son más elevadas. Entre los modelos evaluados, Claude-3.5-Sonnet destacó por su capacidad para generar respuestas relevantes y referencias exactas, superando de forma consistente a otros competidores.
Los autores concluyen que, si bien los LLMs pueden ser útiles en ciertas fases del trabajo académico, no son aún herramientas plenamente fiables para la generación de referencias académicas, especialmente en áreas menos cubiertas por sus datos de entrenamiento. ArXivBench se propone así como un instrumento para medir y mejorar la fiabilidad de estos sistemas, ofreciendo datos comparativos que orienten tanto a investigadores como a desarrolladores hacia un uso más responsable y fundamentado de la inteligencia artificial en la producción científica.
En contraste con muchas instituciones occidentales que aún ven la IA como una amenaza, las universidades chinas están adoptando una estrategia proactiva. Lo que antes era desaconsejado —como el uso de ChatGPT en tareas académicas— ahora se alienta activamente, siempre que se haga con buenas prácticas. Un informe revela que solo el 1 % del profesorado y del alumnado afirma no haber usado herramientas de IA, y cerca del 60 % las utiliza frecuentemente, ya sea varias veces al día o semanalmente.
Este cambio refleja una tendencia a reconocer la IA no como un problema, sino como una habilidad esencial para el siglo XXI.
El surgimiento del modelo chino DeepSeek ha sido crucial. Varias universidades —como la de Shenzhen, Zhejiang, Shanghai Jiao Tong y Renmin— ya han incorporado cursos basados en DeepSeek. Estos programas no solo enseñan tecnología, sino que abordan también temáticas clave como la seguridad, la privacidad y la ética. Este enfoque holístico está alineado con el plan nacional China 2035, que busca un sistema educativo de alta calidad e inclusivo.
Un estudio reciente sobre estudiantes de ingeniería en China encontró que más de la mitad reconoce una mejora en su eficiencia, iniciativa y creatividad al usar IA generativa. Casi la mitad añadió que esta tecnología también potenció su pensamiento independiente. No obstante, hubo cierta preocupación sobre la precisión y confiabilidad específica de dominio, y muchos no percibieron una mejora significativa en sus calificaciones académicas.
El caso chino no es aislado. Técnicamente, a nivel mundial, la IA generativa ha comenzado a definir nuevas dinámicas educativas:
En Occidente, el enfoque aún gira en torno a detectar y sancionar su uso. Pero mientras muchos luchan por controlar su presencia, China ya la ve como una competencia y una herramienta empoderadora MediumLinkedIn.
Existe un impulso claro hacia integrar IA en todos los niveles educativos —incluyendo exámenes y libros de texto— para fomentar el pensamiento crítico y la resolución de problemas
Mohammadi, Ehsan, Mike Thelwall, Yizhou Cai, Taylor Collier, Iman Tahamtan, and Azar Eftekhar. 2025. “Is Generative AI Reshaping Academic Practices Worldwide? A Survey of Adoption, Benefits, and Concerns.” Information Processing & Management. https://doi.org/10.1016/j.ipm.2025.104350.
Se analiza el impacto de la IA generativa (Gen AI) en la investigación y la enseñanza a través de una encuesta en 20 países dirigida a académicos con publicaciones.
La inteligencia artificial generativa (Gen AI) está transformando la investigación y la enseñanza universitaria a nivel global. Para ello, se llevó a cabo una encuesta en 20 países, dirigida a académicos con publicaciones en revistas indexadas, con el objetivo de identificar niveles de adopción, beneficios percibidos y preocupaciones.
Los resultados muestran una alta conciencia y uso de estas herramientas: un 73 % de los participantes declaró estar muy familiarizado con ellas y más de la mitad indicó utilizarlas al menos una vez al mes. No obstante, se observaron diferencias significativas según el rol académico, la disciplina, el género y el país de origen. Los doctorandos y jóvenes investigadores son los usuarios más frecuentes, mientras que los profesores con mayor antigüedad hacen un uso más limitado. A nivel disciplinar, las ciencias sociales y las humanidades presentan mayor adopción que la medicina o las ciencias puras. En cuanto a la distribución geográfica, países de Asia y Oriente Medio (como Taiwán, Corea del Sur, India o Irán) presentan tasas de uso superiores a las de Estados Unidos, Reino Unido o Rusia, lo que se explica en parte por la necesidad de traducción al inglés para la publicación académica.
En el ámbito de la investigación, las aplicaciones más comunes son la traducción de textos, la corrección y edición de borradores, la redacción preliminar de textos académicos y el apoyo en revisiones bibliográficas. En cambio, el uso para análisis de datos sigue siendo minoritario. En la docencia, las herramientas de IA generativa se emplean sobre todo para crear materiales y contenidos educativos (30 %), apoyar el aprendizaje y la enseñanza de conceptos (22 %), y diseñar tareas o ejercicios (16 %). También se utilizan, aunque en menor medida, para elaborar programas de asignaturas y dar retroalimentación a estudiantes.
Los beneficios más señalados por los encuestados incluyen la posibilidad de ofrecer tutoría personalizada, mejorar la resolución de problemas y potenciar el aprendizaje de los estudiantes. Sin embargo, las opiniones se dividen respecto a la capacidad de la IA para fomentar la creatividad o generar contenidos consistentes y fiables. Solo una quinta parte de los académicos confía plenamente en la precisión de los textos generados por IA.
Las preocupaciones son generalizadas y constituyen una parte central del estudio. Entre las más destacadas figuran la información inexacta o “alucinaciones” (67,8 %), el plagio (65 %), la reducción de las habilidades de pensamiento crítico (61,7 %), la falta de transparencia y explicabilidad de los procesos, los riesgos sobre la propiedad intelectual (52,2 %) y la privacidad de los datos (49 %). Estas inquietudes reflejan una tensión constante entre el aprovechamiento de la tecnología y la preservación de la integridad académica.
El estudio también detecta una brecha de género: las mujeres son un 10 % menos propensas que los hombres a usar IA generativa con frecuencia (uso diario o semanal) en investigación, lo que podría ampliar desigualdades ya existentes en la academia.
En conclusión, los autores sostienen que la IA generativa se ha integrado de manera significativa en la vida académica, aunque de forma desigual entre regiones, disciplinas y grupos sociales. Mientras ofrece beneficios claros en escritura, traducción y apoyo docente, persisten serias dudas sobre su precisión, ética y efectos en la creatividad y el pensamiento crítico. Por ello, recomiendan que las instituciones y responsables políticos fomenten un uso responsable y equitativo de estas herramientas, con especial atención a los grupos y países en riesgo de quedar rezagados en esta transición tecnológica.
Principales resultados:
Conciencia y uso: el 73 % de los académicos conoce ampliamente estas herramientas y más de la mitad las usa al menos una vez al mes. La adopción varía según disciplina, género, país y rol académico.
Diferencias por rol: los doctorandos y jóvenes investigadores son los principales usuarios, mientras que los profesores titulares y sénior muestran menor frecuencia.
Disciplinas y regiones: mayor uso en ciencias sociales y humanidades; más extendido en países de Asia y Oriente Medio que en EE. UU. o Reino Unido, en parte por la necesidad de traducción al inglés.
Usos en investigación: principalmente para traducción de textos, corrección, redacción preliminar y revisiones bibliográficas; menos frecuente en análisis de datos.
Usos en docencia: creación de contenidos y materiales (30 %), apoyo al aprendizaje y enseñanza de conceptos (22 %), y diseño de tareas (16 %).
Beneficios percibidos: tutoría personalizada, apoyo a la resolución de problemas y mejora del aprendizaje.
Preocupaciones principales:
Información inexacta (67,8 %).
Plagio (65 %).
Disminución del pensamiento crítico (61,7 %).
Falta de transparencia, problemas de propiedad intelectual y riesgos de privacidad de datos.
Brecha de género: las mujeres son un 10 % menos propensas a usar IA frecuentemente en investigación, lo que puede agravar desigualdades.
OCDE (Organisation for Economic Co-operation and Development). 2025. AI Openness: A Primer for Policymakers. OECD Artificial Intelligence Papers, no. 44. París: OECD Publishing. https://doi.org/10.1787/02f73362-en
El informe aborda el concepto de apertura en la inteligencia artificial (IA), detallando la terminología clave y los diferentes grados de apertura existenciales
Señala que la expresión “código abierto”, asociada tradicionalmente al software, no captura plenamente las complejidades propias del ámbito de la IA. Además, el documento analiza tendencias actuales en modelos fundacionales de IA cuyos pesos están disponibles abiertamente, utilizando datos experimentales para ilustrar tanto sus beneficios (como impulsar la innovación) como los riesgos que conllevan
Se introduce la noción de marginalidad para enriquecer el análisis y considerar contextos o aplicaciones menos dominantes que permiten matizar el debate sobre apertura y gobernanza
El propósito esencial del informe es brindar a los responsables de formular políticas una herramienta clara y concisa para equilibrar la apertura de los modelos generativos de IA con una gobernanza responsable, fomentando debates informados en torno al diseño e implementación de marcos regulatorios adecuados
Cui, Justin, Wei-Lin Chiang, Ion Stoica y Cho-Jui Hsieh. OR-Bench: An Over-Refusal Benchmark for Large Language Models. arXiv preprint (v5), 15 de junio de 2025. https://arxiv.org/html/2405.20947v5
Este trabajo presenta OR-Bench, una herramienta para medir cuándo los modelos de lenguaje (como ChatGPT o Llama) dicen “no puedo responder” incluso cuando la pregunta es segura.
Este problema se llama sobre-rechazo y ocurre porque, para evitar riesgos, los modelos a veces se vuelven demasiado cautos y rechazan más de lo necesario. Hasta ahora, no había una forma clara de detectar y medir este comportamiento.
OR-Bench reúne 80.000 ejemplos de preguntas que parecen delicadas pero que en realidad son seguras. Estas preguntas se dividen en diez tipos de temas que suelen activar los filtros (violencia, privacidad, sexo, odio, etc.). De ese total, hay 1.000 ejemplos especialmente difíciles y 600 que sí son tóxicos para comprobar que el modelo no responda contenido dañino por error.
Para crear este conjunto, los autores usaron un proceso automático: empezaron con frases peligrosas, las cambiaron para que fueran seguras y las revisaron con varios modelos grandes (GPT-4, Llama-3, Gemini, etc.). Solo se incluyeron las que la mayoría consideró inofensivas. Así, lograron un resultado muy parecido a la revisión humana, pero más rápido y a gran escala.
Con esta base de datos, evaluaron 32 modelos de distintas marcas. Descubrieron que, en general, los modelos más “seguros” también tienden a rechazar más preguntas seguras. Algunos modelos recientes, como GPT-4 o Llama-3.1, han mejorado este equilibrio, aunque a veces eso implica que toleren más contenido de riesgo.
Los autores concluyen que OR-Bench puede ayudar a diseñar modelos que sean seguros sin ser exageradamente restrictivos, para que puedan dar más respuestas útiles sin poner en riesgo a los usuarios.
Las herramientas de voz y visión impulsadas por inteligencia artificial están transformando radicalmente la forma en que se realiza el trabajo en las organizaciones. Ejemplos como técnicos de campo que apuntan con su móvil a un equipo averiado y reciben instrucciones inmediatas, o equipos comerciales que dictan notas de clientes y generan automáticamente tareas de seguimiento, ilustran cómo la IA multimodal —capaz de procesar voz, imágenes, texto, vídeo y datos de sensores simultáneamente— está reemplazando el teclado y el ratón como interfaz principal.
Según investigaciones de McKinsey, los sistemas multimodales logran tasas de finalización de tareas un 40 % superiores a las interfaces solo de texto, con ganancias de productividad de entre el 35 % y el 60 %. Las empresas que adoptan estas tecnologías reportan un retorno de inversión promedio del 280 % en 18 meses, gracias a la reducción de tiempos y la mejora en la toma de decisiones. La entrada por voz procesa información cuatro veces más rápido que escribir, y el contexto visual elimina hasta el 70 % de los errores de comunicación en la resolución de problemas técnicos.
Casos como Siemens, que ha reducido en un 60 % el tiempo de resolución de incidencias de servicio de campo, o clientes de Salesforce que triplican la información capturada en interacciones con clientes, muestran el potencial competitivo de esta transición. Gartner prevé que en tres años la IA multimodal será parte integral de todas las aplicaciones empresariales, y que para 2027, el 75 % de los trabajadores del conocimiento utilizarán interfaces principalmente por voz para sus tareas clave.
Se analiza el impacto creciente de la inteligencia artificial generativa en la vida cotidiana de los consumidores, especialmente desde el lanzamiento de ChatGPT a finales de 2022. Aunque estas herramientas han captado una enorme atención mediática y curiosidad pública, su uso real y sostenido por parte de los usuarios sigue siendo limitado en comparación con la expectación generada.
Según datos de Statista Consumer Insights, solo alrededor del 30% de los adultos estadounidenses habían utilizado ChatGPT o Meta AI en los doce meses previos a agosto de 2024, lo que los posiciona como las opciones más populares. Sin embargo, el uso ocasional no equivale a una integración real en la rutina diaria. Solo el 20% de los encuestados en EE. UU. afirmaron que las herramientas de IA forman parte de su día a día. Este porcentaje se mantiene similar en países como Alemania, México y el Reino Unido, pero es notablemente más alto en Brasil (33%) y la India (41%), lo que sugiere una mayor adopción en mercados emergentes.
El artículo también subraya que el uso consciente de herramientas como ChatGPT representa solo una parte del panorama. Muchos servicios digitales integran IA en segundo plano —desde recomendaciones de contenido hasta asistentes virtuales y sistemas de atención al cliente— sin que los usuarios lo perciban directamente. Esto implica que la interacción con la IA es mucho más frecuente de lo que los datos de uso explícito reflejan.
La investigación se basa en encuestas realizadas a 1.250 personas por país, entre agosto y septiembre de 2024, en el rango de edad de 18 a 64 años. El estudio revela una tendencia clara: aunque la IA generativa aún está en proceso de consolidarse como parte integral de la vida diaria, su presencia —visible o invisible— ya es significativa y está en expansión.
EDUCAUSE Shop Talk, “A Practical Guide to AI Literacy,” con Sophie White y Jenay Robert, con Leo S. Lo, Jeanne Beatrix Law y Anissa Vega (episodio de podcast), 11 de agosto de 2025, YouTube, https://www.youtube.com/watch?v=m8xnGS1bli8.
El video plantea un enfoque realista y flexible para promover la alfabetización en IA en el ámbito universitario: ofrecer diversas vías de acceso a la formación, iniciar proyectos pequeños y escalables, fomentar la experimentación conjunta, aplicar una mirada crítica, dar opciones al profesorado y motivar el aprendizaje auténtico por encima de la mera obtención de resultados.
Sophie White y Jenay Robert conversan con Leo S. Lo, Jeanne Beatrix Law y Anissa Vega sobre estrategias prácticas para impulsar la alfabetización en inteligencia artificial (IA) entre estudiantes y docentes. La conversación parte de la idea de que ofrecer múltiples puntos de entrada para que el profesorado se forme y experimente con IA es esencial para generar confianza y permitir que guíen a sus estudiantes.
Los invitados coinciden en que es clave comenzar en pequeño y avanzar de forma iterativa. No se trata de esperar a tener el modelo perfecto, sino de poner en marcha experiencias iniciales que puedan mejorarse con el tiempo. Leo S. Lo describe cómo en su universidad han organizado programas de varias semanas para personal bibliotecario, combinando introducción, diseño de proyectos, comunidades de práctica y presentaciones finales. Además, se destaca la utilidad de marcos prácticos que sirvan como referencia inicial para organizar la enseñanza de IA, aunque puedan ajustarse después según la experiencia.
Otro aspecto central es el tinkering, es decir, experimentar y probar herramientas junto a los estudiantes. Jeanne Beatrix Law insiste en que esta práctica fomenta la curiosidad y el pensamiento crítico, especialmente cuando se incorporan elementos como datos de impacto ambiental en los resultados generados por IA. En Kennesaw State University, el profesorado también tiene libertad para decidir cómo incluir la IA en sus clases, lo que ha facilitado la aceptación y la confianza. Esta flexibilidad se complementa con un comité institucional que define políticas claras y orientaciones para el uso de IA.
La alfabetización en IA no implica solo saber usar herramientas, sino también entenderlas críticamente. Incluso quienes deciden no incorporarlas pueden beneficiarse de conocer su funcionamiento y sus implicaciones. Anissa Vega subraya que, igual que al enseñar a conducir se busca evitar riesgos reales más allá de las sanciones, en IA se debe motivar a los estudiantes a aprender por el valor del conocimiento, no solo por la calificación.
Finalmente, los ponentes comparten consejos prácticos: Leo S. Lo recomienda aprender a través de recursos accesibles como YouTube o LinkedIn; Jeanne Beatrix Law aconseja no temer al fracaso, confiar en el alumnado y reutilizar recursos educativos abiertos (OER); Anissa Vega sugiere leer Co-Intelligence de Ethan Mollick y organizar sesiones de experimentación colaborativa con colegas. Sophie White cierra recordando que el aprendizaje académico no siempre proviene de publicaciones revisadas por pares y que, a menudo, probar y ajustar es la mejor vía para aprender en profundidad.