Archivo de la categoría: Tecnologías de la información

Inteligencia Artificial y profesionales bibliotecarios

Cox, Andrew M. AI and the UK Library Profession: Survey Results — A Report for CILIP. London: CILIP, 2025

Texto completo

El informe analiza cómo los profesionales de bibliotecas e información en el Reino Unido están incorporando la Inteligencia Artificial (IA) en su trabajo, cuáles son sus percepciones y qué apoyos necesitan.

La encuesta, realizada entre noviembre y diciembre de 2024, recogió 162 respuestas válidas procedentes principalmente de bibliotecas universitarias, de salud y públicas. El objetivo del estudio fue conocer no solo el nivel de adopción de estas tecnologías, sino también las oportunidades, riesgos y necesidades que identifican los bibliotecarios.

El resultado más llamativo es que un 65 % de los participantes reconoció estar utilizando herramientas de IA en su trabajo cotidiano. Entre las más citadas se encuentran ChatGPT y Copilot, empleadas sobre todo para tareas de redacción, búsqueda de información y automatización de procesos rutinarios. El uso resulta más extendido en bibliotecas universitarias y de salud, mientras que en las públicas todavía es más moderado. Pese a esta presencia creciente, solo un tercio de las instituciones encuestadas contaba ya con una política específica sobre IA y otro cuarto estaba en proceso de desarrollarla, lo que indica que todavía existe un marco normativo y estratégico insuficiente.

En cuanto a los ámbitos de aplicación, el informe destaca el uso de la IA generativa para redactar borradores de documentos, apoyar la alfabetización digital de los usuarios e integrar la enseñanza crítica de estas tecnologías en programas formativos. También se la emplea en la síntesis de información y en la mejora de procesos internos, con el fin de ganar eficiencia administrativa y liberar tiempo para otras tareas de valor añadido. Todo ello revela que la profesión percibe la IA como una herramienta práctica y útil, aunque aún en fase exploratoria.

Los encuestados identificaron varias oportunidades relacionadas con la IA. Entre ellas figuran la posibilidad de mejorar la eficiencia de los servicios bibliotecarios, reforzar las competencias en análisis y gestión de datos, enriquecer la experiencia de los usuarios y desarrollar nuevas funciones profesionales ligadas a la enseñanza y mediación tecnológica. Sin embargo, junto a estos beneficios emergen preocupaciones importantes que frenan una adopción plena.

Las principales barreras son de naturaleza ética, económica y técnica. En el terreno ético, se señalaron riesgos como la falta de transparencia, los sesgos de los algoritmos, la generación de desinformación y los problemas de privacidad. Desde el punto de vista económico, muchas instituciones consideran que el coste de las soluciones comerciales de IA resulta excesivo. También se subraya el impacto ambiental que puede tener el uso intensivo de estas tecnologías, especialmente por el alto consumo energético de los sistemas. A todo ello se suma la percepción de un déficit de competencias técnicas dentro de la profesión, que limita el aprovechamiento de las herramientas disponibles, y las dudas legales vinculadas a los derechos de autor y la propiedad intelectual en relación con los contenidos generados por IA.

Frente a este panorama, los profesionales expresaron con claridad sus necesidades de apoyo. La mayoría reclama formación accesible en distintos formatos —cursos cortos, seminarios web o materiales escritos— que les permita adquirir un conocimiento práctico y actualizado. También demandan guías éticas y regulatorias que orienten el uso responsable de la IA, así como ejemplos concretos de buenas prácticas adaptadas a diferentes tipos de bibliotecas. Se espera además que CILIP desempeñe un papel de liderazgo institucional, actuando como referente en la elaboración de políticas, en la difusión de recursos y en la representación del sector en los debates públicos y regulatorios sobre la IA.

El estudio muestra que la IA se ha integrado de forma significativa en el trabajo bibliotecario del Reino Unido, aunque de manera desigual y todavía experimental. Los profesionales reconocen tanto sus beneficios como los riesgos que entraña, y existe una demanda clara de liderazgo, formación y marcos normativos que permitan gestionar esta integración de manera responsable. El informe refleja un sector en transformación, que avanza con cautela pero con la convicción de que la IA será una pieza clave en el futuro de las bibliotecas.

El futuro de la IA en las bibliotecas públicas: oportunidades, desafíos y alfabetización digital

WebJunction. “What’s on the Horizon for AI and Public Libraries?WebJunction, 28 de agosto de 2025. https://www.webjunction.org/news/webjunction/public-libraries-ai-future.html

La inteligencia artificial (IA) está impulsando un cambio drástico en nuestro mundo. Es una herramienta transformadora que revoluciona las industrias e impacta la vida cotidiana. Al concluir nuestra serie sobre IA, queremos explorar qué se avecina en el panorama de la IA.

Al mantenerse al tanto de estos problemas en constante evolución, el personal bibliotecario puede desarrollar sus habilidades informativas para posicionarse como expertos en alfabetización en IA, educar al público y participar activamente en la definición del impacto social de la IA.

El enorme poder de la IA

El poder de la IA reside en su capacidad para analizar grandes cantidades de datos, aprender de la experiencia y realizar tareas que normalmente requieren inteligencia humana, a menudo con mayor precisión, velocidad y eficiencia. Recopilar, interpretar y generar informes de datos son funciones cruciales para las bibliotecas, por lo que no sorprende que el poder de la IA esté transformando las bibliotecas públicas.

A medida que las bibliotecas desempeñan funciones más complejas y adoptan sistemas más sofisticados, se dispone de más datos para facilitar la toma de decisiones y contar la historia de la biblioteca. Esta realidad puede presentar desafíos a la hora de saber qué datos utilizar y cómo extraer conclusiones precisas. La IA puede procesar y sintetizar conjuntos de datos grandes y mixtos para generar rápidamente información y crear narrativas. Los productos o soluciones de IA independientes, fácilmente disponibles e integrados en las herramientas bibliotecarias existentes, pueden utilizarse para automatizar procesos, informar y representar colecciones, impulsar programas y la participación de la comunidad, y ofrecer servicios completamente nuevos. Sin embargo, siempre se debe tener en cuenta la privacidad de los usuarios y se debe eliminar la información de identificación personal de los datos de la biblioteca enviados a las herramientas de IA.

La Biblioteca de Pottsboro participó en un taller intensivo de consultoría sobre preparación de IA para organizaciones sin fines de lucro y colaboró ​​con miembros del equipo de Dell de todo el mundo para identificar las necesidades que la IA podría abordar. El equipo de la Biblioteca de Pottsboro se centró en los datos recopilados en su ILS, así como en los datos de la comunidad, para comprender qué información les podría proporcionar sobre las tendencias de los usuarios y las mejoras en los servicios, la colección o la difusión que convenía implementar. Por ejemplo, para orientar las decisiones de compra, el personal utilizó la IA para encontrar libros que se prestaban con frecuencia en Libby (una suscripción de libros electrónicos), pero que no tenían ejemplares impresos en su colección. También realizaron un análisis por código postal, observando la distribución de los usuarios que utilizan la biblioteca para ver si la difusión o la promoción en un código postal en particular contribuían a un aumento de titulares de tarjetas en esa zona. Finalmente, pudieron utilizar un lenguaje sencillo para consultar con la IA los datos de circulación de libros infantiles en formato físico y digital para su informe anual, sin necesidad de conocimientos avanzados de Excel para presentar los datos de forma eficaz y eficiente.

Algunas limitaciones e inquietudes

Si bien el poder de la IA puede ser notable, las precauciones que conlleva esta tecnología son significativas. El volumen de resultados de IA que circula en la web es inmenso y está en crecimiento. Es importante evaluar siempre con cuidado el contenido generado por IA para evitar sesgos y desinformación.

Según el New York Times, a medida que las empresas de IA buscan en la web nuevos datos para entrenar sus próximos modelos, es probable que incorporen parte de su propio contenido generado por IA, «creando un ciclo de retroalimentación involuntario en el que lo que antes era el resultado de una IA se convierte en la entrada de otra». Este proceso resulta en un rango más reducido de resultados de IA con el tiempo, una etapa temprana de lo que los investigadores han denominado «colapso del modelo». Cuando estos modelos se entrenan con sus propias palabras, su resultado muestra una menor diversidad lingüística. Además, este proceso puede amplificar el sesgo en los datos. Esta es una información de referencia importante para el personal de bibliotecas que podría impartir talleres sobre IA con el público.

La capacidad de la IA para suplantar la voz de alguien ha mejorado drásticamente, por lo que incidentes como el de alguien que se hace pasar por el secretario de Estado estadounidense, Marco Rubio, y contacta con ministros de Asuntos Exteriores, un gobernador y un senador estadounidense serán cada vez más comunes. Esta sofisticación de la IA está provocando que incluso el director ejecutivo de The Atlantic, Nicholas Thompson, diga: «Es difícil distinguir la realidad; muy difícil». El trabajo del personal bibliotecario que participa activamente en la enseñanza de habilidades de alfabetización informacional se está volviendo cada vez más difícil.

Los problemas legales relacionados con los derechos de autor y la privacidad se están abriendo camino en el sistema judicial estadounidense. Un juez federal de San Francisco declaró que Anthropic hizo un uso legítimo de los libros de varios autores sin su consentimiento para entrenar su modelo de lenguaje Claude Large. En el fallo, el juez afirma: «Como cualquier lector que aspira a ser escritor, los LLM de Anthropic se entrenaron con obras para no adelantarse a los demás».

La IA y el futuro de la educación: perturbaciones, dilemas y orientaciones.

UNESCO. “AI and the Future of Education: Disruptions, Dilemmas and Directions.UNESCO, 2 de septiembre de 2025. https://unesdoc.unesco.org/ark:/48223/pf0000395236_eng

La UNESCO presenta una antología que explora cómo la inteligencia artificial (IA) está transformando la educación, sus disrupciones, los dilemas éticos y las posibles orientaciones futuras. Se reconoce que la IA ya está modificando la forma en que enseñamos, aprendemos y entendemos el mundo, pero estas transformaciones no se distribuyen por igual. Aproximadamente un tercio de la humanidad sigue sin acceso adecuado a la conectividad, y quienes tienen suscripciones, buena infraestructura o ventaja lingüística son los que más se benefician.

Este desequilibrio implica que no solo el acceso tecnológico sea desigual, sino también qué tipos de conocimientos, valores e idiomas predominan en los sistemas educativos impulsados por IA. Los sistemas tienden a reflejar las estructuras dominantes que ya existen, lo que plantea preguntas sobre equidad, diversidad cultural e inclusión

Además, la antología aborda dilemas filosóficos, éticos y pedagógicos: ¿cómo evaluar a los estudiantes en la era de la IA?, ¿cómo asegurarse de que estas tecnologías promuevan el cuidado, la justicia y los derechos humanos? ¿Cómo diseñar políticas, currículos y pedagogías que reconozcan la cooperación humano-máquina sin deshumanizar ni reforzar desigualdades?

Para enfrentar estos retos, la UNESCO propone fomentar un “commons global” para el diálogo: un espacio global compartido para pensar juntos, debatir diferencias y reimaginar una educación inclusiva en la era de la IA. Se apoya en sus recomendaciones sobre ética de la IA, orientaciones para IA generativa en educación e investigación, y marcos de competencias para docentes y estudiantes.

Anthropic acuerda pagar 1.500 millones de dólares a autores por uso no autorizado de libros en IA

Knibbs, Kate. «Anthropic Agrees to Pay Authors at Least $1.5 Billion in AI Copyright SettlementWIRED, 5 de septiembre de 2025. https://www.wired.com/story/anthropic-settlement-lawsuit-copyright/

Anthropic, la empresa estadounidense de inteligencia artificial creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda colectiva presentada por autores cuyos libros fueron utilizados sin autorización para entrenar su modelo de IA.

Este acuerdo, aún pendiente de aprobación judicial, constituye el mayor pago por infracción de derechos de autor en la historia de Estados Unidos.

Los demandantes, entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaron a Anthropic de descargar millones de libros desde sitios pirata como Library Genesis y Pirate Library Mirror, vulnerando los derechos de autor de los creadores. Aunque la justicia había establecido previamente que usar libros adquiridos legalmente para entrenar inteligencia artificial podía considerarse un uso legítimo, la demanda continuó debido al uso de material obtenido ilegalmente.

El acuerdo estipula que cada autor recibirá aproximadamente 3.000 dólares por obra, cubriendo unas 465.000 obras en total. Anthropic también se comprometió a destruir las copias pirata almacenadas, sin admitir responsabilidad legal. Sin embargo, el juez William Alsup expresó dudas sobre la falta de detalles del acuerdo y solicitó información adicional antes de la audiencia prevista para el 25 de septiembre de 2025.

Este caso es un precedente importante en la regulación del uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial, con implicaciones significativas para otras compañías tecnológicas que desarrollan herramientas de IA.

SLMs: Modelos de lenguaje de IA pequeños, eficientes y especializados

Kumar, Ajay; Thomas H. Davenport; y Randy Bean. “The Case for Using Small Language Models.” Harvard Business Review, 8 de septiembre de 2025. https://hbr.org/2025/09/the-case-for-using-small-language-models?ab=HP-hero-latest-2

Los SLMs (Small Language Models) son modelos de IA más pequeños y eficientes que los LLMs, capaces de procesar lenguaje natural con menos recursos.
Destacan por su rapidez, bajo consumo y fácil implementación en dispositivos locales

Un SLM (Small Language Model, o modelo de lenguaje pequeño) es un modelo de inteligencia artificial entrenado para procesar y generar lenguaje natural, pero con muchos menos parámetros y recursos que los grandes modelos de lenguaje (LLMs, como GPT-4 o Gemini).

Hasta ahora, la revolución de la IA se ha definido por el tamaño: cuanto más grande es el modelo, más ambiciosas las expectativas. No obstante, se está produciendo un giro notable: los modelos de lenguaje pequeños (SLMs, por sus siglas en inglés), podrían convertirse en la columna vertebral de la próxima generación de empresas inteligentes. Esta tendencia sugiere que el futuro podría favorecer el enfoque de “más pequeño = más inteligente”.

La rapidez, eficiencia y rentabilidad de los SLMs son factores clave que los hacen atractivos frente a los grandes modelos de lenguaje (LLMs). Además, su diseño compacto facilita su implementación en dispositivos periféricos, lo que permite una toma de decisiones en tiempo real sin depender de la nube. Estas características los hacen ideales para aplicaciones como vehículos autónomos, asistentes de voz y tecnología portátil.

Los SLMs también consumen menos energía y requieren menos recursos, lo que los convierte en una alternativa sostenible y más accesible para su adopción masiva. Por otro lado, la posibilidad de afinarlos para dominios específicos mejora su precisión y reduce las respuestas irrelevantes, algo especialmente útil en sectores como salud, finanzas y agricultura.

Otro punto destacado es que los SLMs ofrecen mayor control, privacidad y transparencia, lo que favorece el procesamiento seguro de datos y el cumplimiento normativo. Su integración en infraestructuras existentes es sencilla, lo que permite un desarrollo ágil y la creación rápida de prototipos sin necesidad de realizar cambios de infraestructura significativos.

La cultura en la era de la inteligencia artificial: ¿creación humana o producción algorítmica?

Rothman, Joshua. “A.I. Is Coming for Culture.The New Yorker, August 25, 2025. https://www.newyorker.com/magazine/2025/09/01/ai-is-coming-for-culture

Joshua Rothman abre reflexionando sobre cómo, en la era de los smartphones, nuestra rutina cotidiana está profundamente marcada por el algoritmo

Estamos acostumbrados a que los algoritmos guíen nuestras elecciones. Sin embargo, cuando las máquinas pueden generar sin esfuerzo el contenido que consumimos, ¿qué queda para la imaginación humana?

El ensayo reflexiona sobre cómo la inteligencia artificial está transformando la producción cultural. Comienza con la idea de que nuestra vida diaria ya está profundamente mediada por algoritmos que moldean lo que leemos, vemos y escuchamos. A este ritmo, la IA no solo multiplicará la cantidad de contenidos disponibles —música, vídeos, textos o imágenes—, sino que dará lugar a nuevas formas de creación todavía imprevisibles.

Sin embargo, las limitaciones de estas obras generadas por máquinas: carecen de individualidad, intención y agencia artística, pues se basan en patrones preexistentes. Aun así, para muchos creadores la IA representa una oportunidad, ya que reduce costes, facilita la experimentación y permite realizar proyectos antes inalcanzables.

También se plantea un escenario futuro en el que los contenidos culturales no sean productos fijos, sino experiencias creadas en tiempo real para cada usuario, diseñadas para provocar una reacción inmediata. Esto transformaría radicalmente la forma en que concebimos el arte y el entretenimiento.

El texto concluye con una advertencia: si todo lo que consumimos procede de máquinas, corremos el riesgo de diluir la creatividad humana. Pero, paradójicamente, esta situación podría reforzar nuestro aprecio por lo genuinamente humano en la cultura, frente a la avalancha de producciones artificiales.

Dominios de conciencia sobre la IA en la educación: un marco integral para su integración ética y pedagógica

Dilkes, Dani, y Centre for Teaching and Learning. Domain of AI-Awareness for Education. London, Ontario: Western University, Instructional Technology Resource Centre (ITRC), 2025. eCampusOntario Pressbooks. https://ecampusontario.pressbooks.pub/aihighereducation

El libro Domain of AI-Awareness for Education, desarrollado por Dani Dilkes y el Centre for Teaching and Learning, propone un marco comprensivo para guiar la integración de la inteligencia artificial generativa (IA) en entornos educativos. Organizado en siete dominios fundamentales, ofrece una mirada multidimensional que abarca desde conocimientos técnicos hasta consideraciones éticas, emocionales y pedagógicas —e incluso cómo estos se entrelazan con valores y contextos sociopolíticos más amplios.

  1. Conocimiento (Knowledge): Esta sección introduce los principios básicos de la IA generativa, como qué es y cómo funcionan los modelos de lenguaje (LLMs), además de reflexionar sobre su presencia en el entorno educativo.
  2. Ética (Ethics): Explora temas críticos como la privacidad, propiedad intelectual, accesibilidad, impacto ambiental, sesgos y desinformación. Propone reflexiones profundas sobre las implicaciones éticas que emergen al emplear IA en contextos educativos.
  3. Afecto (Affect): Se centra en la inteligencia emocional y cómo las respuestas emocionales hacia la IA influyen en nuestra disposición a utilizarla, particularmente en entornos docentes y de aprendizaje.
  4. Habilidades (Skill): Aborda técnicas concretas como la ingeniería de prompts (prompt engineering) y la evaluación crítica de los resultados generados por IA. Aquí se busca fortalecer la competencia práctica para un uso consciente y eficaz.
  5. Valores (Values): Incluye la reflexión sobre los valores individuales y profesionales, la integridad académica y cómo dichos valores informan la práctica docente. Destaca también la importancia de redactar declaraciones en los sílabos que clarifiquen las políticas de IA de manera alineada con valores institucionales.
  6. Pedagogía (Pedagogy): Revisa cómo la IA puede integrarse en los procesos de enseñanza y aprendizaje: desde su impacto en los resultados de aprendizaje y diseño de evaluaciones, hasta niveles de integración de IA y su uso como herramienta de andamiaje (scaffolding).
  7. Interconexión (Interconnectedness): Aunque no siempre se detalla por separado en los capítulos, este dominio aborda cómo la IA se inserta en sistemas más amplios, considerando relaciones sociales, políticas y estructurales.

Finalmente, el recurso es dinámico: se actualiza periódicamente para adaptarse a la evolución de la IA generativa y refinar este marco de concienciación

BookAI.chat: herramienta de inteligencia artificial que permite a los usuarios interactuar con libros a través de una interfaz de chat

https://www.bookai.chat/

BookAI.chat es una herramienta de inteligencia artificial que permite a los usuarios interactuar con libros a través de una interfaz de chat. Solo necesitas proporcionar el título y el autor del libro, y la IA se encarga del resto, generando respuestas basadas en el contenido del libro. Esta plataforma utiliza modelos avanzados de lenguaje como GPT-3 y GPT-4 para ofrecer una experiencia de lectura interactiva y personalizada.

Características principales:

  • Interacción con cualquier libro: Puedes agregar nuevos libros a tu biblioteca proporcionando su título y autor, sin necesidad de leerlos previamente.
  • Multilingüe: Soporta más de 30 idiomas, lo que permite interactuar con los libros en tu lengua materna o en el idioma que estás aprendiendo.
  • Basado en IA avanzada: Utiliza los modelos de lenguaje GPT-3 y GPT-4 para generar respuestas coherentes y contextuales basadas en el contenido del libro.
  • Acceso gratuito: La plataforma ofrece acceso gratuito, permitiendo a los usuarios explorar y conversar con una amplia variedad de libros sin costo alguno.

Esta herramienta es ideal para cualquier persona interesada en profundizar en el contenido de un libro sin necesidad de leerlo completamente. Sin embargo, es importante tener en cuenta que, aunque la IA puede proporcionar información útil y respuestas detalladas, la interpretación y el análisis crítico del texto siguen siendo esenciales para una comprensión profunda.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

Informe OBS: eLearning 2024: tendencias emergentes e impacto de la inteligencia artificial en la educación superior

Espino, Erika. OBS Report: eLearning 2024 – Emerging Trends and the Impact of Artificial Intelligence in Higher Education, OBS Business School, 29 October 2024.

Texto completo

El uso de IA en e-learning es cada vez más evidente: se emplea en la supervisión de evaluaciones online, servicios bibliotecarios, procesos de admisión y en el análisis del comportamiento estudiantil mediante reconocimiento emocional, predicción de rendimiento y detección temprana de abandono. Por otra parte, la IA generativa está transformando los métodos de evaluación y permitiendo verificar la autenticidad del trabajo de los estudiantes.

Pese al reconocimiento del valor de la IA tanto por estudiantes como por profesores, el estudio detecta una alfabetización digital insuficiente en ambos grupos. Este déficit dificulta el uso efectivo de las plataformas digitales. Además, se observa una disminución en el pensamiento crítico y creativo, lo cual refuerza la necesidad de promover la integridad académica y la autonomía intelectual.

Los estudiantes de educación superior utilizan habitualmente plataformas como Blackboard, Moodle, Canvas y Google Classroom durante su formación online. La mayoría de ellos valora positivamente su primera experiencia en e-learning y lo recomienda. Asimismo, los estudiantes complementan su aprendizaje con herramientas de IA como ChatGPT, traductores y asistentes virtuales, vislumbrando un gran potencial para estas tecnologías en la creación de contenidos educativos.

a gamificación se destaca como una estrategia clave para modernizar el aprendizaje online, incentivando la motivación y la competencia saludable. Se fomenta además la interacción mediante discusiones sincrónicas y asincrónicas, resolución de estudios de caso y evaluación entre pares, todo ello acompañado de espacios colaborativos como documentos compartidos y salas de trabajo grupales, fundamentales para desarrollar habilidades de comunicación y trabajo en equipo. No obstante, uno de los grandes retos persiste en diseñar programas que promuevan una mayor interacción entre estudiantes y docentes, algo que depende tanto del involucramiento del profesorado como de la iniciativa y disciplina de los alumnos.

Un desafío crítico que afecta tanto a estudiantes como a docentes es la protección de la privacidad de los datos y la seguridad de la información, materia en la que aún se está avanzando activamente.