El futuro del aprendizaje digital y en línea en la educación superior

Humpl, S. and Andersen, T., The future of digital and online learning in higher education, Publications Office of the European Union, 2022, https://data.europa.eu/doi/10.2766/587756

Este documento de reflexión ofrece una visión sistemática del debate actual sobre cómo se ha valorado el impacto de la pandemia en las prácticas y adaptaciones del aprendizaje digital y en línea. A medida que la pandemia forzó una rápida digitalización de la educación, el documento se centra en el período posterior a la COVID-19 y plantea qué propuestas son indispensables para que la transformación digital aplicada a la enseñanza y el aprendizaje perdure en el futuro.

En otras palabras, ¿volverá la educación superior a los métodos tradicionales de enseñanza y aprendizaje mayormente análogos en el período pospandémico, o prevalecerá la transformación digital más allá de la pandemia? Finalmente, se pregunta quién se beneficiará de la continuidad de esta transformación digital en la educación superior y quién podría verse desfavorecido.

La alfabetización informacional es clave: el pensamiento crítico en la era digital de la IA

Contributors, eSchool Media. «Critical Thinking in the Digital Age of AI: Information Literacy Is Key». eSchool News, 16 de agosto de 2024. https://www.eschoolnews.com/digital-learning/2024/08/16/critical-thinking-digital-age-ai-information-literacy/.

Con el auge de la inteligencia artificial (IA), la desinformación ha entrado en una nueva era, haciendo crucial que los estudiantes desarrollen habilidades sólidas de alfabetización informacional. Estas habilidades ayudan a los estudiantes a navegar por escenarios de desinformación en el mundo digital, desde narrativas falsas hasta imágenes generadas por IA.

La alfabetización informacional, especialmente en plataformas digitales, debería ser una parte obligatoria del currículo escolar para combatir la desinformación y preparar a los estudiantes para un futuro impulsado por la IA. Durante la pandemia, la desinformación sobre el COVID-19, como las teorías conspirativas que vinculaban la enfermedad con redes 5G, se propagó rápidamente gracias a la tecnología digital. Del mismo modo, la IA ha amplificado narrativas engañosas, desde deepfakes hasta noticias falsas, complicando aún más el panorama informativo.

Un ejemplo reciente es el uso de deepfakes y desinformación tras los ataques de octubre de 2023 entre Israel y Gaza, donde se difundieron noticias falsas, como una historia fabricada sobre Qatar amenazando con cortar el suministro mundial de gas si Israel no detenía sus ataques en Gaza.

Además, la confianza del público en los medios se ha erosionado, con solo un 32% de estadounidenses confiando en los medios de comunicación de masas. Combatir la desinformación requiere no solo la verificación de hechos, sino también técnicas preventivas, como el «prebunking», que promueve la resiliencia a la desinformación.

Un enfoque educativo interdisciplinario, como el implementado en Finlandia, es esencial para fomentar el pensamiento crítico. En este país, la alfabetización mediática se enseña desde la escuela preescolar como parte del currículo nacional, lo que ha llevado a una mayor confianza en los medios y una resistencia más fuerte a la desinformación. Este enfoque es un modelo que otras naciones deberían considerar, especialmente en un mundo cada vez más afectado por la IA y la manipulación digital.

Audible comenzará a generar réplicas de voces de narradores de audiolibros mediante IA

Carman, Ashley. «Audible to Start Generating AI Voice Replicas of Select Audiobook Narrators». BNN Bloomberg, 9 de septiembre de 2024. https://www.bnnbloomberg.ca/business/technology/2024/09/09/audible-to-start-generating-ai-voice-replicas-of-select-audiobook-narrators/.

Audible, la plataforma de audiolibros propiedad de Amazon, invitará a un grupo selecto de narradores de audiolibros con base en EE. UU. a entrenar inteligencia artificial con sus voces, para crear clones que podrán ser utilizados en la grabación de audiolibros.

Este esfuerzo, que comienza esta semana, tiene como objetivo agregar más audiolibros al servicio de manera rápida y económica, además de integrar a los narradores tradicionales en el mundo emergente de la automatización de audiolibros, un tema que hasta ahora ha sido visto con recelo por muchos.

El año pasado, Amazon ofreció a autores autopublicados en la tienda Kindle la opción de narrar sus obras con una «voz virtual» genérica, una iniciativa que ha sido popular. Hasta mayo, más de 40,000 libros en Audible habían hecho uso de esta tecnología.

En esta nueva fase, Audible incentivará a narradores profesionales a participar en el proceso. «Esta oferta beta permitirá a los participantes expandir sus capacidades de producción de audiolibros de alta calidad, generar nuevos negocios al tomar más proyectos simultáneamente y aumentar su potencial de ganancias», dijo la compañía en un comunicado en su blog.

Los narradores que elijan participar podrán crear réplicas de sus voces de forma gratuita y recibirán compensación por cualquier audiolibro creado con sus voces generadas por IA, con pagos basados en un modelo de reparto de regalías por título.

Audible busca aumentar el contenido exclusivo en su servicio. A pesar de las herramientas de voz virtual introducidas hace un año, el 96% de los títulos escritos autopublicados en Kindle Direct Publishing aún no tienen versión en audiolibro. Una mayor diversidad de voces podría mejorar estas cifras.

Una vez que un narrador apruebe el uso de su voz generada por IA para un trabajo específico, podrá editar la pronunciación y el ritmo utilizando herramientas de producción internas. Audible no usará las réplicas sin el permiso explícito del narrador.

«Los narradores seguirán manteniendo el control sobre los proyectos en los que desean participar, ya sea usando la réplica de su voz o una actuación en vivo, y seguirán siendo fundamentales en el proceso de producción», afirmó la compañía.

Términos bibliotecarios que los usuarios no entienden

McDonald, Courtney, y Nicole Trujillo. 2024. «Library Terms That Users (Don’t) Understand: A Review of the Literature from 2012-2021». College & Research Libraries 85 (6): 906. https://doi.org/10.5860/crl.85.6.906.

Este artículo compara la usabilidad de sitios web, específicamente la comprensión de términos bibliotecarios por parte de los usuarios, en 51 estudios originales entre 2012 y 2021

Naismith y Stein observaron en 1989 que la bibliotecología, como muchas profesiones, utiliza términos técnicos. Los profesionales de la información han desarrollado un «jergón bibliotecario» para describir operaciones, servicios y recursos, como «número de clasificación». Sin embargo, los usuarios a menudo no comprenden estos términos, lo que afecta negativamente su uso de los servicios.

John Kupersmith publicó en 2011 un documento con prácticas recomendadas para usar términos bibliotecarios, basado en investigaciones de usabilidad entre 1997 y 2011. Sus recomendaciones incluyen evitar términos confusos, usar lenguaje natural y ser consistentes. Aunque su trabajo sigue siendo útil, este artículo actualiza sus hallazgos al analizar estudios realizados entre 2012 y 2021. Se explora cómo la comprensión de términos por parte de los usuarios ha cambiado y se sugiere una nueva pauta, reconociendo el papel de los sitios web no bibliotecarios en la interacción de los usuarios con la terminología bibliotecaria.

En este estudio, se realizó una búsqueda en las bases de datos bibliográficas de ciencias de la información, LISTA y LISA, para identificar literatura profesional sobre la usabilidad en bibliotecas. Además, se utilizó Google Scholar para incluir literatura gris, como presentaciones y documentos no revisados por pares. La búsqueda se limitó a estudios realizados entre 2012 y 2021 en entornos en línea, para actualizar los hallazgos de Kupersmith.

Se recuperaron 1260 resultados, y tras eliminar duplicados, quedaron 978. Luego, se seleccionaron 51 artículos que cumplían los criterios, centrados en el comportamiento directo de los usuarios en la terminología en línea de bibliotecas. El análisis de los estudios incluyó la identificación de tareas o servicios de biblioteca, como bases de datos, navegación en sitios web, instrucción y préstamos.

¿Qué términos bibliotecarios comprenden los usuarios?

Se encontraron 41 términos comprendidos y 106 términos malentendidos. Los estudios tienden a destacar los términos confusos, ya que su objetivo principal es mejorar los sitios web de las bibliotecas. Los términos entendidos generalmente usaban un lenguaje natural y explicaban términos difíciles con texto adicional. Un tercer tema observado fue la consistencia y los estándares, lo que sugiere que los usuarios aplican comportamientos aprendidos en otros contextos. Términos como «Horas», «Servicios», y «Ayuda» fueron comprendidos, mientras que términos específicos de bibliotecas, como «pregunta a un bibliotecario» o «catálogo de la biblioteca», fueron comprendidos en menor medida.

Términos que los usuarios no entienden

Artículos, bases de datos y revistas: Los términos más incomprendidos fueron “revistas” (12 menciones), “artículos” (10) y “bases de datos” (10). Los estudios demostraron que los usuarios se confundían al buscar artículos y, a menudo, accedían a la lista de revistas electrónicas en lugar del servicio de descubrimiento principal, o no sabían que primero debían usar la pestaña de bases de datos para buscar artículos. Incluso al usar un sistema de descubrimiento, muchos usuarios aplicaban incorrectamente filtros de formato de revista, lo que les mostraba resultados de títulos de revistas en lugar de artículos.

Catálogos de bibliotecas y términos de circulación: Los términos relacionados con el catálogo y la circulación también resultaron confusos. Esto incluye el «catálogo de la biblioteca» y sus apodos, como “ROBCAT,” así como términos relacionados con funciones como “reserva,” “préstamo interbibliotecario” y “políticas de circulación.” El término “catálogo de la biblioteca” parece generar confusión debido a la creciente integración entre el catálogo y los servicios de descubrimiento. Además, los apodos locales para los catálogos de bibliotecas fueron poco efectivos para transmitir su función, y algunos investigadores recomendaron cambiar el nombre del catálogo a términos más simples como “libros” o “libros y medios.”

Préstamo interbibliotecario: El préstamo interbibliotecario fue particularmente difícil de entender. Los usuarios no lo distinguían de otros servicios como la solicitud de entrega o la reserva de libros. Los estudios sugerían combinar estos servicios en una página única para alinearse con las expectativas de los usuarios, quienes percibían el préstamo interbibliotecario como una forma de pedir algo que la biblioteca no tiene.

Asistencia en investigación: Los términos relacionados con la asistencia de los bibliotecarios también causaron confusión. Frases como “bibliotecario de referencia” o “especialista en público” no lograban transmitir a los usuarios que podían recibir ayuda de expertos en investigación. Además, los usuarios tenían dificultades para comprender el concepto de guías de investigación y cómo estas podían ayudarles. Algunos estudios sugirieron estrategias como usar nombres de cursos en los títulos de las guías, agruparlas bajo un encabezado común como “tutoriales,” o hacer que fueran más accesibles a través de búsquedas en Google para mejorar su uso.

La revisión de cincuenta y un artículos publicados entre 2012 y 2021 muestra que la jerga bibliotecaria sigue presentando desafíos para los usuarios. Muchos de los hallazgos coinciden con las observaciones originales de Kupersmith, pero también surgen nuevas perspectivas y complejidades que ayudan a los bibliotecarios a comprender mejor los matices a considerar al elegir la terminología en los sitios web de las bibliotecas.

Varios países, entre ellos la UE, EE.UU. y el Reino Unido, han firmado el primer tratado mundial sobre inteligencia artificial.

Framework Convention on Artificial Intelligence

Países de todo el mundo, incluidos EE. UU., Reino Unido y la UE, han firmado el primer tratado internacional sobre IA, legalmente vinculante, diseñado para garantizar que los sistemas de IA se alineen con los “derechos humanos, la democracia y el estado de derecho”.

El tratado de IA legalmente vinculante, denominado Framework Convention on Artificial Intelligence y en desarrollo desde 2019, fue elaborado por el Consejo de Europa (COE), una organización internacional de derechos humanos cuya función es defender los derechos humanos, la democracia y los sistemas legales de la UE.

E, tratado fue elaborado por los 46 estados miembros del Consejo de Europa, con la participación de países observadores como Canadá, Japón, México y EE. UU., así como varios estados no miembros, como Australia, Israel y Argentina. También participaron representantes de la sociedad civil, el mundo académico e industrias.

Incluye un conjunto de principios centrados en desarrollar sistemas de IA de manera transparente que protejan los datos personales, la dignidad humana y la democracia. Su objetivo principal es gestionar cualquier riesgo que la IA pueda representar para los derechos humanos y «llenar las lagunas legales que puedan surgir debido a los rápidos avances tecnológicos», al tiempo que se fomenta la innovación y el progreso.

Tres meses después de la firma del tratado, los gobiernos de los países firmantes estarán obligados a implementar salvaguardas y “adoptar o mantener medidas legislativas, administrativas u otras apropiadas” para alinearse con estos principios.

Principios Fundamentales:

El tratado establece que las actividades relacionadas con sistemas de IA deben cumplir con principios como:

  • Dignidad humana y autonomía
  • Igualdad y no discriminación
  • Protección de la privacidad y datos personales
  • Transparencia y supervisión
  • Responsabilidad
  • Innovación segura


Derechos procesales y salvaguardias

El tratado exige documentar y compartir información relevante sobre los sistemas de IA con las personas afectadas, para permitirles cuestionar las decisiones y el uso del sistema. También se establece que se debe proporcionar la posibilidad de presentar quejas ante autoridades competentes y ofrecer garantías procesales.

Gestión de Riesgos:

Los estados deben realizar evaluaciones de riesgo e impacto de los sistemas de IA sobre derechos humanos, democracia y estado de derecho, y tomar medidas preventivas. Las autoridades pueden imponer prohibiciones o moratorias sobre ciertas aplicaciones de IA consideradas riesgosas.

Aplicación del Tratado:

El tratado cubre el uso de IA tanto por autoridades públicas como por actores privados que actúen en su nombre. Los estados tienen flexibilidad para cumplir con las disposiciones del tratado respetando sus obligaciones internacionales.

Supervisión:

Se establece un mecanismo de seguimiento a través de la Conferencia de las Partes, compuesta por representantes oficiales que evaluarán la implementación del tratado y promoverán la cooperación con las partes interesadas, incluyendo audiencias públicas sobre la aplicación del tratado.

¿Cómo saber si lo que lees lo ha escrito una IA?

Peterson, Jake. «How to Tell If What You’re Reading Was Written By AI». Lifehacker, 12 de agosto de 2024. https://lifehacker.com/tech/how-to-tell-if-what-youre-reading-was-written-by-ai.

Desde que ChatGPT introdujo la IA generativa en 2022, ha quedado claro que ya no se puede confiar en que todo lo que lees fue escrito por un humano. La IA puede generar textos de manera rápida y convincente, pero ¿cómo puedes estar seguro de que no proviene de un algoritmo?

Aunque algunos han adoptado esta tecnología, otros la rechazan. Incluso medios como CNET y G/O Media han enfrentado críticas por publicar contenido generado por IA debido a su calidad deficiente.

Los modelos de lenguaje, como GPT, no son conscientes ni inteligentes; simplemente predicen secuencias de palabras basadas en grandes conjuntos de datos. No obstante, existen señales que pueden delatar un texto generado por IA.

  1. Uso de palabras y frases comunes: Las IA suelen repetir ciertas palabras como «explorar», «destacar» o «testimonio». Aunque son válidas, el uso frecuente de estas puede ser una señal de texto generado por IA.
  2. Estilo de escritura: La IA tiende a usar un lenguaje grandilocuente y repetitivo, con descripciones floridas que no suelen aportar profundidad a los argumentos.
  3. Verificación de hechos y corrección: La IA puede cometer errores al «alucinar» hechos, generando información incorrecta. Además, los textos de IA suelen ser perfectos en cuanto a gramática, lo cual puede ser otra señal.

Aunque existen detectores de textos generados por IA, no siempre son confiables. La mejor manera de identificar un texto escrito por IA sigue siendo el análisis detallado.

Los chatbots de IA siguen demasiado centrados en el inglés y en la cultura occidental

«Lost in translation: AI chatbots still too English-language centric, Stanford study finds | ZDNET». Accedido 6 de septiembre de 2024. https://www.zdnet.com/article/lost-in-translation-ai-chatbots-still-too-english-language-centric-stanford-study-finds/#ftag=RSSbaffb68.

Las soluciones de IA, incluidos los chatbots, pueden carecer de la diversidad global necesaria para atender a usuarios internacionales. Un estudio reciente de la Universidad de Stanford encontró que muchos de los grandes modelos de lenguaje actuales tienden a favorecer «valores y gustos centrados en Occidente».

La investigación dirigida por Diyi Yang, profesora asistente en Stanford y parte del Instituto de IA Centrada en el Ser Humano de Stanford (HAI), señalan que los intentos de «alinear» estos modelos con los valores de los usuarios a menudo fallan.

Aunque se realizan esfuerzos para adaptar los modelos a los usuarios previstos, esto puede introducir sesgos que comprometen la calidad de las respuestas de los chatbots. En teoría, la alineación debería ser universal y permitir que los modelos sean más útiles para una variedad de usuarios en todo el mundo. Sin embargo, los anotadores que adaptan conjuntos de datos en diferentes regiones pueden malinterpretar estos instrumentos.

El mercado global de chatbots de IA está en rápida expansión y se espera que alcance los 67 mil millones de dólares para 2033. Más del 50% de las empresas se espera que inviertan más en el desarrollo de chatbots que en aplicaciones móviles tradicionales. Sin embargo, muchos idiomas y comunidades siguen siendo desatendidos por estas tecnologías.

El estudio de Stanford también destacó que los modelos de lenguaje suelen estar basados en las preferencias de sus creadores, que generalmente provienen de países de habla inglesa. Los modelos deben reflejar el contexto social de las comunidades a las que sirven, lo que implica variaciones en gramática, temas y sistemas de valores.

Los investigadores recomiendan aumentar la conciencia sobre la diversidad global al:

  1. Reconocer que la alineación de los modelos no es una solución universal.
  2. Fomentar la transparencia en las decisiones de diseño de los modelos de lenguaje.
  3. Buscar conjuntos de datos multilingües para mejorar el rendimiento en diversas lenguas.
  4. Trabajar estrechamente con usuarios locales para superar las deficiencias culturales o lingüísticas.

Es fundamental realizar pruebas extensivas con usuarios locales antes de la implementación completa, y ofrecer opciones de selección de idioma para mejorar la experiencia del usuario.

El profesorado de enseñanza superior depende cada vez más del material didáctico digital

News, E. I. N., y Media Contact. «Survey Results Show U.S. Higher Ed Faculty Increasingly Reliant on Digital Course Materials». EIN News, 5 de septiembre de 2024. https://www.einnews.com/pr_news/740456548/survey-results-show-u-s-higher-ed-faculty-increasingly-reliant-on-digital-course-materials.

Texto completo

Tres cuartas partes del profesorado de educación superior en los EE. UU. imparten al menos un curso totalmente presencial, en comparación con el 40% que enseña completamente en línea o el 23% que combina componentes presenciales y en línea. Estos resultados provienen de la encuesta más reciente de Bay View Analytics, realizada a más de 3,400 docentes de educación superior en EE. UU.

Aunque la mayoría de los cursos son presenciales, esta proporción está muy por debajo del 96% del profesorado que enseñaba de manera completamente presencial antes de la pandemia de COVID-19. Esta relación entre cursos presenciales, en línea y combinados se ha mantenido sin cambios respecto al año pasado, representando una nueva normalidad en la educación superior. Los resultados de la encuesta también muestran que el uso de libros de texto y las percepciones sobre los materiales de cursos digitales frente a los impresos se mantuvieron estables en comparación con el año anterior, aunque hay una tendencia creciente hacia el uso de opciones de materiales digitales para los estudiantes. Casi todos los libros de texto requeridos se ofrecen en formato digital. Para el año académico 2023-24, solo el 8% de los cursos ofreció exclusivamente un libro de texto impreso, una disminución frente al 12% del año pasado y al 19% del año anterior.

Además, en 2023-24, más de la mitad del profesorado (56%) estaba al tanto de los recursos educativos abiertos (OER, por sus siglas en inglés), que son materiales de enseñanza y aprendizaje gratuitos para usar, adaptar y compartir. El 41% utilizó OER como material obligatorio o suplementario en sus cursos. Aunque la conciencia y el uso de los OER disminuyeron ligeramente en comparación con el año pasado, los niveles siguen siendo superiores o iguales a los observados hace dos años.

Manual de indización en OJS: Buenas prácticas para la región latinoamericana (2ª ed.)

Manual de indización en OJS: Buenas prácticas para la región latinoamericana, 2a. ed. Universidad Nacional Autónoma de México, 2024

Texto completo

En 2020, la Universidad Nacional Autónoma de México asumió como proyecto institucional la creación de un grupo de expertos en metadatos e interoperabilidad de revistas científicas, su objetivo: desarrollar las directrices que guiarían la indización a nivel artículo de la publicación periódica en toda Latinoamérica y el Caribe. Tras dos años de diagnósticos en torno a la situación de las revistas que se editan en la región, nació el Grupo de interoperabilidad y visibilidad para las revistas científicas latinoamericanas, conformado por ocho universidades pertenecientes a la Red de Macrouniversidades de América Latina y el Caribe.

Con la publicación de este Manual de indización en OJS: Buenas prácticas para la región latinoamericana, el Grupo ratifica su compromiso con la expansión y visibilidad de la ciencia que se produce en nuestra región, cuyo contenido comprende las especificaciones mínimas que todo equipo editorial debe tener en cuenta al momento de registrar los datos bibliográficos de cada artículo que será publicado a través de las plataformas Open Journal System (OJS). Para su elaboración, se han tenido en cuenta los OpenAIRE Guidelines for Literature Repositories v. 3, la versión consolidada de las ISBD: Descripción Bibliográfica Internacional Normalizada y el Manual de indización para las bases de datos CLASE y PERIÓDICA.

Las instrucciones contenidas en este manual buscan garantizar la calidad de los metadatos que serán depositados en los índices tradicionales como Web of Science y los de nueva generación, a saber: Dimensions o SciLit; así como en el distribuidor líder del DOI, Crossref. Se pone a disposición un manual sencillo, rápido de consultar y entender, por lo que las instrucciones son muy puntuales y se acompañan por ilustraciones que le muestran al indizador los espacios de la interfaz de OJS 3.0 (y versiones posteriores) donde se registran los metadatos.

Deseamos que este documento se convierta en una herramienta de amplia consulta en nuestra región, sea objeto de debates y mejoras y, sobre todo, que ayude a catapultar la presencia de nuestras revistas científicas en todo el espacio Web.

Transparencia de los datos en los modelos LLM de Inteligencia Artificial

MIT News | Massachusetts Institute of Technology. «Study: Transparency Is Often Lacking in Datasets Used to Train Large Language Models», 30 de agosto de 2024. https://news.mit.edu/2024/study-large-language-models-datasets-lack-transparency-0830.

Un equipo de investigadores del MIT ha desarrollado una herramienta llamada Data Provenance Explorer para mejorar la transparencia en los conjuntos de datos utilizados para entrenar grandes modelos de lenguaje. Esta herramienta permite a los practicantes de IA seleccionar datos adecuados para su modelo, mejorando la precisión y reduciendo el sesgo.

Los investigadores analizaron más de 1,800 conjuntos de datos textuales y descubrieron que más del 70% carecían de información de licencia, mientras que alrededor del 50% contenían errores en los datos de origen. Esto plantea problemas éticos y legales, y puede afectar el rendimiento del modelo, ya que el uso de datos incorrectos o sesgados puede llevar a predicciones injustas.

Data Provenance Explorer genera resúmenes de los creadores, fuentes, licencias y usos permitidos de los conjuntos de datos, ayudando a los investigadores a tomar decisiones más informadas y mejorar la precisión de los modelos en situaciones reales, como evaluaciones de préstamos o consultas de clientes.

Además, el estudio reveló que la mayoría de los creadores de conjuntos de datos se concentran en el norte global, lo que podría limitar las capacidades de los modelos en otras regiones. Los investigadores también notaron un aumento en las restricciones de los conjuntos de datos creados entre 2023 y 2024, debido a preocupaciones sobre su uso comercial no intencionado.

Los investigadores planean expandir su análisis para incluir datos multimodales, como video y audio, y seguir colaborando con reguladores para mejorar la transparencia en el uso de datos.