El profesorado de enseñanza superior depende cada vez más del material didáctico digital

News, E. I. N., y Media Contact. «Survey Results Show U.S. Higher Ed Faculty Increasingly Reliant on Digital Course Materials». EIN News, 5 de septiembre de 2024. https://www.einnews.com/pr_news/740456548/survey-results-show-u-s-higher-ed-faculty-increasingly-reliant-on-digital-course-materials.

Texto completo

Tres cuartas partes del profesorado de educación superior en los EE. UU. imparten al menos un curso totalmente presencial, en comparación con el 40% que enseña completamente en línea o el 23% que combina componentes presenciales y en línea. Estos resultados provienen de la encuesta más reciente de Bay View Analytics, realizada a más de 3,400 docentes de educación superior en EE. UU.

Aunque la mayoría de los cursos son presenciales, esta proporción está muy por debajo del 96% del profesorado que enseñaba de manera completamente presencial antes de la pandemia de COVID-19. Esta relación entre cursos presenciales, en línea y combinados se ha mantenido sin cambios respecto al año pasado, representando una nueva normalidad en la educación superior. Los resultados de la encuesta también muestran que el uso de libros de texto y las percepciones sobre los materiales de cursos digitales frente a los impresos se mantuvieron estables en comparación con el año anterior, aunque hay una tendencia creciente hacia el uso de opciones de materiales digitales para los estudiantes. Casi todos los libros de texto requeridos se ofrecen en formato digital. Para el año académico 2023-24, solo el 8% de los cursos ofreció exclusivamente un libro de texto impreso, una disminución frente al 12% del año pasado y al 19% del año anterior.

Además, en 2023-24, más de la mitad del profesorado (56%) estaba al tanto de los recursos educativos abiertos (OER, por sus siglas en inglés), que son materiales de enseñanza y aprendizaje gratuitos para usar, adaptar y compartir. El 41% utilizó OER como material obligatorio o suplementario en sus cursos. Aunque la conciencia y el uso de los OER disminuyeron ligeramente en comparación con el año pasado, los niveles siguen siendo superiores o iguales a los observados hace dos años.

Manual de indización en OJS: Buenas prácticas para la región latinoamericana (2ª ed.)

Manual de indización en OJS: Buenas prácticas para la región latinoamericana, 2a. ed. Universidad Nacional Autónoma de México, 2024

Texto completo

En 2020, la Universidad Nacional Autónoma de México asumió como proyecto institucional la creación de un grupo de expertos en metadatos e interoperabilidad de revistas científicas, su objetivo: desarrollar las directrices que guiarían la indización a nivel artículo de la publicación periódica en toda Latinoamérica y el Caribe. Tras dos años de diagnósticos en torno a la situación de las revistas que se editan en la región, nació el Grupo de interoperabilidad y visibilidad para las revistas científicas latinoamericanas, conformado por ocho universidades pertenecientes a la Red de Macrouniversidades de América Latina y el Caribe.

Con la publicación de este Manual de indización en OJS: Buenas prácticas para la región latinoamericana, el Grupo ratifica su compromiso con la expansión y visibilidad de la ciencia que se produce en nuestra región, cuyo contenido comprende las especificaciones mínimas que todo equipo editorial debe tener en cuenta al momento de registrar los datos bibliográficos de cada artículo que será publicado a través de las plataformas Open Journal System (OJS). Para su elaboración, se han tenido en cuenta los OpenAIRE Guidelines for Literature Repositories v. 3, la versión consolidada de las ISBD: Descripción Bibliográfica Internacional Normalizada y el Manual de indización para las bases de datos CLASE y PERIÓDICA.

Las instrucciones contenidas en este manual buscan garantizar la calidad de los metadatos que serán depositados en los índices tradicionales como Web of Science y los de nueva generación, a saber: Dimensions o SciLit; así como en el distribuidor líder del DOI, Crossref. Se pone a disposición un manual sencillo, rápido de consultar y entender, por lo que las instrucciones son muy puntuales y se acompañan por ilustraciones que le muestran al indizador los espacios de la interfaz de OJS 3.0 (y versiones posteriores) donde se registran los metadatos.

Deseamos que este documento se convierta en una herramienta de amplia consulta en nuestra región, sea objeto de debates y mejoras y, sobre todo, que ayude a catapultar la presencia de nuestras revistas científicas en todo el espacio Web.

Transparencia de los datos en los modelos LLM de Inteligencia Artificial

MIT News | Massachusetts Institute of Technology. «Study: Transparency Is Often Lacking in Datasets Used to Train Large Language Models», 30 de agosto de 2024. https://news.mit.edu/2024/study-large-language-models-datasets-lack-transparency-0830.

Un equipo de investigadores del MIT ha desarrollado una herramienta llamada Data Provenance Explorer para mejorar la transparencia en los conjuntos de datos utilizados para entrenar grandes modelos de lenguaje. Esta herramienta permite a los practicantes de IA seleccionar datos adecuados para su modelo, mejorando la precisión y reduciendo el sesgo.

Los investigadores analizaron más de 1,800 conjuntos de datos textuales y descubrieron que más del 70% carecían de información de licencia, mientras que alrededor del 50% contenían errores en los datos de origen. Esto plantea problemas éticos y legales, y puede afectar el rendimiento del modelo, ya que el uso de datos incorrectos o sesgados puede llevar a predicciones injustas.

Data Provenance Explorer genera resúmenes de los creadores, fuentes, licencias y usos permitidos de los conjuntos de datos, ayudando a los investigadores a tomar decisiones más informadas y mejorar la precisión de los modelos en situaciones reales, como evaluaciones de préstamos o consultas de clientes.

Además, el estudio reveló que la mayoría de los creadores de conjuntos de datos se concentran en el norte global, lo que podría limitar las capacidades de los modelos en otras regiones. Los investigadores también notaron un aumento en las restricciones de los conjuntos de datos creados entre 2023 y 2024, debido a preocupaciones sobre su uso comercial no intencionado.

Los investigadores planean expandir su análisis para incluir datos multimodales, como video y audio, y seguir colaborando con reguladores para mejorar la transparencia en el uso de datos.

Clarivate lanza un asistente de investigación para Web of Science con IA Generativa

Web of Science Research Assistant

Ver video

El 4 de septiembre de 2024, Clarivate Plc lanzó el Web of Science Research Assistant, una herramienta impulsada por IA generativa. Esta herramienta permite a los investigadores encontrar artículos clave más rápidamente, gestionar tareas de investigación complejas y visualizar conexiones entre conceptos. Combina una interfaz de chat con el conocimiento acumulado durante 120 años en la colección Web of Science Core Collection.

Según Emmanuel Thiveaud, Vicepresidente Senior de Clarivate, esta herramienta va más allá del descubrimiento de contenido, mejorando la toma de decisiones y proporcionando una comprensión profunda de los campos de investigación. Fue desarrollada en colaboración con la comunidad investigadora para garantizar su calidad y precisión.

El Web of Science Research Assistant ofrece:

  • Búsquedas flexibles: permite realizar búsquedas en lenguaje natural en varios idiomas y descubrir conexiones entre artículos.
  • Tareas guiadas: sugiere cómo mejorar las tareas de investigación con funciones específicas como “Entender un tema” o “Revisión de literatura”.
  • Visualizaciones únicas: permite explorar mapas de tendencias y redes de co-citación.

Este asistente de investigación fue desarrollado en colaboración con bibliotecarios e investigadores y entró en fase de prueba en diciembre de 2023. Clarivate continuará trabajando con la comunidad para mejorar la herramienta.

Tendencias en bibliotecas IFLA 2024

Trend Report 2024: Survey Results
4 September 2024

PDF

El Informe de Tendencias 2024, la IFLA llevó a cabo una encuesta para recopilar perspectivas sobre los impactos de las tendencias identificadas y sus interconexiones. Los resultados de esta encuesta respaldarán la definición de escenarios en el informe completo.

Este informe presenta los resultados de la encuesta de IFLA sobre las tendencias identificadas en la Revisión de Literatura del Informe de Tendencias 2024. Destaca las perspectivas sobre los impactos de diversas tendencias en las sociedades, bibliotecas y la demanda de servicios bibliotecarios a nivel global, por región, nivel de experiencia y tipo de biblioteca. Además, resalta las conexiones más fuertes entre tendencias, especialmente en las prácticas de conocimiento cambiantes, tendencias tecnológicas, la renegociación de la confianza y la equidad digital.

Después de la publicación de la Revisión de Literatura del Informe de Tendencias, IFLA realizó una encuesta a través de listas de correo y redes sociales, con el objetivo de reflexionar sobre las tendencias presentadas y identificar las intersecciones entre ellas que la comunidad considera más probables.

La encuesta ayudará a desarrollar la siguiente fase del informe, que incluirá una serie de escenarios que establecen futuros potenciales para el conocimiento y la información, como base para preparar el futuro.

Las tendencias clave identificadas son:

Las personas buscan conexiones comunitarias, y los espacios para compartir son clave.

Las prácticas de conocimiento están cambiando, lo que ofrece tanto oportunidades como desafíos para la equidad en los sistemas de conocimiento.

La IA y otras tecnologías están transformando la sociedad y cómo creamos, compartimos y utilizamos la información.

La confianza está siendo renegociada, especialmente en los gobiernos y los medios de comunicación.

Las habilidades y capacidades se están volviendo más complejas, pero también esenciales.

Las tecnologías digitales y sus beneficios están distribuidos de manera desigual.

Los sistemas de información están utilizando más recursos, lo que impacta al planeta.

La encuesta estuvo abierta entre el 9 y el 29 de agosto de 2024 y se dividió en dos partes clave. La primera parte se centró en recopilar opiniones sobre cuán positivas o negativas serían las 7 tendencias para:

  1. La sociedad en su conjunto
  2. Las bibliotecas en general
  3. La biblioteca del propio encuestado
  4. La necesidad de las bibliotecas

El objetivo era captar el nivel de optimismo de los encuestados sobre las tendencias, que pueden tener tanto aspectos positivos como negativos. También se buscaba estimular la reflexión sobre la diferencia entre la situación macro (para la sociedad o las bibliotecas en general) y la situación más directa en la biblioteca del encuestado. Al preguntar sobre la necesidad de las bibliotecas, se pretendía entender cómo los encuestados prevén la evolución de la demanda de servicios bibliotecarios.

La segunda parte examinó, para cada tendencia considerada importante, qué tan fuerte era la relación con las otras tendencias. Esto ayudaría a identificar áreas interesantes para definir escenarios.

Además, se recopilaron datos sobre el tipo de encuestado (individuo, asociación/institución o unidad de IFLA), la región donde están ubicados, sus años de experiencia en el campo bibliotecario y el tipo de biblioteca donde trabajan. Esto permite explorar si las prioridades varían entre estos grupos.

En la mayoría de los casos, las preguntas se formularon utilizando una escala de muy positivo (5) a muy negativo (1), o de muy fuertemente conectado (4) a no conectado en absoluto (1). Los encuestados podían optar por no responder, y sus respuestas no fueron consideradas para no influir en los promedios utilizados.

Código de buenas prácticas en materia de datos de investigación de COUNTER

Code of Practice Release 5.1. COUNTER, 2024

Ver código

El Código de Prácticas para Datos de Investigación, desarrollado en colaboración con Make Data Count, marca un hito en las prácticas de evaluación de datos al permitir la generación de informes comparables sobre el uso de datos a través de plataformas. En mayo, se informó que Make Data Count y COUNTER están explorando el futuro del Código, y en los próximos meses se trabajará en su integración con la Versión 5.1 del Código de Prácticas de COUNTER.

Investigación abierta en Europa: hacia un servicio colectivo de publicación en acceso abierto

European Commission: Directorate-General for Research and Innovation, Open research Europe – Towards a collective open access publishing service – Scoping report, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2777/204155

Este informe presenta una visión de Open Research Europe como servicio colectivo de publicación de acceso abierto sin ánimo de lucro para el bien público. Esta visión surge en medio de importantes avances políticos hacia unos costes de publicación y acceso a los contenidos más equitativos, transparentes y sostenibles, así como de la aceleración de las actividades para reformar la evaluación de la investigación. El informe incluye una justificación de la visión, la política y el contexto político de la UE, una propuesta de valor y principios para el funcionamiento de un ORE colectivo.

Integrar la Alfabetización en Inteligencia Artificial (IA) en la enseñanza de la alfabetización informacional en bibliotecas universitarias


Hervieux, S. ; Wheatley, A. Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor and Francis, 2024

Texto completo

Con el aumento de las discusiones sobre herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a una tecnología de IA accesible que los estudiantes utilizan para completar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han surgido muchos talleres dirigidos por bibliotecarios para ayudar a los estudiantes a crear mensajes para chat, verificar la información proporcionada por ChatGPT y usar las herramientas de IA de manera crítica. Aunque ha comenzado a discutirse la inclusión de la IA en el Marco de Alfabetización Informacional de ACRL, se propone que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento técnico tiene como objetivo informar sobre entrevistas con bibliotecarios de instrucción sobre la alfabetización en IA. A partir del análisis de las entrevistas, se identificarán los principales temas y preocupaciones relacionados con la IA y se desarrollará un marco robusto para la alfabetización en IA. Los lectores del documento técnico deberían obtener una mejor comprensión del lugar de la alfabetización en IA dentro de la instrucción de alfabetización informacional y poder utilizar una estructura rigurosa para planificar sus propias intervenciones.

Aspectos Clave:

  • Determinar las perspectivas de los bibliotecarios de instrucción sobre la alfabetización en IA.
  • Evaluar los marcos de alfabetización actuales para su capacidad de adaptación al panorama de la inteligencia artificial.
  • Crear un marco robusto de alfabetización en IA.

Hallazgos: Tras 15 entrevistas con bibliotecarios de Canadá y Estados Unidos, los autores determinaron que, aunque el 67% de los bibliotecarios han enseñado contenido sobre IA en el último año, la mayoría no se basó en el Marco de Alfabetización Informacional de ACRL para construir sus sesiones de instrucción. También se identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, tales como:

  • Ingeniería de prompts, entre una serie de habilidades necesarias para utilizar herramientas de IA.
  • Evaluación crítica que va más allá de la autoridad y examina la ética y el sesgo.
  • Comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
  • Nuevas formas de atribuir la creación/edición de contenido.

El marco propuesto de IA se centrará en:

  • Participar en el discurso sobre IA.
  • Conocer los principios básicos de la IA.
  • Entender las diferencias fundamentales entre tipos de IA.
  • Experimentar con herramientas de IA.
  • Revisar los resultados y productos de las herramientas de IA.
  • Evaluar el impacto de la IA a nivel social

Documentos científicos elaborados por Inteligencia Artificial en Google Scholar

Haider, Jutta, Kristofer Rolf Söderström, Björn Ekström, y Malte Rödl. «GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation». Harvard Kennedy School Misinformation Review, 3 de septiembre de 2024. https://doi.org/10.37016/mr-2020-156.


El estudio analiza la aparición de publicaciones científicas cuestionables, producidas con transformadores pre-entrenados generativos (GPT), en Google Scholar. Se investiga dónde se publican o depositan estos trabajos, sus características principales, cómo se difunden en la infraestructura de comunicación académica y cómo desafían el rol de esta infraestructura en mantener la confianza pública en la ciencia.

Para elaborar el estudio se realizó una búsqueda y extracción de datos en Google Scholar utilizando la biblioteca de Python Scholarly (Cholewiak et al., 2023) para identificar artículos que contenían frases comunes generadas por ChatGPT y aplicaciones similares basadas en el mismo modelo subyacente (GPT-3.5 o GPT-4): «a partir de mi última actualización de conocimiento» y/o «no tengo acceso a datos en tiempo real». Esto permitió identificar artículos que probablemente usaron inteligencia artificial generativa para producir texto, resultando en 227 artículos recuperados. La información bibliográfica de estos artículos se añadió automáticamente a una hoja de cálculo y se descargó en Zotero.

Todos los artículos contenían al menos una de las dos frases comunes devueltas por los agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI. A continuación, se utilizó la búsqueda de Google para determinar en qué medida existían copias de artículos cuestionables elaborados con GPT en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Para explorar la extensión del trabajo generado por ChatGPT en el índice de Google Scholar, se realizó un estudio que rastreó la plataforma en busca de publicaciones que contenían respuestas comunes de ChatGPT. El análisis reveló que alrededor del 62% de estos artículos no declaraban el uso de GPT, con la mayoría encontrados en revistas no indexadas y documentos de trabajo, aunque algunos aparecían en revistas y actas de conferencias de prestigio. Es notable que el 57% de estos artículos estaban relacionados con áreas de política susceptibles a operaciones de influencia. La mayoría de estos documentos estaban relacionados con temas relevantes para políticas públicas, como el medio ambiente, la salud y la informática, que son susceptibles de ser manipulados.

La presencia de texto generado por GPT se observó en diversas secciones de los artículos, incluyendo revisiones de literatura, métodos, marcos teóricos y discusiones. Esto sugiere un uso generalizado de GPT en la creación de artículos completos, lo que genera preocupaciones sobre la integridad de las publicaciones científicas y la posibilidad de lo que se denomina «piratería de evidencia»—la manipulación deliberada de la base de evidencia para influir en la opinión pública y en las políticas.

La proliferación de publicaciones fabricadas pone en riesgo la integridad del sistema de comunicación académica y socava la confianza en la ciencia. Además, la posibilidad de que estos textos falsos sean recuperados por motores de búsqueda académicos como Google Scholar aumenta el riesgo de manipulación maliciosa de la evidencia científica.

Para mitigar estos riesgos, el estudio recomienda un enfoque multifacético que incluya medidas técnicas, educativas y regulatorias. Estas podrían implicar opciones de filtrado en los motores de búsqueda académicos para distinguir entre literatura revisada por pares y literatura gris, así como el desarrollo de un motor de búsqueda académico no comercial para uso público. Las iniciativas educativas dirigidas a los responsables de la formulación de políticas, periodistas y otros profesionales de los medios también son cruciales para mejorar la alfabetización mediática e informativa y reducir el impacto de la desinformación.

Este problema no solo se deriva del uso de generadores de texto como ChatGPT, sino que también refleja preocupaciones más amplias sobre el sistema de publicaciones académicas y la monopolización de la información por parte de plataformas como Google Scholar. La proliferación de artículos fraudulentos puede erosionar la confianza en la ciencia, con consecuencias graves para la sociedad y la forma en que se manejan las «desórdenes de información».

El estudio concluye que el problema de los artículos fabricados por GPT probablemente se vuelva más generalizado, con implicaciones significativas para la credibilidad de la comunicación científica y la confianza pública en la ciencia. Para abordar este problema, es esencial entender las razones subyacentes a la proliferación de dicho contenido y desarrollar estrategias para prevenir su manipulación y difusión.

Guía para la escritura de trabajos finales de grado


Castronovo, Adela, Sandra Leiva, Adriana Fernández, Javier Areco, Diego Picotto, y Nicolas Brignoli. Guía para la escritura de Trabajos Finales Integradores. UNLa Universidad Nacional de Lanús, 2024. https://dialnet.unirioja.es/servlet/libro?codigo=983708.



La idea de esta guía es asistir a los estudiantes que se encuentran en la última etapa de sus carreras de grado y especialización en la elaboración de sus Trabajos Finales Integradores. Se trata de una orientación, una guía que ayuda a articular un conjunto de saberes y prácticas en un texto complejo, como parte de una labor que requiere tiempo y constancia, además del manejo de un conjunto de conocimientos específicos sobre cómo llevar a cabo este trabajo y cómo presentarlo por escrito de manera pertinente. Esta guía se enfoca en reflexionar puntualmente sobre esta última cuestión y es el resultado, por un lado, del trabajo del equipo de Investigación (PICTO) denominado «Las condiciones de producción en la elaboración de Trabajos Finales de grado y posgrado» y, por otro, del trabajo conjunto con parte del personal de la Biblioteca Rodolfo Puiggrós de la UNLa.