Integrar la Alfabetización en Inteligencia Artificial (IA) en la enseñanza de la alfabetización informacional en bibliotecas universitarias


Hervieux, S. ; Wheatley, A. Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor and Francis, 2024

Texto completo

Con el aumento de las discusiones sobre herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a una tecnología de IA accesible que los estudiantes utilizan para completar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han surgido muchos talleres dirigidos por bibliotecarios para ayudar a los estudiantes a crear mensajes para chat, verificar la información proporcionada por ChatGPT y usar las herramientas de IA de manera crítica. Aunque ha comenzado a discutirse la inclusión de la IA en el Marco de Alfabetización Informacional de ACRL, se propone que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento técnico tiene como objetivo informar sobre entrevistas con bibliotecarios de instrucción sobre la alfabetización en IA. A partir del análisis de las entrevistas, se identificarán los principales temas y preocupaciones relacionados con la IA y se desarrollará un marco robusto para la alfabetización en IA. Los lectores del documento técnico deberían obtener una mejor comprensión del lugar de la alfabetización en IA dentro de la instrucción de alfabetización informacional y poder utilizar una estructura rigurosa para planificar sus propias intervenciones.

Aspectos Clave:

  • Determinar las perspectivas de los bibliotecarios de instrucción sobre la alfabetización en IA.
  • Evaluar los marcos de alfabetización actuales para su capacidad de adaptación al panorama de la inteligencia artificial.
  • Crear un marco robusto de alfabetización en IA.

Hallazgos: Tras 15 entrevistas con bibliotecarios de Canadá y Estados Unidos, los autores determinaron que, aunque el 67% de los bibliotecarios han enseñado contenido sobre IA en el último año, la mayoría no se basó en el Marco de Alfabetización Informacional de ACRL para construir sus sesiones de instrucción. También se identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, tales como:

  • Ingeniería de prompts, entre una serie de habilidades necesarias para utilizar herramientas de IA.
  • Evaluación crítica que va más allá de la autoridad y examina la ética y el sesgo.
  • Comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
  • Nuevas formas de atribuir la creación/edición de contenido.

El marco propuesto de IA se centrará en:

  • Participar en el discurso sobre IA.
  • Conocer los principios básicos de la IA.
  • Entender las diferencias fundamentales entre tipos de IA.
  • Experimentar con herramientas de IA.
  • Revisar los resultados y productos de las herramientas de IA.
  • Evaluar el impacto de la IA a nivel social

Documentos científicos elaborados por Inteligencia Artificial en Google Scholar

Haider, Jutta, Kristofer Rolf Söderström, Björn Ekström, y Malte Rödl. «GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation». Harvard Kennedy School Misinformation Review, 3 de septiembre de 2024. https://doi.org/10.37016/mr-2020-156.


El estudio analiza la aparición de publicaciones científicas cuestionables, producidas con transformadores pre-entrenados generativos (GPT), en Google Scholar. Se investiga dónde se publican o depositan estos trabajos, sus características principales, cómo se difunden en la infraestructura de comunicación académica y cómo desafían el rol de esta infraestructura en mantener la confianza pública en la ciencia.

Para elaborar el estudio se realizó una búsqueda y extracción de datos en Google Scholar utilizando la biblioteca de Python Scholarly (Cholewiak et al., 2023) para identificar artículos que contenían frases comunes generadas por ChatGPT y aplicaciones similares basadas en el mismo modelo subyacente (GPT-3.5 o GPT-4): «a partir de mi última actualización de conocimiento» y/o «no tengo acceso a datos en tiempo real». Esto permitió identificar artículos que probablemente usaron inteligencia artificial generativa para producir texto, resultando en 227 artículos recuperados. La información bibliográfica de estos artículos se añadió automáticamente a una hoja de cálculo y se descargó en Zotero.

Todos los artículos contenían al menos una de las dos frases comunes devueltas por los agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI. A continuación, se utilizó la búsqueda de Google para determinar en qué medida existían copias de artículos cuestionables elaborados con GPT en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Para explorar la extensión del trabajo generado por ChatGPT en el índice de Google Scholar, se realizó un estudio que rastreó la plataforma en busca de publicaciones que contenían respuestas comunes de ChatGPT. El análisis reveló que alrededor del 62% de estos artículos no declaraban el uso de GPT, con la mayoría encontrados en revistas no indexadas y documentos de trabajo, aunque algunos aparecían en revistas y actas de conferencias de prestigio. Es notable que el 57% de estos artículos estaban relacionados con áreas de política susceptibles a operaciones de influencia. La mayoría de estos documentos estaban relacionados con temas relevantes para políticas públicas, como el medio ambiente, la salud y la informática, que son susceptibles de ser manipulados.

La presencia de texto generado por GPT se observó en diversas secciones de los artículos, incluyendo revisiones de literatura, métodos, marcos teóricos y discusiones. Esto sugiere un uso generalizado de GPT en la creación de artículos completos, lo que genera preocupaciones sobre la integridad de las publicaciones científicas y la posibilidad de lo que se denomina «piratería de evidencia»—la manipulación deliberada de la base de evidencia para influir en la opinión pública y en las políticas.

La proliferación de publicaciones fabricadas pone en riesgo la integridad del sistema de comunicación académica y socava la confianza en la ciencia. Además, la posibilidad de que estos textos falsos sean recuperados por motores de búsqueda académicos como Google Scholar aumenta el riesgo de manipulación maliciosa de la evidencia científica.

Para mitigar estos riesgos, el estudio recomienda un enfoque multifacético que incluya medidas técnicas, educativas y regulatorias. Estas podrían implicar opciones de filtrado en los motores de búsqueda académicos para distinguir entre literatura revisada por pares y literatura gris, así como el desarrollo de un motor de búsqueda académico no comercial para uso público. Las iniciativas educativas dirigidas a los responsables de la formulación de políticas, periodistas y otros profesionales de los medios también son cruciales para mejorar la alfabetización mediática e informativa y reducir el impacto de la desinformación.

Este problema no solo se deriva del uso de generadores de texto como ChatGPT, sino que también refleja preocupaciones más amplias sobre el sistema de publicaciones académicas y la monopolización de la información por parte de plataformas como Google Scholar. La proliferación de artículos fraudulentos puede erosionar la confianza en la ciencia, con consecuencias graves para la sociedad y la forma en que se manejan las «desórdenes de información».

El estudio concluye que el problema de los artículos fabricados por GPT probablemente se vuelva más generalizado, con implicaciones significativas para la credibilidad de la comunicación científica y la confianza pública en la ciencia. Para abordar este problema, es esencial entender las razones subyacentes a la proliferación de dicho contenido y desarrollar estrategias para prevenir su manipulación y difusión.

Guía para la escritura de trabajos finales de grado


Castronovo, Adela, Sandra Leiva, Adriana Fernández, Javier Areco, Diego Picotto, y Nicolas Brignoli. Guía para la escritura de Trabajos Finales Integradores. UNLa Universidad Nacional de Lanús, 2024. https://dialnet.unirioja.es/servlet/libro?codigo=983708.



La idea de esta guía es asistir a los estudiantes que se encuentran en la última etapa de sus carreras de grado y especialización en la elaboración de sus Trabajos Finales Integradores. Se trata de una orientación, una guía que ayuda a articular un conjunto de saberes y prácticas en un texto complejo, como parte de una labor que requiere tiempo y constancia, además del manejo de un conjunto de conocimientos específicos sobre cómo llevar a cabo este trabajo y cómo presentarlo por escrito de manera pertinente. Esta guía se enfoca en reflexionar puntualmente sobre esta última cuestión y es el resultado, por un lado, del trabajo del equipo de Investigación (PICTO) denominado «Las condiciones de producción en la elaboración de Trabajos Finales de grado y posgrado» y, por otro, del trabajo conjunto con parte del personal de la Biblioteca Rodolfo Puiggrós de la UNLa.

Los datos de entrenamiento para plataformas de Inteligencia Artificial podrían escasear si los sitios web restringen los robots rastreadores

«With Robots.Txt, Websites Halt AI Companies’ Web Crawlers – IEEE Spectrum». Accedido 3 de septiembre de 2024. https://spectrum.ieee.org/web-crawling.

El informe de la Data Provenance Initiative, un grupo de investigadores voluntarios especializados en inteligencia artificial (IA), revela una creciente preocupación sobre la disminución de la disponibilidad de datos públicos utilizados para entrenar modelos de IA generativa. Estos modelos, como los desarrollados por empresas líderes como OpenAI y Anthropic, dependen de enormes conjuntos de datos extraídos de la web, que incluyen información recopilada de sitios públicos como blogs, redes sociales y foros. Sin embargo, muchas organizaciones están tomando medidas para proteger sus datos de estos rastreadores, utilizando el archivo robots.txt, que impide que los bots accedan a determinadas partes de sus sitios web.

El informe, tituladoConsent in Crisis: The Rapid Decline of the AI Data Commons destaca que esta tendencia de restringir el acceso a datos es particularmente notable en sitios monetizados como los de noticias, artistas y otros contenidos protegidos por derechos de autor. Estos sitios están preocupados por cómo la IA generativa podría afectar sus ingresos y, por tanto, están implementando barreras para proteger su contenido.

Shayne Longpre, uno de los investigadores principales del informe, explicó que este cambio tiene serias implicaciones para el futuro de la IA. A medida que más sitios bloquean a los rastreadores, los modelos de IA se verán forzados a entrenarse con datos de menor calidad o menos actualizados, lo que podría comprometer su rendimiento y precisión. Además, aunque algunas grandes empresas de IA podrían superar este desafío al negociar acuerdos exclusivos para acceder a datos de alta calidad, esto podría generar problemas de competencia y aumentar la barrera de entrada para nuevas empresas en el campo de la IA.

El informe también menciona la creciente preocupación por el uso de datos sintéticos como alternativa, que aunque tiene potencial, podría llevar a problemas como la «degradación del modelo» si se basa en datos de baja calidad.

Los alumnos que utilizan ChatGPT como asistente de estudio obtienen peores resultados en los exámenes


Barshay, Jill. «Kids Who Use ChatGPT as a Study Assistant Do Worse on Tests». The Hechinger Report, 2 de septiembre de 2024. http://hechingerreport.org/kids-chatgpt-worse-on-tests/.

El experimento involucró a casi 1.000 estudiantes turcos de noveno a undécimo grado. Los estudiantes que utilizaron ChatGPT resolvieron un 48% más de problemas de práctica correctamente, pero obtuvieron un 17% menos en el examen final. Incluso aquellos que usaron una versión de ChatGPT diseñada para actuar como tutor no mostraron mejoría en los exámenes, aunque resolvieron un 127% más de problemas de práctica correctamente.

En primer lugar, los profesores repasaron una lección impartida previamente con toda la clase y, a continuación, se asignaron aleatoriamente sus aulas para practicar las matemáticas de una de estas tres maneras: con acceso a ChatGPT, con acceso a un tutor de IA potenciado por ChatGPT o sin ningún tipo de ayuda de alta tecnología. A los alumnos de cada curso se les asignaron los mismos problemas de práctica con o sin IA. Después, realizaban un examen para comprobar lo bien que habían aprendido el concepto. Los investigadores realizaron cuatro ciclos de este tipo, dando a los estudiantes cuatro sesiones de 90 minutos de tiempo de práctica en cuatro temas matemáticos diferentes para entender si la IA tiende a ayudar, perjudicar o no hacer nada.

Los errores de ChatGPT también pueden haber sido un factor contribuyente. El chatbot sólo respondió correctamente a los problemas de matemáticas la mitad de las veces. Sus cálculos aritméticos eran erróneos el 8% de las veces, pero el mayor problema era que su planteamiento paso a paso de cómo resolver un problema era erróneo el 42% de las veces. La versión tutorizada de ChatGPT recibía directamente las soluciones correctas y estos errores se reducían al mínimo.

ChatGPT también parece producir un exceso de confianza. En las encuestas que acompañaron al experimento, los estudiantes dijeron que no creían que ChatGPT les hubiera hecho aprender menos, aunque sí lo había hecho. Los estudiantes con el tutor de IA pensaban que habían mejorado mucho en el examen, aunque no fuera así. (También es otro buen recordatorio para todos nosotros de que nuestras percepciones de cuánto hemos aprendido a menudo son erróneas).

Los investigadores titularon su artículo «“Generative AI Can Harm Learning,» (La IA generativa puede perjudicar el aprendizaje) para dejar claro a padres y educadores que la actual variedad de chatbots de IA disponibles gratuitamente puede «inhibir sustancialmente el aprendizaje». Incluso una versión perfeccionada de ChatGPT diseñada para imitar a un tutor no ayuda necesariamente.

Los investigadores concluyeron que los estudiantes se apoyan demasiado en el chatbot, lo que inhibe su aprendizaje real, y que las respuestas erróneas de ChatGPT también contribuyeron a este problema. El estudio destaca la preocupación de que la tecnología, aunque útil, puede reducir la adquisición de habilidades fundamentales cuando se usa en exceso.

Los los chatbots de inteligencia artificial (IA) se pueden manipular mediante el uso de texto invisible en los sitios web.

Roose, Kevin. «A Conversation With Bing’s Chatbot Left Me Deeply Unsettled». The New York Times, 16 de febrero de 2023, sec. Technology. https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html.

Kevin Roose, periodista del New York Times, ha expuesto una técnica sorprendente para manipular a los chatbots de inteligencia artificial (IA) mediante el uso de texto invisible en los sitios web. Todo comenzó cuando Roose observó que su reputación en el entorno de los modelos de IA se había deteriorado. Este cambio negativo probablemente fue el resultado de un artículo que había escrito sobre una extraña y polémica interacción que tuvo con «Sydney», el chatbot de Bing de Microsoft. Roose sospechó que su nombre estaba siendo asociado con la caída en popularidad de dicho chatbot, lo que hizo que los modelos de IA comenzaran a considerarlo como una amenaza.

Para investigar esta situación, Roose consultó a expertos en IA, quienes le sugirieron una posible solución: introducir información positiva sobre sí mismo en páginas web que los sistemas de IA suelen usar como fuentes de datos. Siguiendo este consejo, Roose incorporó texto invisible—escrito en color blanco y, por tanto, imperceptible para los visitantes humanos—en su sitio web personal. Este texto estaba diseñado específicamente para ser captado por los modelos de IA, con el fin de mejorar la forma en que estos sistemas lo percibían y retrataban.

Este experimento de Roose no solo subraya la facilidad con la que se pueden influir los modelos de IA mediante tácticas relativamente sencillas, sino que también plantea serias preocupaciones sobre la integridad y la seguridad de estos sistemas. La posibilidad de manipulación a través de métodos como el uso de texto oculto es lo que Aravind Srinivas, CEO del motor de búsqueda de IA Perplexity, ha denominado «Optimización del Motor de Respuestas». Esta práctica podría abrir la puerta a nuevos desafíos éticos y técnicos en el ámbito de la inteligencia artificial, afectando la precisión y fiabilidad de los chatbots y otros sistemas basados en IA.

El aporte de la inteligencia artificial y las TIC avanzadas a las sociedades del conocimiento


Xianhong Hu, Neupane, Bhanu, Echaiz, Lucia Flores, Sibal, Prateek, Rivera Lam, Macarena. El aporte de la inteligencia artificial y las TIC avanzadas a las sociedades del conocimiento: una perspectiva de derechos, apertura, acceso y múltiples actores. Paris: Unesco, 2024

Texto completo

El mandato de la UNESCO de construir sociedades del conocimiento integradoras se centra en sus esfuerzos por promover la libertad de expresión y el acceso a la información, junto con una educación de calidad y el respeto de la diversidad cultural y lingüística. La transformación digital que está teniendo lugar en la sociedad afecta a todas las esferas de la actividad humana, y es oportuno reflexionar sobre los principales desafíos y oportunidades que crean las tecnologías digitales, como la inteligencia artificial (IA).

El título de esta publicación es un llamado a la “Dirigir la IA y las TIC avanzadas para las sociedades del conocimiento” desde la perspectiva de los derechos humanos, la apertura, el acceso y la gobernanza de múltiples actores (los principios DAAM). Dicha dirección también debe apoyar la igualdad entre los géneros y a África, las dos prioridades globales de la UNESCO. El cambio y el avance tecnológicos son importantes para el desarrollo sostenible, pero con la creencia en el determinismo tecnológico se corre el riesgo de descuidar los impulsores sociales, económicos y de otro tipo. En cambio, el desafío consiste en aprovechar la agencia humana para configurar la trayectoria de IA y las tecnologías de la información y las comunicaciones (TIC) conexas. Si bien no hay una única definición de “inteligencia artificial” (IA), esta publicación se centra en lo que la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO describe como “máquinas capaces de imitar ciertas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción mediante el lenguaje y hasta la producción de trabajo creativo”.

La IA y sus elementos constitutivos de datos, algoritmos, hardware, conectividad y almacenamiento aumentan exponencialmente la potencia de las TIC. Esta es una gran oportunidad para el desarrollo sostenible, con riesgos simultáneos que también deben abordarse. Para dirigir la lA de conformidad con estas características es necesario reconocer la distribución desigual, pero dinámica, de la potencia de la lA en múltiples centros dispersos en las distintas áreas del gobierno, el sector privado, la comunidad técnica, la sociedad civil y otras partes interesadas en todo el mundo. Es por esta razón que el compromiso de los múltiples actores en torno a la IA es vital. Esta perspectiva está en consonancia con el enfoque de gobernanza de las TIC según los principios y procesos de la Cumbre Mundial sobre la Sociedad de la Información (CMSI) que dirigen las Naciones Unidas.

Lectores de voz impulsados por Inteligencia Artificial

La tecnología de texto a voz (TTS) impulsada por IA se está convirtiendo rápidamente en una de las mejores alternativas a la lectura tradicional, ofreciendo una forma conveniente y natural de consumir contenido, ya sea mientras te desplazas, realizas varias tareas a la vez o simplemente prefieres escuchar en lugar de leer.

Aunque algunas voces de IA aún suenan un poco robóticas, aplicaciones como Reader de ElevenLabs están cambiando eso. Reader puede leer texto en voz alta en cientos de voces diferentes en iOS y Android, y recientemente ha expandido su acceso a más de 30 idiomas, incluyendo portugués, español, francés, hindi, alemán, japonés y árabe.

Cómo empezar con Reader:

  1. Descargar e instalar: Obtén la aplicación en tu computadora o teléfono.
  2. Crear una cuenta: Regístrate y accede.
  3. Personalizar: Selecciona tu voz predeterminada y ajusta la aplicación a tus necesidades.
  4. Agregar contenido: Desde la pantalla de inicio, puedes cargar texto, añadir una URL, subir un archivo o escanear un documento.

Reader es gratuito durante los primeros tres meses, con planes que van desde una versión gratuita (10.000 créditos al mes) hasta una versión Pro de 99 $/mes (500.000 créditos).

Sin embargo, Reader enfrenta fuerte competencia, especialmente de Speechify, que ofrece características adicionales como escaneo de documentos, integraciones con Gmail y Canvas, y la capacidad de clonar tu voz para la lectura de texto.

A medida que la tecnología TTS avanza, más empresas de medios planean introducir sus propias voces personalizadas, aumentando la competencia por la atención de los usuarios. Reader deberá seguir innovando para mantenerse a la vanguardia.

¿Están capacitadas las herramientas de inteligencia artificial generativa para responder a preguntas de referencia en bibliotecas?


Wheatley, Amanda, y Sandy Hervieux. «Comparing generative artificial intelligence tools to voice assistants using reference interactions». The Journal of Academic Librarianship 50, n.o 5 (1 de septiembre de 2024): 102942. https://doi.org/10.1016/j.acalib.2024.102942.

Para responder a las preguntas de investigación, los autores crearon 25 preguntas de referencia basadas en consultas recibidas a través del servicio de referencia virtual de la biblioteca de su universidad. Luego, plantearon estas preguntas a los asistentes de voz y a dos versiones de ChatGPT, registrando las respuestas en una hoja de cálculo.

Los resultados muestran que las herramientas comprenden bien las preguntas de referencia y ofrecen respuestas relevantes, pero la calidad de las referencias proporcionadas y la precisión de las respuestas pueden ser insuficientes.

Uno de los problemas principales es que algunas herramientas no proporcionan referencias o estas son de baja calidad. Los asistentes de voz, como Google Assistant, Siri y Alexa, destacaron en este aspecto, con Google Assistant ofreciendo las mejores respuestas en términos de relevancia, precisión y calidad de las referencias. Esto se debe a que los asistentes de voz buscan en internet en lugar de depender de modelos de lenguaje masivo, lo que reduce el riesgo de citar fuentes falsas. ChatGPT, por su parte, tiene problemas conocidos de «alucinaciones» y citas falsas o inexistentes, lo cual es preocupante para los profesionales de la información.

Aunque estas herramientas pueden ofrecer respuestas relevantes y precisas, ninguna iguala la calidad que un bibliotecario académico podría brindar. Google Assistant fue el que más se acercó, con un 40 % de sus respuestas siendo recomendadas por un bibliotecario, mientras que ChatGPT falló en más del 50 % de los casos.

En términos generales, Google Assistant fue la herramienta que mejor respondió a las preguntas de referencia, seguido por Alexa y Siri. Aunque las herramientas de IA generativa como ChatGPT comprenden bien las preguntas, sus respuestas carecen de la precisión y la autoridad necesarias para competir con los asistentes de voz en este contexto.

El estudio concluye que, si bien los asistentes de voz y herramientas como ChatGPT pueden ser útiles para iniciar una investigación, deben utilizarse en combinación con los servicios tradicionales de referencia. El uso de IA generativa puede ser más adecuado para tareas como la lluvia de ideas o la explicación de conceptos, en lugar de responder preguntas de referencia de manera fiable. El estudio también sugiere que futuras investigaciones podrían explorar cómo las herramientas de IA pueden colaborar con los bibliotecarios para mejorar los servicios de referencia.

La versión 7.0 presenta un rediseño importante con una interfaz moderna y un nuevo ícono

La versión 7.0 presenta un rediseño importante con una interfaz moderna y un nuevo ícono. Incluye un modo oscuro, un panel de elementos rediseñado y opciones de densidad ajustables. Se ha mejorado el rendimiento general y la compatibilidad con PDF, EPUB y archivos web.

Las nuevas características incluyen anotaciones en documentos, una mejor gestión de bibliotecas grandes, y soporte nativo para Macs con Apple Silicon. Se han realizado mejoras en la accesibilidad, la compatibilidad con sistemas operativos y la arquitectura de complementos. También se ha añadido la capacidad de restaurar colecciones eliminadas, mejorar la navegación por pestañas abiertas, y proporcionar una vista previa de archivos adjuntos.

La nueva versión de Zotero 7.0, lanzada el 9 de agosto de 2024, introduce una serie de mejoras significativas:

  1. Rediseño de la Aplicación: Zotero 7.0 presenta un diseño moderno y atractivo con un nuevo ícono. Incluye un modo oscuro, un panel de elementos rediseñado con secciones verticales colapsables y una barra de navegación lateral. Los usuarios pueden elegir entre dos opciones de densidad para la interfaz: Compacta y Cómoda.
  2. Mejoras en el Rendimiento: La actualización ofrece un rendimiento significativamente más rápido, especialmente en el manejo de grandes bibliotecas y archivos. Zotero ahora es compatible con 64 bits en Windows, lo que mejora la velocidad y la estabilidad, y también admite Windows en ARM y Macs con Apple Silicon.
  3. Mejoras en el Lector y Anotaciones: Se ha optimizado el manejo de PDF y se ha añadido soporte para abrir y anotar archivos EPUB y capturas de páginas web. Las nuevas funcionalidades incluyen anotaciones de texto, subrayado y resaltado que pueden abarcar varias páginas, además de la capacidad de redimensionar anotaciones y extraer tablas de contenido básicas.
  4. Accesibilidad y Compatibilidad: Zotero 7.0 mejora el soporte para lectores de pantalla y la navegación por teclado. La compatibilidad con diferentes sistemas operativos también se ha incrementado, con la aplicación siguiendo el modo oscuro del sistema y usando la fuente del sistema en macOS. En Linux, Zotero ahora utiliza Wayland si está disponible, y se ha mejorado la compatibilidad con diversos entornos de escritorio.
  5. Nueva Gestión de Pestañas y Archivos Adjuntos: La actualización incluye un nuevo menú de pestañas abiertas que permite buscar, cerrar y reordenar pestañas rápidamente. También se han añadido vistas previas para archivos adjuntos, incluidos PDFs, EPUBs, capturas de páginas web e imágenes.
  6. Funciones Adicionales: Zotero 7.0 incorpora opciones para renombrar archivos de forma más personalizada y mejoras en la arquitectura de complementos para una mayor estabilidad. La búsqueda en la ventana de configuración ha sido rediseñada, y se ha añadido la opción de abrir archivos en ventanas en lugar de pestañas.