Archivo de la categoría: Noticias

Todo lector auténtico es también amigo de los libros

“En el fondo, todo lector auténtico es también amigo de los libros. Porque el que sabe acoger y amar un libro con el corazón, quiere que sea suyo a ser posible, quiere volver a leerlo, poseerlo y saber que siempre está cerca y a su alcance. (…) Para el buen lector, leer un libro significa aprender a conocer la manera de ser y pensar de una persona extraña, tratar de comprenderla y quizá ganarla como amigo. (…) El que quedó cautivado un día por un libro, el que empieza a conocer y entender al autor, el que logró establecer una relación con él, para ése empieza a surtir verdaderamente efecto el libro. Por eso no se desprenderá de él, no lo olvidará, sino que lo conservará, es decir, lo comprará, para leer y vivir en sus páginas cuando lo desee”.

HERMANN HESSE
“Leer y poseer libros” (1908)

¿Cómo están respondiendo los investigadores a la Inteligencia Artificial (IA), que les entusiasma y preocupa?

Heaton, Benedict. «How are researchers responding to AI?» Oxford University Press, 23 de mayo de 2024. https://corp.oup.com/news/how-are-researchers-responding-to-ai/.

Oxford University Press recientemente llevó a cabo una encuesta entre más de 2,000 investigadores de diversas geografías, disciplinas académicas —incluyendo Humanidades, Ciencias STM (Science, Technology, Medicine), y Ciencias Sociales— y diferentes etapas de carrera, con el objetivo de conocer directamente de la comunidad investigadora cómo están reaccionando y utilizando la inteligencia artificial en su trabajo.

Encuesta a más de 2,000 investigadores de diversas geografías, disciplinas académicas —incluyendo Humanidades, Ciencias STM y Ciencias Sociales— y diferentes etapas de carrera, para conocer directamente de la comunidad de investigación cómo están reaccionando y utilizando la IA en su trabajo.

Los resultados revelan las consideraciones clave en las decisiones de los investigadores para involucrarse con la IA, incluyendo qué aspectos les entusiasman y les preocupan, y cómo están utilizando —o planean utilizar— las herramientas ya disponibles para ellos.

La mayoría de los investigadores académicos y autores de investigación afirman estar utilizando herramientas de inteligencia artificial (IA) en su práctica investigativa, a pesar de preocupaciones sobre la pérdida de habilidades críticas de pensamiento, el respeto por los derechos de propiedad intelectual (IP) y la desconfianza en los proveedores de IA.

Resumen de los hallazgos generales

  • Poco más de tres cuartas partes (76%) de los investigadores reportan utilizar alguna forma de herramienta de inteligencia artificial (IA) en su investigación actualmente. Las herramientas de traducción automática (49%) y los chatbots (43%) son las más populares, seguidas de los motores de búsqueda o herramientas de investigación impulsadas por IA (25%).
  • Un poco más de una cuarta parte (27%) indica tener un buen entendimiento general de las herramientas de IA.
  • Al considerar las etapas de la investigación, la IA se utiliza principalmente para descubrir investigaciones existentes, así como para la edición y resumen de investigaciones ya realizadas.
  • Aquellos que utilizan la IA en cualquier etapa de su investigación tienden a sentir que se han beneficiado al hacerlo, principalmente porque ayuda con la eficiencia.
  • La mitad (46%) de los investigadores informa que la institución donde trabajan no tiene una política de IA, y otro cuarto (26%) indica que no lo sabe.
  • En general, la confianza en las compañías de IA es muy baja, con solo un 8% confiando en que las compañías de IA no usarán sus datos sin permiso, y un 6% confiando en que cumplirán con los requisitos de privacidad y seguridad de datos.
  • También existen fuertes preocupaciones sobre las implicaciones para la propiedad intelectual y cómo la IA impactará la investigación académica en general, con una cuarta parte (25%) del grupo creyendo que la IA reduce la necesidad de pensamiento crítico.

En conclusión, la mayoría dice haber utilizado alguna forma de IA y más de dos tercios han sentido los beneficios de usar IA. También, la gran mayoría expresa desconfianza hacia las compañías de IA. Les preocupa cómo la IA podría afectar la calidad de la investigación, en concreto tienen temores sobre las cuestiones de propiedad intelectual, la posible reducción de habilidades críticas de pensamiento debido a la IA. También reconocen la importancia de considerar las implicaciones del uso de IA y más de la mitad dicen que buscaría orientación sobre IA en sociedades académicas.

    La gente no quiere leer, quiere haber leído

    «La gente no quiere leer, quiere haber leído. Claro, leer es bueno. Lo que quizás para algunos, no parece tan bueno, es pasarse un mes, todas las noches, desvelado, leyendo Los Miserables.

    Claro, la gente de hoy es muy ansiosa, quiere una rápida satisfacción y no espera por los placeres, dice: ‘¿Cuánto me falta?, tene como 400 páginas, voy por la 28, y hace dos meses que lo estoy leyendo’. Y el tipo de sentimiento es que nunca tiene una terminación vacía de Los Miserables, para poder decirle a sus amigos: ‘He leído Los Miserables’.

    Creo sospechar, que más que el saber que un libro deja como sedimento, lo que nos hace mejor es el esfuerzo de la lectura. La inspiración de la mente y el corazón puede ser escuchada por el lector que lee el libro.

    Esto es lo que significa. Algo bueno debe haber en el camino en el esfuerzo para que la gente lo desee. Y creo que lo que hay de bueno en la lectura es eso. Las horas de desvelo, el debate uno para ver si entiende lo que un tipo le ha querido decir en un libro. Y hay que decirlo, el placer enorme de haber aprendido a disfrutar de un libro».

    Alejadro Dolina

    Encuesta sobre el uso de chatbots de IA generativa por parte de estudiantes para la investigación académica

    Deschenes, A., & McMahon, M. (2024). A Survey on Student Use of Generative AI Chatbots for Academic Research. Evidence Based Library and Information Practice19(2), 2–22. https://doi.org/10.18438/eblip30512

    El estudio de Amy Deschenes y Meg McMahon de la Universidad de Harvard revela que el 65% de los estudiantes utiliza o planea utilizar chatbots de IA generativa para trabajos académicos, aunque muchos desconfían de sus resultados. A pesar de su uso activo, los estudiantes buscan orientación para utilizarlos eficazmente. Los bibliotecarios deben aprender a usar estas herramientas para apoyar a los estudiantes en la evaluación crítica y la incorporación de resultados de IA en sus investigaciones.

    La investigación tiene como tiene como objetivo comprender el uso de la IA generativa entre estudiantes de pregrado y posgrado. Específicamente, se busca saber cuántos estudiantes utilizan estas herramientas, con qué frecuencia y para qué tareas. Además, se pretende identificar la confianza de los estudiantes en los resultados generados por la IA y sus opiniones sobre la posibilidad de una herramienta de IA generativa mantenida localmente. También se exploró el interés de los estudiantes en recibir capacitación sobre el uso de la IA generativa en el contexto académico. Este estudio tiene como finalidad ayudar a los bibliotecarios a entender la adopción de la IA generativa entre los estudiantes y la necesidad de incorporarla en sus labores de apoyo académico.

    Para llevar a cabo el estudio, un equipo compuesto por tres miembros del personal de la biblioteca y un pasante estudiante diseñó y ejecutó una encuesta que fue distribuida a 360 estudiantes de la Universidad de Harvard. La distribución se realizó a través de listas de correo electrónico y en lugares frecuentados por estudiantes como cafés y bibliotecas del campus. La recopilación y análisis de datos se llevó a cabo utilizando la plataforma Qualtrics.

    Los resultados revelaron que casi el 65% de los encuestados ha utilizado o planea utilizar chatbots de IA generativa para sus trabajos académicos. Sin embargo, a pesar de este uso, la mayoría de los estudiantes (65%) no considera que los resultados generados por la IA sean suficientemente confiables para fines académicos. Estos hallazgos indican que, aunque los estudiantes emplean activamente estas herramientas, existe una necesidad de orientación y formación sobre su uso eficaz.

    Se encontró que casi el 65% de los encuestados ha utilizado o planea utilizar chatbots de IA generativa para el trabajo académico, aunque la mayoría de los encuestados (65%) no encuentra sus resultados lo suficientemente confiables para el trabajo académico. Los hallazgos muestran que los estudiantes usan activamente estas herramientas, pero desean orientación sobre cómo usarlas eficazmente.

    En conclusión, la investigación muestra que los estudiantes están interactuando con la IA generativa en sus actividades académicas, pero no confían completamente en la información que esta produce. Es esencial que los bibliotecarios comprendan el impacto significativo de esta tecnología en los hábitos de búsqueda de información y de investigación de los estudiantes. Para brindar un apoyo adecuado, los bibliotecarios deben estar capacitados en el uso de estas herramientas, de manera que puedan asesorar a los estudiantes sobre cómo evaluar críticamente los resultados de la IA e incorporarlos de manera efectiva en sus investigaciones.

    Declaración sobre la protección de archivos, bibliotecas, museos y lugares patrimoniales en situaciones de conflictos armados e inestabilidad política

    Archives (ICA), International Council on, International Council of Museums (ICOM), International Council on Monuments and Sites (ICOMOS), y International Federation of Library Associations and Institutions (IFLA). «Declaración sobre la protección de archivos, bibliotecas, museos y lugares patrimoniales en situaciones de conflictos armados e inestabilidad política», 30 de mayo de 2024. https://repository.ifla.org/handle/123456789/3355.

    «Repudiamos la pérdida de vidas humanas y reafirmamos la prioridad de proteger a todas las personas. También condenamos los ataques y la destrucción de museos, archivos, bibliotecas y lugares patrimoniales, ya que son una parte vital y única de la cultura de los pueblos afectados por el conflicto.»

    ICA, ICOM, ICOMOS, IFLA

    La IFLA se unió a socios de todo el mundo en La Haya para conmemorar los 70 años de protección del patrimonio cultural en una conferencia organizada por la UNESCO y el Reino de los Países Bajos. En esta ocasión, nos unimos a organizaciones hermanas y miembros fundadores del Escudo Azul Internacional para reafirmar nuestro llamamiento a la protección de archivos, bibliotecas, museos y lugares patrimoniales durante los conflictos armados y la inestabilidad política. Esta declaración es una muestra de solidaridad de todo el sector del patrimonio cultural, que une sus voces para instar a todos los implicados en conflictos a que respeten el trabajo de estos profesionales y protejan sus vidas y su integridad

    Un conjunto de datos abierto sobre los gastos de procesamiento de artículos de seis grandes editoriales académicas (2019-2023)

    Butler, Leigh-Ann, Madelaine Hare, Nina Schönfelder, Eric Schares, Juan Pablo Alperin, y Stefanie Haustein. «An open dataset of article processing charges from six large scholarly publishers (2019-2023)». arXiv, 12 de junio de 2024. https://doi.org/10.48550/arXiv.2406.08356.

    El artículo presenta un conjunto de datos de tarifas de procesamiento de artículos (APC) producidos a partir de las listas de precios de seis grandes editoriales académicas – Elsevier, Frontiers, PLOS, MDPI, Springer Nature y Wiley – entre 2019 y 2023. Las listas de precios APC se descargaron de los sitios web de los editores cada año, así como a través de instantáneas de Wayback Machine para recuperar las tarifas por revista por año. El conjunto de datos incluye metadatos de revistas, método de cobro de APC e información de listas de precios anuales de APC en varias divisas (USD, EUR, GBP, CHF, JPY, CAD) para 8.712 revistas únicas y 36.618 combinaciones revista-año. El conjunto de datos se generó para permitir un análisis más preciso de las APC y puede apoyar el desarrollo de la colección de la biblioteca y el análisis cienciométrico estimando las APC pagadas en revistas de AA de oro e híbridas.

    3 razones para unirte a un makerspace local

    Levasseur, Jean. «3 reasons to join your local makerspace The best thing about makerspaces? The people.». Popular Science. 13 de septiembre de 2022. https://www.popsci.com/rise-makerspace-by-numbers/

    Los makerspaces, o espacios de creación, son instalaciones que están surgiendo en todo el país y que ofrecen a las personas que aman hacer cosas el espacio, las herramientas y el equipo para participar en una amplia variedad de manualidades, como carpintería, metalurgia, cerámica, electrónica, costura y más.

    Más espacio, más herramientas

    Una de las principales ventajas de unirse a un makerspace es el acceso a un espacio de trabajo amplio y bien equipado. Esto permite a los usuarios trabajar en proyectos de mayor envergadura y con herramientas que, de otro modo, serían demasiado costosas o voluminosas para tenerlas en casa. Además, la libertad de trabajar sin preocuparse por ensuciar es un gran beneficio para muchos aficionados a la creación.

    Únase a una comunidad de creadores

    Más allá del espacio y las herramientas, los makerspaces ofrecen un valioso sentido de comunidad. Los usuarios pueden aprender unos de otros, compartir ideas y colaborar en proyectos. Este entorno de aprendizaje colaborativo es especialmente beneficioso para los principiantes, que pueden obtener orientación y apoyo de miembros más experimentados.

    Explore nuevas posibilidades

    Los makerspaces son un lugar ideal para explorar nuevos pasatiempos e intereses. Con acceso a una amplia gama de herramientas y equipos, los usuarios pueden probar diferentes técnicas y materiales sin tener que invertir en sus propias herramientas. Esta es una excelente manera de descubrir nuevas pasiones y desarrollar habilidades creativas.

    En resumen, unirse a un makerspace local puede ser una experiencia gratificante y enriquecedora para cualquier persona que disfrute de la creación.

    Aquí hay algunos consejos adicionales para encontrar y unirse a un makerspace en su área:

    • Busque en línea: Hay muchos sitios web que enumeran makerspaces por ubicación e interés.
    • Pregunte en su comunidad local: Es posible que haya un makerspace que no esté bien anunciado en línea. Pregunte a sus amigos, familiares y compañeros de trabajo si saben de alguno.
    • Visite un makerspace abierto: Muchos makerspaces ofrecen eventos de puertas abiertas o días de prueba gratuitos. Esta es una excelente manera de conocer el espacio, las herramientas y la comunidad.

    No tenga miedo de salir y explorar. ¡El makerspace perfecto para usted puede estar esperándolo!

    ¿Está ChatGPT más cerca de un bibliotecario humano que de Google?

    Brandom, David. ChatGPT: An AI OpenAI Like a Librarian, Search Google. [Gizmodo]. 2024-06-13. https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908

    El modelo predominante de acceso y recuperación de información antes de que los motores de búsqueda se convirtieran en la norma -bibliotecarios y expertos en la materia o en la búsqueda que proporcionaban información relevante- era interactivo, personalizado, transparente y autorizado. Hoy en día, los motores de búsqueda son la principal forma de acceder a la información, pero introducir unas cuantas palabras clave y obtener una lista de resultados ordenados por alguna función desconocida no es lo ideal.

    Una nueva generación de sistemas de acceso a la información basados en inteligencia artificial, como Bing/ChatGPT de Microsoft, Google/Gemini y Meta/LLaMA, está cambiando el modo tradicional de entrada y salida de los motores de búsqueda. Estos sistemas son capaces de tomar frases completas e incluso párrafos como entrada y generar respuestas personalizadas en lenguaje natural.

    Casi 4.000 empleos se perdieron el mes pasado a causa de la IA, según un informe
    Nvidia afirma que su nuevo superordenador «cierra oficialmente la brecha digital». Las antiguas predicciones sobre IA demuestran que nuestras esperanzas y temores no son nuevos, aunque la tecnología sí lo sea

    A primera vista, esto podría parecer lo mejor de ambos mundos: respuestas personales y personalizadas combinadas con la amplitud y profundidad del conocimiento en Internet. Pero como investigador que estudia los sistemas de búsqueda y recomendación, creo que el panorama es, en el mejor de los casos, contradictorio.

    Los sistemas de IA como ChatGPT y Gemini se basan en grandes modelos lingüísticos. Un modelo lingüístico es una técnica de aprendizaje automático que utiliza una gran cantidad de textos disponibles, como artículos de Wikipedia y PubMed, para aprender patrones. En términos sencillos, estos modelos calculan qué palabra es probable que venga a continuación, dado un conjunto de palabras o una frase. De este modo, son capaces de generar frases, párrafos e incluso páginas que corresponden a una consulta de un usuario.

    Gracias al entrenamiento sobre grandes volúmenes de texto, el ajuste fino y otros métodos basados en el aprendizaje automático, este tipo de técnica de recuperación de información funciona con bastante eficacia. Los grandes sistemas basados en modelos lingüísticos generan respuestas personalizadas para satisfacer las consultas de información. Los resultados han sido tan impresionantes que ChatGPT alcanzó los 100 millones de usuarios en un tercio del tiempo que tardó TikTok en llegar a ese hito. La gente lo ha utilizado no sólo para encontrar respuestas, sino para generar diagnósticos, crear planes de dieta y hacer recomendaciones de inversión.

    Sin embargo, hay muchos inconvenientes. En primer lugar, consideremos lo que constituye el núcleo de un gran modelo lingüístico: un mecanismo mediante el cual conecta las palabras y, presumiblemente, sus significados. Esto produce un resultado que a menudo parece una respuesta inteligente, pero se sabe que los grandes sistemas de modelos lingüísticos producen declaraciones casi como loros sin una comprensión real. Así, aunque el resultado generado por estos sistemas pueda parecer inteligente, no es más que un reflejo de patrones subyacentes de palabras que la IA ha encontrado en un contexto apropiado.

    Esta limitación hace que los grandes sistemas de modelos lingüísticos sean susceptibles de inventar o «alucinar» respuestas. Los sistemas tampoco son lo suficientemente inteligentes como para entender la premisa incorrecta de una pregunta y responder de todos modos a preguntas erróneas. Por ejemplo, cuando se le pregunta qué cara de presidente de EE.UU. aparece en el billete de 100 dólares, ChatGPT responde Benjamin Franklin sin darse cuenta de que Franklin nunca fue presidente y de que la premisa de que el billete de 100 dólares tiene la foto de un presidente de EE.UU. es incorrecta.

    El problema es que, aunque estos sistemas se equivoquen sólo un 10% de las veces, no se sabe qué 10%. La gente tampoco tiene la capacidad de validar rápidamente las respuestas de los sistemas. Esto se debe a que estos sistemas carecen de transparencia: no revelan con qué datos se han entrenado, qué fuentes han utilizado para dar respuestas o cómo se generan esas respuestas.

    Por ejemplo, puedes pedirle a ChatGPT que escriba un informe técnico con citas. Pero a menudo se inventa estas citas, «alucinando» tanto con los títulos de los artículos académicos como con los autores. Los sistemas tampoco validan la exactitud de sus respuestas. Esto deja la validación en manos del usuario, y los usuarios pueden no tener la motivación o las habilidades para hacerlo o incluso reconocer la necesidad de comprobar las respuestas de una IA. ChatGPT no sabe cuándo una pregunta no tiene sentido, porque no conoce ningún dato.

    Aunque la falta de transparencia puede ser perjudicial para los usuarios, también es injusta para los autores, artistas y creadores de los contenidos originales de los que han aprendido los sistemas, ya que éstos no revelan sus fuentes ni proporcionan atribuciones suficientes. En la mayoría de los casos, los creadores no son compensados ni acreditados, ni se les da la oportunidad de dar su consentimiento.

    Esto también tiene un aspecto económico. En un motor de búsqueda típico, los resultados se muestran con los enlaces a las fuentes. Esto no sólo permite al usuario verificar las respuestas y proporciona las atribuciones a esas fuentes, sino que también genera tráfico para esos sitios. Muchas de estas fuentes dependen de este tráfico para sus ingresos. Dado que los grandes sistemas de modelos lingüísticos producen respuestas directas, pero no las fuentes de las que proceden, creo que es probable que esos sitios vean disminuir sus fuentes de ingresos.

    Por último, esta nueva forma de acceder a la información también puede restar poder a las personas y quitarles la oportunidad de aprender. Un proceso de búsqueda típico permite a los usuarios explorar el abanico de posibilidades para sus necesidades de información, lo que a menudo les lleva a ajustar lo que buscan. También les da la oportunidad de aprender qué hay ahí fuera y cómo se conectan las distintas piezas de información para realizar sus tareas. Y permite encuentros accidentales o serendipia.

    Son aspectos muy importantes de la búsqueda, pero cuando un sistema produce los resultados sin mostrar sus fuentes ni guiar al usuario a través de un proceso, le priva de estas posibilidades.

    Los grandes modelos lingüísticos suponen un gran avance en el acceso a la información, ya que ofrecen a las personas una forma de interactuar basada en el lenguaje natural, producir respuestas personalizadas y descubrir respuestas y patrones que a menudo resultan difíciles de imaginar para un usuario medio. Pero tienen graves limitaciones por la forma en que aprenden y construyen las respuestas. Sus respuestas pueden ser erróneas, tóxicas o sesgadas.

    Aunque otros sistemas de acceso a la información también pueden adolecer de estos problemas, los sistemas de IA con grandes modelos lingüísticos también carecen de transparencia. Y lo que es peor, sus respuestas en lenguaje natural pueden contribuir a alimentar una falsa sensación de confianza y autoridad que puede resultar peligrosa para los usuarios desinformados.

    OpenAI y Apple anuncian una colaboración para Integrar ChatGPT en las experiencias de Apple

    «OpenAI and Apple Announce Partnership». Accedido 13 de junio de 2024. https://openai.com/index/openai-and-apple-announce-partnership/.

    Apple está integrando ChatGPT en las experiencias dentro de iOS, iPadOS y macOS, permitiendo a los usuarios acceder a las capacidades de ChatGPT, incluyendo la comprensión de imágenes y documentos, sin necesidad de cambiar entre herramientas.

    Siri también podrá utilizar la inteligencia de ChatGPT cuando sea útil. Los usuarios de Apple serán consultados antes de que cualquier pregunta se envíe a ChatGPT, junto con cualquier documento o foto, y luego Siri presentará la respuesta directamente.

    Además, ChatGPT estará disponible en las Herramientas de Escritura de todo el sistema de Apple, para ayudar a los usuarios a generar contenido sobre cualquier tema que estén escribiendo. Los usuarios también podrán utilizar las herramientas de imágenes de ChatGPT para generar imágenes en una amplia variedad de estilos que complementen lo que están escribiendo.

    Las protecciones de privacidad están integradas al acceder a ChatGPT dentro de Siri y Herramientas de Escritura: las solicitudes no son almacenadas por OpenAI y las direcciones IP de los usuarios están ocultas. Los usuarios también pueden optar por conectar su cuenta de ChatGPT, lo que significa que sus preferencias de datos se aplicarán bajo las políticas de ChatGPT.

    La integración de ChatGPT, impulsada por GPT-4o, llegará a iOS, iPadOS y macOS a finales de este año. Los usuarios podrán acceder de forma gratuita sin crear una cuenta, y los suscriptores de ChatGPT podrán conectar sus cuentas y acceder a funciones pagas directamente desde estas experiencias.

    Publicación de CiteScore 2023 (2024)

    «CiteScore 2023: A comprehensive, clear and current metric for journal impact | Elsevier Scopus Blog». Accedido 13 de junio de 2024. https://blog.scopus.com/posts/citescore-2023-a-comprehensive-clear-and-current-metric-for-journal-impact.

    Scopus anuncia el próximo lanzamiento de CiteScore 2023, una métrica que proporciona información sobre el impacto de las citas de las revistas.

    Desarrollado por el equipo del International Center for the Study of Research (ICSR), CiteScore ofrece una evaluación equilibrada y completa de las contribuciones basadas en la investigación de una revista. CiteScore permite a investigadores, bibliotecarios, editores y oficinas de investigación tomar decisiones bien informadas sobre dónde publicar y estrategias de publicación.

    Aspectos destacados del lanzamiento de CiteScore 2023:

    1. Cobertura ampliada: CiteScore 2023 incluye 29.777 títulos activos, con 2.212 títulos recibiendo su primer CiteScore. Esta cobertura más amplia asegura un conjunto de datos más completo para evaluar el impacto de las revistas.
    2. Más títulos de acceso abierto: El lanzamiento incluye 6.943 títulos de acceso abierto, con 52 de ellos clasificándose como número 1 en sus respectivas categorías, destacando la creciente importancia de la investigación de acceso abierto.
    3. Diversas categorías temáticas: CiteScore cubre 334 categorías temáticas, con Historia siendo el área más grande, comprendiendo 1.760 títulos. Esta diversidad permite a los usuarios explorar el impacto en varios campos.
    4. Títulos de alto impacto: CiteScore 2023 identifica 11.144 títulos con CiteScore pero sin Factor de Impacto en 2022. Entre ellos, 416 títulos están altamente clasificados en sus respectivas áreas, ubicándolos en el top 10%.
    5. Representación global: El 22% de las revistas CiteScore son publicaciones no en inglés en más de 50 idiomas, proporcionando una perspectiva global sobre el impacto de la investigación.
    6. Impacto creciente: 668 títulos experimentaron un aumento de CiteScore del 100% o más entre 2022 y 2023, mostrando la naturaleza dinámica del impacto de la investigación.

    La metodología de CiteScore refleja el impacto de citación de las contribuciones basadas en la investigación de una revista con mayor estabilidad, consistencia en los períodos de tiempo utilizados, y permanece integral, actual, clara y gratuita. Fue desarrollada por el equipo del ICSR (International Center for the Study of Research), basado en una investigación de mercado extensa y según Scopus aprovecha las debilidades inherentes del JIF como métrica de citación a nivel de revista.