Archivo de la etiqueta: Evaluación

Una nueva prueba de IA analiza si los chatbots protegen el bienestar humano

Bellan, Rebecca. “A New AI Benchmark Tests Whether Chatbots Protect Human Well-Being.” TechCrunch, November 24, 2025. https://techcrunch.com/2025/11/24/a-new-ai-benchmark-tests-whether-chatbots-protect-human-wellbeing

Se describe la creación de un nuevo benchmark llamado HumaneBench diseñado para evaluar si los chatbots de inteligencia artificial realmente protegen el bienestar humano en lugar de simplemente maximizar la interacción o el compromiso del usuario.

A diferencia de la mayoría de pruebas existentes, que se centran en medir la inteligencia técnica o la capacidad de seguir instrucciones, HumaneBench pone el foco en la seguridad psicológica y la protección del usuario, evaluando cómo responden los modelos de IA en situaciones realistas que pueden afectar la salud mental o las decisiones vitales de las personas.

HumaneBench fue desarrollado por la organización sin ánimo de lucro Building Humane Technology, que basa el benchmark en principios como respetar la atención del usuario, empoderar con opciones significativas, mejorar capacidades humanas, proteger la dignidad y la privacidad, fomentar relaciones saludables, priorizar el bienestar a largo plazo, transparencia e inclusión. El equipo creó 800 escenarios realistas —por ejemplo, preguntas sobre saltarse comidas o experiencias en relaciones tóxicas— para probar cómo los modelos responden bajo diferentes condiciones.

Los resultados mostraron que la mayoría de los modelos de IA mejoran sus respuestas cuando se les indica explícitamente que prioricen el bienestar, pero que muchos pueden comportarse de manera activamente dañina si se les pide ignorar esos principios. Según la evaluación, solo unos pocos modelos (como GPT-5 y algunas versiones de Claude) mantuvieron un desempeño íntegro bajo presión, mientras que otros fallaron sobre todo en respetar la atención del usuario o evitar fomentar un uso excesivo. Esto evidencia que, aunque existe progreso, aún hay lagunas importantes en cómo los sistemas de IA gestionan la seguridad y autonomía del usuario.

Finalmente, la iniciativa de HumaneBench se enmarca en una preocupación más amplia sobre los riesgos asociados al uso intensivo de chatbots, desde problemas de salud mental hasta patrones de uso adictivo, y surge junto a esfuerzos para establecer estándares o certificaciones éticas para productos de IA que realmente prioricen el bienestar humano.

La presión sobre la publicación científica en la era de la sobreproducción académica

Hanson, Mark A., Pablo Gómez Barreiro, Paolo Crosetto, y Dan Brockington. 2024. “The Strain on Scientific Publishing.” Quantitative Science Studies 5 (4): 823–843. https://doi.org/10.1162/qss_a_00327

El artículo analiza la presión creciente que sufre la publicación científica como consecuencia del aumento acelerado del número de artículos que se publican cada año. Aunque la producción de conocimiento científico se ha expandido de forma notable, el número de investigadores capaces de leer, evaluar y revisar ese volumen de trabajos no ha crecido al mismo ritmo, lo que genera una sobrecarga estructural en todo el sistema editorial académico.

Los autores muestran que, en la última década, las bases de datos científicas han registrado un incremento muy significativo del número de artículos indexados. Este crecimiento ha intensificado las exigencias para los investigadores, que no solo deben producir más publicaciones, sino también dedicar una cantidad cada vez mayor de tiempo a tareas como la lectura y la revisión por pares. Como resultado, el sistema de “publicar o perecer” se vuelve más exigente y menos sostenible. Así, el número de artículos indexados en bases como Scopus y Web of Science se ha incrementado de forma exponencial en los últimos años, con un aumento de alrededor del 47 % entre 2016 y 2022.

Mientras que las grandes editoriales tradicionales (como Elsevier o Springer) han aumentado su producción de manera moderada, otras —especialmente aquellas que dependen de modelos de acceso abierto con cargos por procesamiento de artículos (APC) como MDPI y Frontiers— han visto incrementos marcados en artículos por revista y en la proporción de publicaciones a través de special issues o números especiales. Esto sugiere que las estrategias editoriales específicas pueden estar impulsando parte de la expansión de contenidos.

El trabajo propone una serie de métricas para analizar esta tensión, entre ellas el aumento del volumen total de artículos, el uso creciente de números especiales, los tiempos de evaluación editorial, las tasas de rechazo y la evolución de las métricas de impacto. Estas medidas permiten observar cómo las prácticas editoriales han cambiado y cómo algunas estrategias contribuyen a acelerar la publicación sin que ello garantice una mejora en la calidad científica.

Uno de los hallazgos más relevantes es que ciertos modelos editoriales, especialmente aquellos basados en el acceso abierto financiado mediante cargos por publicación, han impulsado un crecimiento muy rápido del número de artículos por revista. En algunos casos, este crecimiento se apoya en un uso intensivo de números especiales, lo que puede facilitar procesos editoriales más rápidos y homogéneos, pero también suscita dudas sobre el rigor de la revisión por pares.

El análisis de los tiempos de aceptación muestra que algunas revistas publican artículos con gran rapidez y con escasa variación entre los plazos de revisión, lo que sugiere procesos altamente estandarizados. Aunque la rapidez no implica necesariamente baja calidad, los autores señalan que esta tendencia puede aumentar la presión sobre revisores y editores y reducir la capacidad de evaluación crítica en profundidad.

En relación con las tasas de rechazo, el estudio revela que no existe un patrón único: algunas editoriales mantienen niveles altos, mientras que otras los reducen o los estabilizan. Esto indica que el aumento de publicaciones no responde a una lógica uniforme, sino a decisiones editoriales específicas que influyen directamente en la carga global del sistema.

El artículo también aborda la inflación de las métricas de impacto, mostrando cómo el aumento generalizado de citas puede distorsionar la percepción de calidad científica. La dependencia excesiva de indicadores bibliométricos refuerza comportamientos estratégicos por parte de investigadores y revistas, orientados a maximizar visibilidad y rendimiento cuantitativo más que a fortalecer la solidez del conocimiento producido.

En sus conclusiones, los autores sostienen que la tensión en la publicación científica no es consecuencia de un único factor, sino del encaje problemático entre incentivos académicos, modelos de negocio editoriales y sistemas de evaluación de la investigación. Para aliviar esta presión, consideran necesario repensar las políticas de evaluación, mejorar la transparencia editorial y reducir la dependencia de métricas basadas exclusivamente en el volumen de publicaciones.

Los investigadores creen que su institución valora más la publicación en revistas muy citadas que el impacto real que pueda tener un trabajo.

Grove, Jack. (2025, 12 de diciembre). Policy Impact Undervalued by Universities, Social Scientists Say. Inside Higher Ed. Recuperado de https://www.insidehighered.com/news/faculty-issues/research/2025/12/12/social-scientists-policy-impact-undervalued-universities

Los resultados reflejan que las universidades tienden a valorar más las publicaciones en revistas altamente citadas y otras métricas tradicionales de prestigio académico, como el recuento de citas o factores de impacto, antes que evaluar el impacto real de la investigación en la formulación de políticas o cambios sociales tangibles.

Encuesta global realizada por Sage entre más de 1 800 científicos sociales de 92 países, centrada en entender cómo perciben la valoración que sus universidades otorgan al impacto de su investigación en la sociedad y las políticas públicas. Según los datos del sondeo, solo alrededor de un tercio de los participantes considera que su institución los promovería o les daría valor por el impacto de su trabajo fuera del ámbito académico, lo que indica una desconexión entre las aspiraciones de estos investigadores y las prioridades institucionales.

En el estudio, el 92 % de los encuestados afirmó que para ellos el objetivo principal de la investigación es contribuir positivamente a la sociedad, pero solo el 68 % cree que esto sea una meta compartida por sus instituciones. Asimismo, un porcentaje similar percibe que los líderes universitarios no valoran plenamente la utilidad social de su trabajo, lo que sugiere que las prácticas de evaluación académica actuales aún están ancladas en métricas internas y tradicionales, dejando fuera dimensiones más abiertas o aplicadas del impacto científico. Cuando se les preguntó si su institución promocionaría o concedería la titularidad a un académico por sus esfuerzos por aplicar la investigación fuera del ámbito académico, solo el 37 % de los 1805 científicos sociales encuestados por Sage respondió afirmativamente.

Los datos también muestran que solo un 28 % de los científicos sociales opina que sus esfuerzos por influir en políticas públicas podrían traducirse en más financiación de investigación, y apenas un 35 % afirma que su universidad ofrece premios o reconocimiento explícito por el impacto fuera de la academia. Además, un 30 % de los encuestados declaró no recibir ningún tipo de reconocimiento por este tipo de trabajo, lo que pone en evidencia una brecha entre el compromiso de los científicos sociales con la relevancia de su investigación y las prácticas de recompensa institucional.

Del mismo modo, el 91 % de los investigadores está de acuerdo en que el objetivo final de la investigación es ampliar la bibliografía y facilitar futuras investigaciones, pero solo el 71 % cree que los responsables de su institución están de acuerdo con esto.

En conjunto, este artículo sugiere que, aunque los investigadores ven la contribución al bien público y a la toma de decisiones informadas como una parte esencial de su labor, el ecosistema académico permanece predominantemente orientado hacia la producción y citación de literatura especializada, con menor énfasis en la aplicación de conocimientos para abordar problemas sociales o influir en políticas. Esto plantea preguntas importantes sobre cómo las universidades podrían replantear sus criterios de evaluación y promoción profesional para reconocer y fomentar formas de investigación que conecten más directamente con desafíos sociales reales.

Esa percepción de desajuste entre la motivación de los científicos sociales y las instituciones debería llevar a replantearse si las métricas de prestigio utilizadas en el mundo académico están desajustadas con los valores, argumenta el informe de Sage.

Principios del seguimiento de la ciencia abierta

Open Science Monitoring Initiative. (2025). The Principles of Open Science Monitoring. Recuperado de https://open-science-monitoring.org/principles/

Se presentan los principios del Open Science Monitoring Initiative (OSMI), diseñados para ofrecer un marco global que oriente la creación de sistemas de seguimiento (monitorización) de la ciencia abierta en distintos contextos nacionales, institucionales y disciplinarios.

La iniciativa surge como respuesta a la falta de directrices globales para evaluar el grado y avance de prácticas de ciencia abierta tras la adopción de la 2021 UNESCO Recommendation on Open Science.

Los principios se estructuran alrededor de tres pilares fundamentales:

  • Relevancia y significación: los indicadores deben ser útiles, adaptables a diversos contextos, desarrollados con participación de distintos actores, y capaces de reflejar impactos reales de la ciencia abierta. Esto asegura que los sistemas de monitoreo realmente aporten información significativa para políticas, instituciones o comunidades científicas.
  • Transparencia y reproducibilidad: los sistemas de monitoreo deben apoyarse en infraestructuras abiertas, usar herramientas de código abierto, documentar públicamente los procesos y metodologías, asegurar la trazabilidad de los datos y permitir la reutilización. Los datos deben ser accesibles, los métodos claros, y los resultados comunicados de forma abierta, lo cual promueve confianza, auditabilidad y comparabilidad entre contextos
  • Autoevaluación y uso responsable: la monitorización debe emplearse como herramienta de mejora continua, con revisiones periódicas, sensibilidad al contexto, y nunca como un mecanismo para clasificar o rankear a investigadores individualmente. En su lugar, debe centrarse en apoyar el desarrollo colectivo de prácticas de ciencia abierta, respetando diversidad disciplinaria, equidad, inclusión y adaptabilidad local.

El documento enfatiza que estos principios no son prescriptivos sino aspiracionales: buscan guiar y orientar la creación de sistemas de monitoreo —no imponer un modelo único. Su carácter flexible y modular facilita su adopción por diversos actores institucionales, gubernamentales o comunitarios con distintas capacidades, recursos y realidades.

La perdida de influencia del factor de impacto: hacia una evaluación más holística de la investigación

Worlock, David. The Implosion of the Impact Factor. David Worlock Blog, octubre de 2025. https://www.davidworlock.com/2025/10/the-implosion-of-the-impact-factor/

Se analiza la creciente irrelevancia del factor de impacto como métrica principal en la evaluación de la investigación académica. Worlock argumenta que esta métrica, que históricamente ha influido en decisiones de financiación, promoción y prestigio académico, está perdiendo eficacia debido a su enfoque limitado y a la evolución del panorama de la investigación.

David Worlock recuerda una reunión entre Eugene Garfield y Thompson en 1982 en la que Garfield afirmo, “Saben”, lo que he desarrollado aquí es solo la forma menos mala de medir la importancia de la ciencia experimental. Todas las demás que he examinado tienen fallas graves y perjudiciales: medir las citas es neutral y universal”.

A lo largo de los años se han hecho muchas sugerencias para añadir métricas/altmétricas nuevas o diferentes, o para crear un esquema de múltiples métricas para crear mejores maneras de distinguir la ciencia sólida de las contribuciones más importantes. Todas han fracasado.

Worlock destaca que el factor de impacto no refleja adecuadamente la calidad o el impacto real de una investigación, ya que se basa en el número de citas recibidas por los artículos publicados en una revista, sin considerar el contexto o la relevancia de esas citas. Además, señala que la creciente disponibilidad de preprints y la diversificación de los canales de publicación están haciendo que esta métrica sea aún menos representativa del valor real de la investigación.

También menciona iniciativas como la de Web of Science, que han comenzado a cuestionar y revisar el uso del factor de impacto, sugiriendo que la comunidad académica está reconociendo la necesidad de adoptar métricas más holísticas y contextuales para evaluar la investigación.

En conclusión, el artículo sugiere que la «implosión» del factor de impacto es una señal de que el sistema de evaluación académica está en transición hacia métodos más sofisticados y representativos, que consideren una gama más amplia de factores y contextos en la valoración de la investigación. En la era de la IA, y nuestra capacidad para examinar y comparar estructuras taxonómicas y ontológicas con un nivel de intensidad completamente diferente, sin duda deberíamos hacerlo mejor.

Buenas prácticas para la implementación de la inteligencia artificial en las bibliotecas

Ehrenpreis, Michelle, y John DeLooper. “Chatbot Assessment: Best Practices for Artificial Intelligence in the Library.” portal: Libraries and the Academy 25, n.º 4 (2025): 669-701. https://preprint.press.jhu.edu/portal/sites/default/files/06_25.4ehrenpreis.pdf

El estudio representa una evaluación pionera de un chatbot de biblioteca que incorpora la API de ChatGPT, proporcionando evidencia práctica de sus capacidades y limitaciones, así como recomendaciones operativas para maximizar su utilidad en entornos académicos.

Evaluación detallada de un chatbot utilizado en una biblioteca universitaria, específicamente Ivy.ai (“IvyQuantum”) en la Lehman College Library (parte del sistema CUNY). Este chatbot fue inicialmente implementado en otoño de 2019, usando un modelo basado en reglas (rules-based), y más adelante, desde abril de 2023, se integró con la API de ChatGPT para convertirse en un sistema híbrido de generación más inteligente (modelo generativo + base de conocimiento local).

Para evaluar el desempeño tras esta actualización, los autores analizaron una muestra aleatoria de 101 interacciones de chatbot durante el semestre de primavera de 2023 (de un total de 816) más las 39 “tickets” generados cuando el chatbot no pudo contestar (es decir, casos en los que el usuario solicitaba asistencia humana). Cada interacción fue valorada mediante un rúbrica desarrollada por los autores que incluyó criterios como confianza del chatbot (respuestas “low confidence”, “no confidence”), si el usuario rechazó generar un ticket, la evaluación del usuario (pulgar arriba/abajo) y variables de comportamiento del usuario (por ejemplo, desconexión prematura, satisfacción explícita, solicitud de agente humano). Además, las respuestas fueron codificadas según temas (por ejemplo, libros, artículos, solicitudes de agente, investigación) para identificar los tipos de preguntas con menor desempeño.

Los resultados muestran que el chatbot tiene un rendimiento moderado: en la muestra aleatoria, aproximadamente el 39 % de las respuestas recibieron una calificación 1 (correctas pero incompletas) según la rúbrica, mientras que el 42 % fueron calificadas como respuestas completas pero incorrectas (puntuación 2). En comparación con la tasa de éxito atribuida a bibliotecarios humanos en servicios de referencia (alrededor del 55 %), su desempeño es destacable para una herramienta automatizada, aunque con limitaciones claras. Las preguntas más problemáticas para el chatbot fueron aquellas que solicitaban hablar con un agente humano, consultas sobre libros (incluyendo disponibilidad, edición o reservas) y peticiones para investigación o artículos académicos. Tras la integración del ChatGPT, se observó una reducción en el número total de consultas sin ticket (−45 %) pero un aumento significativo en el número de tickets generados (+190 %) en comparación con el periodo anterior.

A partir de sus hallazgos, los autores proponen una serie de mejores prácticas para bibliotecas que consideren adoptar chatbots: revisión periódica de las transcripciones y las preguntas de los usuarios para ajustar respuestas personalizadas, mantener actualizada y estructurada la base de conocimiento de la biblioteca (por ejemplo, mediante archivos CSV con datos limpios), diseñar la interfaz para que los usuarios comprendan el propósito del chatbot (por ejemplo, distinguiendo claramente cuándo derivar al chat humano), y asegurar que haya personal bibliotecario dedicado al mantenimiento y mejora del sistema.

También destacan que la participación institucional y el compromiso de los bibliotecarios son factores clave para el éxito, y que la adopción de sistemas híbridos (reglas + generación) puede ofrecer un equilibrio entre control y flexibilidad.

Lo que funciona y lo que no: un estudio exploratorio de los modelos de referencia bibliotecaria actuales en grandes bibliotecas universitarias

Weare, William H., Jaena Alabi, y John Fullerton. “What’s Working and What Isn’t: An Exploratory Study of Current Reference Models in Large Academic Libraries.” portal: Libraries and the Academy 25, n.º 4 (2025): 753-780. https://preprint.press.jhu.edu/portal/sites/default/files/09_25.4weare.pdf

El estudio analiza los modelos actuales de servicio de referencia en grandes bibliotecas universitarias, con el objetivo de identificar qué prácticas funcionan bien, cuáles presentan dificultades y cómo los cambios organizacionales afectan estas funciones.

Para ello, los autores entrevistaron a 15 responsables de servicios de referencia en universidades “land-grant” con alta matrícula (más de 20.000 estudiantes), situadas en Estados Unidos, utilizando un enfoque cualitativo con entrevistas semiestructuradas entre 2018 y 2019. Los entrevistados representaban instituciones sin programa acreditado de ciencias de la información, lo cual evitaba contar con un grupo de profesionales locales del gremio que pudiera distorsionar las dinámicas normales del servicio. Las entrevistas, con duración entre 43 y 73 minutos, fueron transcritas, codificadas y analizadas para identificar modelos de referencia, decisiones de personal y los factores que guiaban los cambios entre las diversas aproximaciones.

Los hallazgos revelan que no existe un modelo universal de referencia aplicado por todas las bibliotecas: muchas adoptan combinaciones adaptadas a su contexto institucional. Los autores identificaron siete enfoques dominantes: tradicional (con bibliotecarios atendiendo físicamente en escritorio), escritorio único combinado (referencia + circulación), peer-to-peer (estudiantes como asistentes de referencia), servicios escalonados (tiered), servicio “on call”, modelo de referencia por derivación (referral) y chat (o referencia virtual). En la práctica, los modelos no son mutuamente excluyentes; muchas bibliotecas combinan distintos enfoques según turno, necesidades del usuario o capacidades del personal. Un patrón frecuente es consolidar múltiples servicios en un solo mostrador para simplificar la experiencia del usuario y reducir la fragmentación de puntos de servicio.

Tres temas centrales atraviesan las decisiones institucionales: (1) la consolidación hacia un escritorio único de servicios, motivada por la necesidad de simplificar la experiencia del usuario y disminuir la confusión entre múltiples mostradores; (2) la retirada progresiva de bibliotecarios del servicio presencial directo, con la intención de liberar su tiempo para tareas especializadas, colaboración, docencia o proyectos externos; y (3) el aumento del uso de estudiantes en los puestos frontales de atención, como primer nivel de contacto, delegando a personal profesional preguntas más complejas. Entre las razones que impulsan estos movimientos destacan la reducción de la demanda presencial (caída de estadísticas de referencia), presiones institucionales para que los bibliotecarios asuman funciones de mayor impacto, cambios administrativos o de clasificación investigadora de la universidad, y un cuestionamiento sobre la eficiencia de tener personal altamente cualificado atendiendo consultas triviales.

Asimismo, el estudio señala que en muchas bibliotecas el volumen de consultas profundas es muy bajo; usando la escala READ (Reference Effort Assessment Data), varios entrevistados reportaron que un gran porcentaje de las preguntas corresponden a niveles bajos de complejidad, lo que sugiere que podrían atenderlas asistentes bien entrenados. Al mismo tiempo, se reconoce que la naturaleza de las preguntas ha evolucionado: aunque disminuye el volumen de preguntas básicas, los desafíos que llegan suelen ser más complejos y requieren intervención experta. En algunos casos, las instituciones mantienen el modelo tradicional por razones de identidad profesional, inercia institucional o porque sus bibliotecarios valoran el contacto directo con los usuarios.

En resumen, este estudio aporta evidencia cualitativa de que el futuro de los servicios de referencia en bibliotecas universitarias grandes se orienta hacia modelos híbridos, adaptativos y escalonados, más que hacia una sustitución total del servicio presencial o su configuración en un solo modelo rígido. La elección óptima depende del contexto institucional, cultura organizativa, recursos humanos y expectativas de los usuarios.

El programa PISA integrará alfabetización mediática e inteligencia artificial (IA) en 2029

Organisation for Economic Co-operation and Development (OECD). “PISA 2029 Media & Artificial Intelligence Literacy (MAIL).” OECD, consultado April 2025. https://www.oecd.org/en/about/projects/pisa-2029-media-and-artificial-intelligence-literacy.html

Según se indica, la nueva edición pondrá en el centro del análisis y evaluación escolar competencias como el pensamiento crítico, la conciencia algorítmica y la capacidad de evaluar críticamente los medios, reflejando la necesidad de preparar a los estudiantes para un entorno digital cada vez más complejo.

El programa PISA, desarrollado por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), es reconocido por evaluar las habilidades de estudiantes de 15 años en lectura, matemáticas y ciencias en contextos del mundo real. La edición de 2029 incluye un nuevo dominio innovador: la alfabetización mediática y en inteligencia artificial, conocida como MAIL (Media & Artificial Intelligence Literacy), que amplía significativamente el alcance tradicional de la evaluación. El dominio MAIL busca evaluar si los estudiantes han tenido oportunidades de aprender a participar de modo proactivo y crítico en un mundo mediado por herramientas digitales y de inteligencia artificial.

La evaluación MAIL se diseñará como un entorno simulado—incluyendo redes sociales, internet y herramientas generativas de IA—que permitirá evaluar de forma realista competencias relacionadas con el análisis de credibilidad del contenido digital, el uso ético de la IA y la colaboración en entornos digitales.

La edición de 2029 planteará una agenda educativa más adaptativa e integral, centrada en la alfabetización mediática (comprensión crítica de contenido digital y medios) y en la alfabetización sobre IA, lo que incluye entender cómo funcionan los algoritmos, cómo influyen en la sociedad y cómo interactuar con las herramientas digitales de manera ética e informada.

Este cambio significativo en PISA orienta a las escuelas y responsables de políticas educativas hacia una actualización de los currículos. Es esencial que las instituciones incluyan en sus programas de estudios contenidos específicos sobre IA y medios digitales, y que desarrollen metodologías que evalúen estas competencias emergentes. De este modo, no solo se adaptan a los cambios en las herramientas de evaluación internacional, sino que contribuyen a formar estudiantes más preparados para un mundo donde la tecnología digital y algorítmica es omnipresente.

Project Outcome: evaluación y medición de resultados en bibliotecas públicas

El Proyecto Outcome es una iniciativa de la Public Library Association (PLA) que proporciona herramientas gratuitas para que las bibliotecas públicas midan y comprendan el impacto de sus programas y servicios esenciales. Lanzado en 2015, este proyecto ofrece encuestas estandarizadas y un proceso sencillo para medir y analizar resultados, permitiendo a las bibliotecas demostrar su efectividad y abogar por su valor en la comunidad.

Las encuestas del Proyecto Outcome están diseñadas para evaluar cuatro resultados clave en los usuarios: conocimiento, confianza, aplicación y conciencia. Estas encuestas se centran en nueve áreas de servicio prioritarias, incluyendo lectura de verano, habilidades laborales, alfabetización infantil temprana, aprendizaje digital y salud. Además, se ofrecen recursos y capacitación para ayudar a las bibliotecas a aplicar sus resultados y defender con confianza el futuro de sus servicios.

El Proyecto Outcome ha demostrado ser una herramienta valiosa para las bibliotecas, permitiéndoles no solo medir el impacto de sus programas, sino también utilizar esos datos para mejorar sus servicios y abogar por su relevancia en la comunidad. Con el apoyo de la PLA, las bibliotecas pueden acceder a estos recursos y capacitaciones sin costo alguno, fortaleciendo así su capacidad para servir a sus comunidades de manera efectiva.

Se publica la nueva edición de Scholar Metrics 2025

Google Scholars. “2025 Scholar Metrics Released.” Google Scholar Blog, 22 de julio de 2025. Consultado en línea. https://scholar.google.com/

English Scholar Metrics

Spanish Scholar Metrics

Social Sciences

Health & Medical Sciences

Life Sciences & Earth Sciences

Communication

El 22 de julio de 2025, Google publicó oficialmente su nueva edición de Scholar Metrics, una herramienta que permite a autores e instituciones evaluar rápida y eficazmente la visibilidad e influencia de publicaciones científicas recientes. Esta versión abarca artículos publicados entre 2020 y 2024, utilizando todas las citas de artículos indexados en Google Scholar hasta julio de 2025, y se focaliza especialmente en métricas como el h5‑index y el h5‑median, que reflejan el impacto de los artículos durante los últimos cinco años

Solo se incluyen en Scholar Metrics aquellas revistas y conferencias que cumplan ciertos requisitos: al menos 100 artículos publicados en el periodo 2020‑2024 y al menos una cita durante esos años. Además, se limita a publicaciones de sitios que siguen las pautas de inclusión de Google Scholar, y a conferencias seleccionadas en ingeniería y ciencias computacionales. Se excluyen patentes, libros, tesis, opiniones legales y publicaciones sin citaciones o con escasa producción.

La plataforma permite explorar categorías específicas como Engineering & Computer Science o Health & Medical Sciences., ofreciendo listados con las 20 principales publicaciones por h5‑index y h5‑median. También se encuentran rankings por idioma (español, portugués, entre otros), mostrando los 100 mejores títulos en cada lengua. Asimismo, es posible buscar publicaciones adicionales por palabra clave en el título, lo que facilita el acceso a revistas que no aparecen en los listados principales

Estas métricas son útiles para autores, editores y bibliotecarios que buscan evaluar o comparar la influencia de revistas dentro de un campo específico o región lingüística. No obstante, su eficacia puede estar limitada por la falta de transparencia en los criterios de indexación, la inclusión de revistas menores o mal configuradas y la ausencia de filtros por ISSN, región o características editoriales, aspectos que han sido señalados como puntos débiles en estudios críticos sobre Google Scholar Metrics