Archivo de la etiqueta: Ranking

Reputación y Rankings Universitarios: análisis de sus debilidades y aplicaciones

Faraoni, Nina. Reputación y Rankings Universitarios: Análisis de Sus Debilidades y Aplicaciones. Universidad de Granada, 2022.

Texto completo

A continuación, se presentan los objetivos generales de los trabajos incluidos: • El primer capítulo consta de una revisión de literatura para abordar la temática objeto de esta tesis doctoral, la reputación universitaria. Se hace una revisión tanto de la reputación organizacional como universitaria, se analiza la relación o el parecido con otros conceptos como imagen, marca, satisfacción, calidad o comportamiento de rebaño, también se hace una revisión de las relaciones, antecedentes y consecuencias, de la reputación universitaria desde diferentes perspectivas, así como se analizan las implicaciones para la gestión de diferentes aspectos relacionados con las universidades. Además, se identifican las interconexiones existentes entre el desempeño académico y los rankings universitarios. Estos instrumentos, aunque presenten algunas desventajas, se pueden utilizar como herramienta de medición y de comparación entre universidades, manteniendo el rigor científico si se utilizan sabiendo cómo miden y qué es lo que están midiendo. • En el segundo capítulo, se lleva a cabo un análisis bibliométrico que sirve de precursor para los trabajos empíricos que vienen a continuación. El objetivo es conocer el estado actual de la cuestión, descubrir la evolución de la temática en los años y conocer los temas emergentes o los que, con el paso de los años, han ido perdiendo de interés.

Los rankings universitarios y sus críticos: ¿una relación simbiótica?

Impact of Social Sciences. «University Rankings and Their Critics – a Symbiotic Relationship?», 6 de febrero de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/02/06/university-rankings-and-their-critics-a-symbiotic-relationship/.

A pesar de ser objeto de críticas constantes, los rankings universitarios han demostrado ser una característica resistente de la vida académica. Julian Hamann y Leopold Ringel analizan esta relación y sugieren que los que elaboran las clasificaciones y sus críticos se refuerzan mutuamente.

Recientemente, las prestigiosas facultades de Derecho y Medicina de Estados Unidos anunciaron su retirada de los rankings de U.S. News & World Report. Esto se convirtió inmediatamente en noticia, porque los rankings y las instituciones de enseñanza superior (IES) de élite han desarrollado una dependencia mutua: los rankings dependen de la participación de las IES de élite y de su prestigio para mejorar su propia reputación. Las IES de élite dependen de las clasificaciones porque los antiguos alumnos, los solicitantes y los responsables políticos las juzgan en función de su clasificación.

Sin embargo, algunas IES de élite estaban dispuestas a poner fin a esta relación. En noviembre de 2022, el decano de la Facultad de Derecho de Yale declaró que «las clasificaciones sólo son útiles cuando siguen una metodología sólida y limitan sus parámetros a lo que los datos pueden captar razonablemente». En un tono similar, el decano de la Facultad de Derecho de Harvard expresó su «preocupación por algunos aspectos de la metodología de clasificación de U.S. News». Otras facultades de Derecho y Medicina siguieron su ejemplo.

¿cómo prevalecen las rankings universitarias a pesar de enfrentarse a críticas generalizadas (y a veces hostiles)? Este estudio podría ofrecer algunas pistas al respecto.

Una idea importante de nuestro estudio es que las críticas sonoras no son nada nuevo. Si los rankings son un modelo de negocio de éxito, también lo es la investigación crítica sobre los rankings (recibir una invitación para escribir en este blog es un ejemplo de ello). Identificamos dos modos de crítica de las clasificaciones que dominan tanto el discurso académico como los debates en el dominio público.

El primer modo llama la atención sobre los efectos negativos. Los rankings supuestamente producen y consolidan desigualdades, inculcan un comportamiento oportunista por parte de quienes intentan anticiparse a los criterios de clasificación y atentan contra la independencia de la educación superior y la ciencia. La segunda modalidad se refiere a las deficiencias metodológicas. Los críticos sostienen que las medidas utilizadas son demasiado burdas y simplistas, que la metodología y los datos no son suficientemente transparentes y que ni la validez ni la fiabilidad son suficientes. Sorprendentemente, las últimas críticas de las facultades de Derecho y Medicina de Estados Unidos reflejan exactamente este sentimiento, ya que invocan cuestiones metodológicas.

¿Cómo sortean los rankings estos retos? Los creadores de los rankings han desarrollado dos modos de respuesta. La primera podría caracterizarse como defensiva: Los responsables de los rankings o bien restan importancia a su propia influencia y afirman que existen muchos enfoques para medir el rendimiento de las universidades, o bien hacen hincapié en que los rankings son inevitables y «están aquí para quedarse». El segundo modo (respuestas seguras) reivindica una amplia demanda de evaluaciones del rendimiento universitario, demuestra competencia científica o temporaliza los rankings enmarcándolas como siempre necesitadas de mejora. Al hablar de cuestiones de mejora, los responsables de los rankings aluden a menudo a la importancia de obtener ayuda de los investigadores. Por ejemplo, en un folleto sobre la metodología de los Impact Rankings, Times Higher Education invita a la crítica afirmando: «¡podemos mejorar el enfoque!». En la misma línea, los representantes de los rankings de U.S. News & World Report esbozan esta postura ostentosamente constructiva: «Aunque la metodología es el resultado de años de investigación, perfeccionamos continuamente nuestro enfoque basándonos en los comentarios de los usuarios, las conversaciones con escuelas y expertos en educación superior, las revisiones bibliográficas, las tendencias de nuestros propios datos, la disponibilidad de nuevos datos y la participación de decanos e investigadores institucionales en conferencias sobre educación superior».

El punto general aquí es que los clasificadores intentan dispersar la responsabilidad mediante la asunción de sus críticos. Cabe señalar que, para que esta estrategia tenga éxito, los críticos tienen que aceptar la oferta y participar realmente en conversaciones públicas. La crítica metodológica, al parecer, es la palanca clave para iniciar y mantener este compromiso mutuo: incluso cuando se acaloran, este tipo de debates siguen siendo constructivos en el sentido de que, según su lógica subyacente, los rankings deberían ser más rigurosas, fiables y válidas.

Creemos que nuestro estudio supone una importante contribución a la investigación sobre educación superior, que sólo ha prestado una atención menor al «trabajo discursivo» que hace que los rankings universitarios sean resistentes. Para una comprensión exhaustiva del tema, es necesario seguir explorando los rankings universitarios como fenómenos discursivos, lo que implica tratar en igualdad de condiciones tanto los elogios como las críticas que reciben. Esto también implica que debemos ser más conscientes de nuestra propia agencia: nos guste o no, como investigadores críticos podemos contribuir involuntariamente a la institucionalización de los rankings universitarios.

¿Cómo debemos interpretar, entonces, las recientes abandonos de las clasificaciones universitarias en la enseñanza superior estadounidense? Teniendo en cuenta nuestras conclusiones, y la última promesa de U.S. News & World Report de escuchar a los críticos y mejorar la metodología, nos inclinamos a proyectar que la empresa volverá con una clasificación totalmente nueva el año que viene. Lo más probable es que este episodio no sea el final del régimen de clasificación, sino que resulte ser una oportunidad más para crear resiliencia discursiva.

Informe PISA: aquellos países con más puntuación en lectura también obtienen más puntuación en Ciencias y Matemáticas

2012–2016 Program for International Student Assessment Young Adult Follow-up Study (PISA YAFS): How reading and mathematics performance at age 15 relate to
literacy and numeracy skills and education, workforce, and life
outcomes at age 19

Texto completo

Entre los estudiantes de 15 años, así es como se comparan 77 países en lectura, matemáticas y ciencias. Las puntuaciones más altas son mejores.

Estos resultados proceden de Program for International Student Assessment (PISA) En general si un país se agrupa en torno a una determinada puntuación en lectura, entonces está en el mismo rango en las otras materias.

El Programa para la Evaluación Internacional de Estudiantes (PISA) es un estudio sobre el rendimiento de los estudiantes de 15 años en lectura, matemáticas y ciencias que se realiza cada 3 años.

Rankings de investigación de universidades

Bornmann, L. «On the function of university rankings.» Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014). pp. 428-429. http://dx.doi.org/10.1002/asi.23019

La ciencia moderna es una ciencia que se evalúa. La calidad de la investigación no puede garantizarse sin una evaluación. Según el fundador de la moderna sociología de la ciencia, Robert K. Merton (1973), una de las normas de la ciencia es el «escepticismo organizado». A partir del siglo XVII, al principio se utilizó casi exclusivamente el proceso de revisión por pares, aunque desde los años ochenta y noventa se llevan a cabo evaluaciones basadas en indicadores o se utilizan métodos multietapa para la evaluación de la investigación y la enseñanza (Daniel, Mittag y Bornmann, 2007). La primera clasificación internacional de universidades, llamada Ranking de Shanghai, se publicó en 2003. A continuación, se realizaron otras evaluaciones a gran escala de las universidades basadas en indicadores, que se publicaron como ranking (instituciones individuales clasificadas según determinados criterios) o como calificación (instituciones individuales evaluadas según determinados criterios). La importancia de los rankings o clasificaciones en la actualidad queda patente al comprobar que la ausencia de una universidad alemana entre las 20 o 50 mejores universidades en las clasificaciones internacionales fue una de las razones más importantes para crear Excellence Initiative in Germany (Hazelkorn, 2011).

Aunque a menudo se afirma que la evaluación basada en indicadores en los rankings o clasificaciones puede ser utilizada por las direcciones de las universidades para un análisis significativo de los puntos fuertes y débiles de sus instituciones, los rankings o clasificaciones proporcionan principalmente:

(a) información sobre el rendimiento de las universidades para los estudiantes y los científicos noveles;

(b) una evaluación comparativa de las universidades, a nivel nacional e internacional; y

(3) una cuenta de las universidades, a las que se les está dando cada vez más autonomía (Hazelkorn, 2012).

Así lo demuestra una encuesta sobre las direcciones de las universidades que recoge Hazelkorn (2011). Después de los estudiantes y los padres, se considera que los políticos son el grupo más influenciado por los rankings. Los estudios han podido determinar una correlación entre «la calidad de las instalaciones del campus y la capacidad de atraer estudiantes (internacionales)» (Hazelkorn, 2011, p. 103). Las direcciones de las universidades asumen que «las clasificaciones altas pueden impulsar la «posición competitiva de una institución en relación con el gobierno»» (Hazelkorn, 2011, p. 91).

Los gobiernos desean disponer de información independiente y objetiva sobre la situación general de la investigación de un país y de cada una de las instituciones de investigación. La transparencia creada por las cifras también tiene el efecto secundario deseado de que se estimula la competencia entre las instituciones (por la financiación relacionada con la investigación y el personal) (Hazelkorn, 2012), y cabe esperar un aumento del rendimiento de las instituciones.

Las universidades y las instituciones de investigación no universitarias apenas necesitan rankings o clasificaciones para sus decisiones estratégicas o para la optimización interna de su rendimiento. Para ello, las instituciones llevan a cabo evaluaciones en varias etapas (normalmente basadas en la revisión por pares con conocimiento de causa), que son organizadas por la propia institución o por agencias de evaluación (Bornmann, Mittag y Daniel, 2006; Daniel et al., 2007). Los Institutos Max Planck de la Sociedad Max Planck cuentan con Consejos Científicos Asesores; por ejemplo, la TU Darmstadt y la Universidad de Zúrich tienen incluso su propia oficina de evaluación. Las universidades de Baja Sajonia son evaluadas por la Agencia Central de Evaluación y Acreditación (ZEvA) y las del norte de Alemania por la Asociación de Universidades del Norte de Alemania (Bornmann et al., 2006). Dado que estas evaluaciones requieren mucho trabajo y tiempo, son difícilmente practicables para un gran número de instituciones de investigación y sólo pueden llevarse a cabo con eficacia en un ambiente de absoluta discreción, no son adecuadas para una comparación a gran escala de las instituciones de investigación. En su lugar, se han establecido rankings o clasificaciones con este fin. Se dirigen principalmente al público en general y no a los académicos o a la dirección de las universidades. Por lo tanto, los rankings o clasificaciones son importantes para las universidades no como un análisis de los puntos fuertes y débiles que pueda utilizarse internamente, sino como una demostración del rendimiento ante las partes externas (para los estudiantes y científicos noveles del futuro o para los políticos). Aunque hay una serie de «cosas que hay que hacer y no hacer» a la hora de diseñar rankings o clasificaciones, probablemente nunca habrá uno que haga justicia a la heterogeneidad de las instituciones abarcadas y que sea capaz de producir una imagen válida del rendimiento de todas las instituciones.

References

  • Bornmann, L., Mittag, S., & Daniel, H.-D. (2006). Quality assurance in higher education—Meta-evaluation of multi-stage evaluation procedures in Germany. Higher Education, 52(4), 687– 709.CrossrefWeb of Science®Google Scholar
  • Daniel, H.-D., Mittag, S., & Bornmann, L. (2007). The potential and problems of peer evaluation in higher education and research. In A. Cavalli (Ed.), Quality assessment for higher education in Europe (pp. 71– 82). London: Portland Press.Google Scholar
  • Hazelkorn, E. (2011). Rankings and the reshaping of higher education. The battle for world-class excellence. New York: Palgrave Macmillan.CrossrefWeb of Science®Google Scholar
  • Hazelkorn, E. (2012). Being fit-for-purpose. Assessing university-based research: advocating best practice. Wissenschaftsmanagement 5, 30– 33.Google Scholar
  • Merton, R.K. (1973). The sociology of science: Theoretical and empirical investigations. Chicago: University of Chicago Press.Google Scholar

Otros Rankings

World University Rankings THE (Times Higher Education

QS World University Rankings

CWTS Leiden Ranking

Best Global Universities Rankings

The Aggregate Ranking of Top Universities (ARTU)

The Center for World University Rankings (CWUR)

Performance Ranking of Scientific Papers for World Universities

Reuters World’s Top 100 Innovative Universities

Round University Ranking

SCImago Institutions Rankings

Webometrics

Se publican las métricas de Google Scholar de 2022

2022 Scholar Metrics Released
Tuesday, June 28, 2022

Ver

Scholar Metrics proporciona una manera fácil para los autores de medir rápidamente la visibilidad y la influencia de su investigación. Esta versión cubre los artículos publicados en 2017-2021 e incluye citas de todos los artículos que fueron indexados en Google Scholar a partir de junio de 2022.

Scholar Metrics incluye revistas de sitios web que siguen las directrices de inclusión y conferencias seleccionadas en Ingeniería e Informática. No se incluyen las publicaciones con menos de 100 artículos en 2017-2021, ni las publicaciones que no recibieron citas durante estos años.

Puedes buscar publicaciones en categorías específicas como Ciencia y Tecnología de los Alimentos, Energía Sostenible o Salud Pública, así como en áreas amplias como Negocios, Economía y Gestión o Ciencias Químicas y de los Materiales. Puedes visualizar las 20 mejores publicaciones ordenadas por su índice h y su mediana de cinco años. También puedes consultar las 100 principales publicaciones en varios idiomas, por ejemplo, portugués y español. Para cada publicación, puedes ver los mejores artículos haciendo clic en el índice h5.

Métricas disponibles

índice h de una publicación es el mayor número h que hace que al menos h artículos de esa publicación sean citados al menos h veces cada uno. Por ejemplo, una publicación con cinco artículos citados por, respectivamente, 17, 9, 6, 3 y 2, tiene un índice h de 3.

h-core de una publicación es un conjunto de los h artículos más citados de la publicación. Estos son los artículos en los que se basa el índice h. Por ejemplo, la publicación anterior tiene el núcleo h con tres artículos, los citados 17, 9 y 6.

h-median de una publicación es la mediana de los recuentos de citas en su núcleo h. Por ejemplo, la mediana h de la publicación anterior es 9. La mediana h es una medida de la distribución de las citas de los artículos del núcleo h.

Por último, el h5-indexh5-core, y h5-median de una publicación son, respectivamente, el índice h, el núcleo h y la mediana h de sólo aquellos de sus artículos que fueron publicados en los últimos cinco años naturales completos.

Las revistas indexadas en el Journal Citation Reports tienen una tasa de autocitación del 25%

Taşkın, Zehra, et al. «Self-Citation Patterns of Journals Indexed in the Journal Citation Reports». Journal of Informetrics, vol. 15, n.o 4, noviembre de 2021, p. 101221. ScienceDirect, https://doi.org/10.1016/j.joi.2021.101221.

Se examinaron los patrones de autocitación de 1.104 revistas indexadas en la edición de 2018 del Journal Citation Reports para evaluar la posibilidad de manipulaciones de rango subyacentes. Se comprobó que todas las revistas incluidas en este estudio tenían una tasa de autocitación superior al 25%. Nuestra investigación muestra que al excluir las tasas de autocitación, el rango de las revistas con un alto factor de impacto no se ve afectado; sin embargo, para otras revistas, la eliminación de incluso una sola autocitación puede causar cambios significativos en el rango. Los patrones de autocitación son típicos de las revistas en idiomas locales, así como de las revistas de los países europeos de renta media-alta. Los factores de impacto utilizados en las evaluaciones del rendimiento de la investigación deberían utilizarse con más cuidado, especialmente cuando variables como el tamaño de la revista, el idioma de publicación, el país de la editorial y el área temática se correlacionan con los índices de autocitación.

Rankings of Open Access Repositories 2021

TRANSPARENT RANKING: All Repositories (May 2021)

Ver

El «Ranking Web de Repositorios del Mundo» es una iniciativa del Laboratorio de Cibermetría, un grupo de investigación perteneciente al Consejo Superior de Investigaciones Científicas (CSIC), el mayor organismo público de investigación de España.

Ranking de instituciones de investigación Scimago 2021

Mundial

Iberoamérica

España

Universidad de Salamanca

SCImago Institutions Rankings (SIR) es una clasificación de instituciones académicas y relacionadas con la investigación ordenadas por un indicador compuesto que combina tres conjuntos diferentes de indicadores basados en el rendimiento de la investigación, los resultados de la innovación y el impacto social medido por su visibilidad en la web.

El ranking ofrece una interfaz amigable que permite la visualización de cualquier clasificación personalizada a partir de la combinación de estos tres conjuntos de indicadores. Además, es posible comparar las tendencias de los indicadores individuales de hasta seis instituciones. Para cada gran sector también es posible obtener gráficos de distribución de los diferentes indicadores.

Las instituciones pueden agruparse por los países a los que pertenecen. También se han incluido las instituciones multinacionales (MUL) que no pueden atribuirse a ningún país. Las instituciones también pueden agruparse por sectores (Universidades, Sanidad, Gobierno,… ).

A efectos de la clasificación, el cálculo se genera cada año a partir de los resultados obtenidos durante un periodo de cinco años que termina dos años antes de la edición de la clasificación. Por ejemplo, si el año de publicación seleccionado es 2021, los resultados utilizados son los del quinquenio 2015-2019. La única excepción es el caso de los indicadores web, que sólo se han calculado para el último año. El criterio de inclusión es que las instituciones hayan publicado al menos 100 obras incluidas en la base de datos SCOPUS durante el último año del periodo seleccionado. La base de datos Unpaywall se utiliza para identificar los documentos de acceso abierto. Para el Factor Social se utilizan Altmetrics de PlumX metrics y Mendeley.

El objetivo del SIR es proporcionar una herramienta métrica útil para las instituciones, los responsables políticos y los gestores de la investigación para el análisis, la evaluación y la mejora de sus actividades, productos y resultados. El mejor cuartil lo obtiene la institución en su país comparando los cuartiles basados en el indicador global, el factor de investigación, el factor de innovación y el factor social.

Webometrics Ranking of World Universities 2021

Webometrics Ranking of World Universities

Ranking de Universidades Españolas

Ranking de Universidades del Mundo

Ranking de Universidades Latinoamericanas

Perfiles de los investigadores más citados en Google Scholar en España

Webometrics Ranking of World Universities es una iniciativa del Laboratorio de Cibermetría, un grupo de investigación perteneciente al Consejo Superior de Investigaciones Científicas (CSIC), el mayor organismo público de investigación de España. El Ranking Web comenzó en 2004 (el actual es el 18º año de publicación. El Ranking Web o Webometrics es el mayor ranking académico de Instituciones de Educación Superior que ofrece cada seis meses un ejercicio científico independiente, objetivo, gratuito y abierto para proporcionar información fiable, multidimensional, actualizada y útil sobre el rendimiento de las universidades de todo el mundo.

Cybermetrics Lab, perteneciente al CSIC, se dedica al análisis cuantitativo de los contenidos de Internet y de la Web, especialmente los relacionados con los procesos de generación y comunicación académica del conocimiento científico.

En el ranking se incluyen más de 31 000 instituciones de investigación de todo el más de 200 países de todo el mundo. 4.000 instituciones de Latinoamérica, 265 instituciones españolas y los perfiles de 91.000 investigadores españoles. La metodología aplicada puedes encontrarla aquí.

Ranking de Universidades Españolas

Clarivate identifica a los pioneros científicos mundiales en la lista anual de investigadores altamente citados

Highly Cited Researchers ™ 2020.

La lista anual identifica a los investigadores que demostraron una influencia significativa en su campo o campos elegidos a través de la publicación de múltiples artículos muy citados durante la última década. Sus nombres provienen de las publicaciones que se ubican en el 1% superior por citas por campo y año de publicación en el índice de citas de Web of Science ™.

La metodología que determina el «quién es quién» de los investigadores más influyentes se basa en los datos y análisis realizados por expertos bibliométricos y científicos de datos del Institute for Scientific Information ™ de Clarivate. También utiliza los recuentos para identificar los países y las instituciones de investigación donde se encuentran estas élites científicas.

Estados Unidos domina la lista de investigadores reconocidos por sus pares, pero el panorama global cambia a medida que los investigadores chinos captan una participación del 12%.

Los hallazgos clave para 2020 muestran:

  • Este año han sido reconocidos 6.167 investigadores de más de 60 países y regiones.
  • Si bien Estados Unidos continúa dominando la lista como el país del mayor número de investigadores altamente citados, con 2.650 autores, que representan el 41.5% de los investigadores en la lista, su participación relativa en la lista continúa disminuyendo (44% en 2019). .
  • La Universidad de Harvard, con 188 investigadores, es una vez más la institución con la mayor concentración de investigadores altamente citados en el mundo. Sus vecinos, el Broad Institute y el Massachusetts Institute of Technology, se unen a ellos para encabezar la lista de instituciones líderes a nivel mundial, hogar de 61 y 53 investigadores altamente citados, respectivamente.
  • El lugar de China continental en la lista continúa aumentando; ahora tiene 770 (12,1% o 1: 8) investigadores en la lista, en comparación con 636 o 10,2% en 2019. Su clasificación se ha visto impulsada por la notable entrada en el los diez primeros de la Universidad de Tsinghua, Beijing, subiendo 10 lugares del 19 al 9 en la lista junto con la entrada en 2020 de las universidades de Pekín y Zhejiang a los escalones superiores de la lista.
  • Singapur se muestra con fuerza, representada por la Universidad Tecnológica de Nanyang y la Universidad Nacional de Singapur.
  • Europa también tiene una buena cantidad de buenas noticias. El número de investigadores altamente citados con sede en Alemania y los Países Bajos ha aumentado este año; ambos mostraron una caída el año pasado. La Sociedad Max Planck en Alemania permanece en el número 5 en la lista de instituciones, mientras que la Universidad de Utrecht (27 investigadores) y la Universidad e Investigación de Wageningen (24 investigadores) en los Países Bajos subieron al nivel superior de las universidades enumeradas. El Instituto Suizo de Bioinformática subió 20 puestos en la clasificación institucional con la incorporación de una docena de investigadores altamente citados este año.
  • La lista de este año incluye 26 premios Nobel, incluidos tres anunciados este año