Archivo de la etiqueta: Impacto

Granjas de citas y círculos de autocitación

Hill, Sarah. «Citation Farms and Circles of Self-Citation». The Big Idea, 19 de marzo de 2020,

Texto completo

Las «granjas de citas», consisten en autores que se autocitan o se citan mutuamente de forma rutinaria y masiva para aumentar el impacto de sus publicaciones. Aunque se cree que estas «granjas de citas», también conocidas como «cárteles de citas», son el sello de la mala ciencia, la mayoría de los investigadores están de acuerdo en que hay espacio para la autocitación, pero que es una buena práctica limitarla cuando sea posible.

La autocitación puede ser necesaria, por ejemplo, si usted es la única persona que ha realizado un determinado tipo de investigación antes. Citar su propio trabajo o el de sus coautores puede ser la medida adecuada. «Todo el mundo se autocita porque, tarde o temprano, todo el mundo se basa en hallazgos anteriores», afirma Hadas Shema en el blog Scientific American. Shema cita a R. Costas, et al, en su artículo de 2010, «Self-cities at the meso and individual levels» (Autocitas en los niveles meso e individual): «Dada la naturaleza acumulativa de la producción de nuevos conocimientos, las autocitas constituyen una parte natural del proceso de comunicación».

Hay una forma sencilla de medir el impacto del trabajo de un investigador: utilizando el Factor de Impacto de la Revista (JIF). Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas. Tras 20 años de investigación, un índice h de 20 es bueno, 40 es sobresaliente y 60 es excepcional. La ventaja del índice h es que combina la productividad (el número de publicaciones) y el impacto (número de citas) en un solo número.

Según la revista Nature, en 2017, un profesor tuvo una idea para contabilizar más a fondo las autocitas. Este profesor, ahora en la Universidad de Helsinki, sugirió un índice de autocitación, o índice s, en la línea del indicador de productividad del índice h. Creado por Justin Flatt, Alessandro Blasimme, Effy Vayena, así un científico tiene un índice s si ha publicado s artículos, cada uno de los cuales ha recibido al menos s autocitaciones. Con esta nueva herramienta, un índice s de 10 significaría que un investigador ha publicado 10 artículos con al menos 10 autocitaciones cada uno.

El profesor que ideó este sistema de puntuación afirma que no se trataba de establecer umbrales para lo que era un índice s adecuadamente bajo, ni tampoco de avergonzar a los que se autocitan mucho. Utilizando los datos, se trataba simplemente de otra herramienta para medir el impacto de ciertas teorías y artículos.

Según John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia: «Este [estudio] no debería llevar a vilipendiar a los investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar entre disciplinas y etapas de la carrera». Y añade: «Sólo ofrece información completa y transparente. No debería utilizarse para emitir veredictos como el de decidir que una autocitación demasiado alta equivale a un mal científico».

¿Reduce la autocitación la probabilidad de publicación? Sí, según algunos autores. «Clarivate supervisa las autocitaciones cuando calcula el factor de impacto de una revista, y puede retirar de la lista a una revista cuando las tasas de autocitación son demasiado altas o cambia la clasificación relativa de una revista dentro de su campo», dice el doctor Phil Davis, experto en comunicación científica en el blog The Scholarly Kitchen. «Ningún editor quiere ser conocido como el que puso a la revista en ‘tiempo muerto'».

«La autocitación es necesaria para informar al lector sobre el trabajo previo del autor y proporcionar información de fondo. Un índice bajo de autocitación puede llevar a un revisor a creer que los antecedentes del autor son inadecuados, mientras que un índice alto podría indicar que está ignorando el trabajo de sus colegas. Se recomienda un equilibrio», dice Paul W. Sammarco, en Ethics in Science and Environmental Politics. Así que, buena suerte con el equilibrio, sobre todo para los que trabajan en disciplinas con experimentación novedosa. Siempre que no cite a sus amigos y colegas a propósito para aumentar sus índices h, al final todo debería ser igual.

Variedad, alcance e impacto de las revistas de acceso abierto de la ruta diamante en varias disciplinas y regiones

Korean Council of Science Editors «Charting variety, scope, and impact of open access diamond journals in various disciplines and regions: a survey-based observational study.» Sci Ed vol. 9, n. 2 (2022). pp. 120-135. https://doi.org/10.6087/kcse.277
http://www.escienceediting.org/journal/view.php?number=283

Se estimó el número total de revistas de la ruta diamante, incluyendo las que están fuera de Directory of Open Access Journals (DOAJ). Se describió la distribución por regiones, disciplinas y tipos de editoriales. Se investigó el alcance de las revistas en términos de autoría y número de lectores. Se recogió información sobre la diversidad lingüística, la dinámica y el ciclo de vida de las revistas y su visibilidad en las bases de datos académicas.

Se estima que el número de revistas diamante OA es de 29.000. Se estima que las revistas OA de la ruta diamante publican 356.000 artículos al año. El sector del diamante OA es diverso en términos de regiones (45% en Europa, 25% en América Latina, 16% en Asia y 5% en Estados Unidos/Canadá) y disciplinas (60% humanidades y ciencias sociales, 22% ciencias y 17% medicina). Más del 70% de las revistas OA diamante son publicadas por editoriales de propiedad universitaria, incluyendo ediciones universitarias. La mayoría de las revistas OA diamante son pequeñas, publicando menos de 25 artículos al año. El inglés (1.210), el español (492) y el francés (342) son los idiomas más comunes de los textos principales. De las 1.619 revistas, 1.025 (63,3%) están indexadas en DOAJ, 492 (30,4%) en Scopus y 321 (19,8%) en Web of Science.

Conclusión: Los patrones y las tendencias que se describen en este documento proporcionan una visión de la diversidad y la importancia del panorama de las revistas diamante OA y de las oportunidades y los retos que conlleva el apoyo a este modelo de publicación.

Rankings de investigación de universidades

Bornmann, L. «On the function of university rankings.» Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014). pp. 428-429. http://dx.doi.org/10.1002/asi.23019

La ciencia moderna es una ciencia que se evalúa. La calidad de la investigación no puede garantizarse sin una evaluación. Según el fundador de la moderna sociología de la ciencia, Robert K. Merton (1973), una de las normas de la ciencia es el «escepticismo organizado». A partir del siglo XVII, al principio se utilizó casi exclusivamente el proceso de revisión por pares, aunque desde los años ochenta y noventa se llevan a cabo evaluaciones basadas en indicadores o se utilizan métodos multietapa para la evaluación de la investigación y la enseñanza (Daniel, Mittag y Bornmann, 2007). La primera clasificación internacional de universidades, llamada Ranking de Shanghai, se publicó en 2003. A continuación, se realizaron otras evaluaciones a gran escala de las universidades basadas en indicadores, que se publicaron como ranking (instituciones individuales clasificadas según determinados criterios) o como calificación (instituciones individuales evaluadas según determinados criterios). La importancia de los rankings o clasificaciones en la actualidad queda patente al comprobar que la ausencia de una universidad alemana entre las 20 o 50 mejores universidades en las clasificaciones internacionales fue una de las razones más importantes para crear Excellence Initiative in Germany (Hazelkorn, 2011).

Aunque a menudo se afirma que la evaluación basada en indicadores en los rankings o clasificaciones puede ser utilizada por las direcciones de las universidades para un análisis significativo de los puntos fuertes y débiles de sus instituciones, los rankings o clasificaciones proporcionan principalmente:

(a) información sobre el rendimiento de las universidades para los estudiantes y los científicos noveles;

(b) una evaluación comparativa de las universidades, a nivel nacional e internacional; y

(3) una cuenta de las universidades, a las que se les está dando cada vez más autonomía (Hazelkorn, 2012).

Así lo demuestra una encuesta sobre las direcciones de las universidades que recoge Hazelkorn (2011). Después de los estudiantes y los padres, se considera que los políticos son el grupo más influenciado por los rankings. Los estudios han podido determinar una correlación entre «la calidad de las instalaciones del campus y la capacidad de atraer estudiantes (internacionales)» (Hazelkorn, 2011, p. 103). Las direcciones de las universidades asumen que «las clasificaciones altas pueden impulsar la «posición competitiva de una institución en relación con el gobierno»» (Hazelkorn, 2011, p. 91).

Los gobiernos desean disponer de información independiente y objetiva sobre la situación general de la investigación de un país y de cada una de las instituciones de investigación. La transparencia creada por las cifras también tiene el efecto secundario deseado de que se estimula la competencia entre las instituciones (por la financiación relacionada con la investigación y el personal) (Hazelkorn, 2012), y cabe esperar un aumento del rendimiento de las instituciones.

Las universidades y las instituciones de investigación no universitarias apenas necesitan rankings o clasificaciones para sus decisiones estratégicas o para la optimización interna de su rendimiento. Para ello, las instituciones llevan a cabo evaluaciones en varias etapas (normalmente basadas en la revisión por pares con conocimiento de causa), que son organizadas por la propia institución o por agencias de evaluación (Bornmann, Mittag y Daniel, 2006; Daniel et al., 2007). Los Institutos Max Planck de la Sociedad Max Planck cuentan con Consejos Científicos Asesores; por ejemplo, la TU Darmstadt y la Universidad de Zúrich tienen incluso su propia oficina de evaluación. Las universidades de Baja Sajonia son evaluadas por la Agencia Central de Evaluación y Acreditación (ZEvA) y las del norte de Alemania por la Asociación de Universidades del Norte de Alemania (Bornmann et al., 2006). Dado que estas evaluaciones requieren mucho trabajo y tiempo, son difícilmente practicables para un gran número de instituciones de investigación y sólo pueden llevarse a cabo con eficacia en un ambiente de absoluta discreción, no son adecuadas para una comparación a gran escala de las instituciones de investigación. En su lugar, se han establecido rankings o clasificaciones con este fin. Se dirigen principalmente al público en general y no a los académicos o a la dirección de las universidades. Por lo tanto, los rankings o clasificaciones son importantes para las universidades no como un análisis de los puntos fuertes y débiles que pueda utilizarse internamente, sino como una demostración del rendimiento ante las partes externas (para los estudiantes y científicos noveles del futuro o para los políticos). Aunque hay una serie de «cosas que hay que hacer y no hacer» a la hora de diseñar rankings o clasificaciones, probablemente nunca habrá uno que haga justicia a la heterogeneidad de las instituciones abarcadas y que sea capaz de producir una imagen válida del rendimiento de todas las instituciones.

References

  • Bornmann, L., Mittag, S., & Daniel, H.-D. (2006). Quality assurance in higher education—Meta-evaluation of multi-stage evaluation procedures in Germany. Higher Education, 52(4), 687– 709.CrossrefWeb of Science®Google Scholar
  • Daniel, H.-D., Mittag, S., & Bornmann, L. (2007). The potential and problems of peer evaluation in higher education and research. In A. Cavalli (Ed.), Quality assessment for higher education in Europe (pp. 71– 82). London: Portland Press.Google Scholar
  • Hazelkorn, E. (2011). Rankings and the reshaping of higher education. The battle for world-class excellence. New York: Palgrave Macmillan.CrossrefWeb of Science®Google Scholar
  • Hazelkorn, E. (2012). Being fit-for-purpose. Assessing university-based research: advocating best practice. Wissenschaftsmanagement 5, 30– 33.Google Scholar
  • Merton, R.K. (1973). The sociology of science: Theoretical and empirical investigations. Chicago: University of Chicago Press.Google Scholar

Otros Rankings

World University Rankings THE (Times Higher Education

QS World University Rankings

CWTS Leiden Ranking

Best Global Universities Rankings

The Aggregate Ranking of Top Universities (ARTU)

The Center for World University Rankings (CWUR)

Performance Ranking of Scientific Papers for World Universities

Reuters World’s Top 100 Innovative Universities

Round University Ranking

SCImago Institutions Rankings

Webometrics

Libro Blanco: Medición de los resultados de la investigación mediante la bibliometría

Bibliometrics, University of Waterloo Working Group on, et al. White Paper: Measuring Research Outputs Through Bibliometrics. University of Waterloo Working Grou, 2016.

Texto completo

Este Libro Blanco ofrece una revisión de alto nivel de las cuestiones relevantes para la comprensión de la bibliometría, así como recomendaciones prácticas sobre cómo utilizar adecuadamente estas medidas. No se trata de un documento político, sino que define y resume las pruebas que abordan el uso adecuado del análisis bibliométrico en la Universidad de Waterloo. Las cuestiones identificadas y las recomendaciones se aplicarán en general a otras instituciones académicas. La comprensión de los tipos de medidas bibliométricas y sus limitaciones permite identificar tanto los usos adecuados como las limitaciones cruciales del análisis bibliométrico. Las recomendaciones que se ofrecen al final de este documento ofrecen una serie de oportunidades para que los investigadores y administradores de Waterloo y de otros lugares puedan integrar el análisis bibliométrico en su práctica.

Anuncio de cambios en el Journal Citation Reports 2023 : Clarivate incluirá el Factor de impacto en todas las revistas indexadas en la Web of Science Core Collection

Quaderi, Nandita. Announcing changes to the 2023 Journal Citation Reports. Editor-in-Chief & Vice President Editorial, Web of Science, Clarivate

Ver original

A partir de la versión 2023 del JCR, los factores de impacto de las revistas se ampliarán a todas las revistas de la Web of Science Core Collection, incluidas las de arte y humanidades.

En la versión 2023 del Journal Citation Reports™, todas las revistas de la Web of Science Core Collection™ recibirán un Journal Impact Factor (JIF)™. Esto supone ampliar el JIF del Science Citation Index Expanded (SCIE)™ y del Social Science Citation Index (SSCI)™ para incluir revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™.

Journal Citation Reports anuales permiten a la comunidad investigadora, a los editores y a los bibliotecarios evaluar y comparar el impacto académico de las revistas de calidad del mundo mediante una serie de indicadores, datos descriptivos y visualizaciones.

Clarivate ha dedicido mostrar el JIF para todas las revistas indexadas en la Web of Science Core Collection como parte de su compromiso continuo con la integridad del registro académico. Para acelerar el ritmo de la innovación, los financiadores de la investigación, las instituciones y los investigadores necesitan poder tomar decisiones basadas en datos de calidad en los que puedan confiar. El riguroso proceso de selección permite mantener fuera de los índices a las revistas que no son de confianza, lo que, unido a cuidadosa curación de datos, significa que la comunidad investigadora puede confiar en los datos y métricas de los Journal Citation Reports.

El hecho de dotar a todas las revistas de calidad de un Factor de Impacto de la Revista (JIF) proporcionará total transparencia a los artículos y citas que han contribuido al impacto, y por tanto les ayudará a demostrar su valor a la comunidad investigadora.

Al ampliar el JIF a todas las revistas que han superado los rigurosos criterios de calidad de Web of Science, esta última mejora también ayuda a igualar las condiciones de todas las revistas de calidad, incluidas las de reciente creación, las de acceso abierto, las de ámbito especializado o regional y las del Sur Global

Esta decisión está en consonancia con la posición de que las publicaciones en todas las revistas de calidad, y no sólo en las muy citadas, que deberían poder incluirse en los ejercicios de evaluación de la investigación.

Esto significa que:

  • Casi 9.000 revistas -de más de 3.000 editores, muchos de los cuales son pequeños editores del mundo en desarrollo- tendrán un JIF por primera vez.
  • Habrá un aumento del 8% en las revistas de acceso abierto de la ruta dorada que tendrán un JIF.
  • Habrá un aumento mínimo del 5% en las revistas del Sur Global que tendrán un JIF.
  • Además, la versión 2023 del Journal Citation Reports mostrará el JIF con un decimal, en lugar de los tres actuales, para animar a los usuarios a tener en cuenta los demás indicadores y datos descriptivos de JCR al comparar las revistas.

Compromiso de los usuarios con los tuits de artículos científicos: un análisis a gran escala y multidisciplinar

Fang, Z., Costas, R. & Wouters, P. User engagement with scholarly tweets of scientific papers: a large-scale and cross-disciplinary analysis. Scientometrics (2022). https://doi.org/10.1007/s11192-022-04468-6

Texto completo

Este estudio investiga hasta qué punto los usuarios de Twitter se comprometen con los tweets académicos de artículos científicos a través de cuatro tipos de comportamientos de compromiso de los usuarios, es decir, me gusta, retuitear, citar y responder. Sobre la base de una muestra de 7 millones de tuits académicos de artículos de la Web of Science, los resultados muestran que los «me gusta» son la métrica de participación más frecuente, ya que abarcan el 44% de los tuits académicos, seguidos de los «retuits» (36%), mientras que las citas y las respuestas sólo están presentes en el 9% y el 7% de todos los tuits académicos, respectivamente.

Desde un punto de vista disciplinario, los tuits académicos del ámbito de las Ciencias Sociales y Humanidades son más propensos a provocar la participación de los usuarios que los de otros ámbitos temáticos. La presencia del compromiso de los usuarios está más asociada a otros factores basados en Twitter (por ejemplo, el número de usuarios mencionados en los tuits y el número de seguidores de los usuarios) que a factores basados en la ciencia (por ejemplo, las citas y los lectores de Mendeley de los artículos tuiteados). A partir de estos resultados, este estudio arroja luz sobre la posibilidad de aplicar métricas de compromiso de los usuarios para medir niveles más profundos de recepción de información académica en Twitter.

Mendeley es la herramienta que tiene la mayor correlación con las citas de todas las fuentes altmétricas

Liu, C., Huang, MH. Exploring the relationships between altmetric counts and citations of papers in different academic fields based on co-occurrence analysis. Scientometrics (2022). https://doi.org/10.1007/s11192-022-04456-w

La altmetría es un método emergente para observar la comunicación académica. Muchos investigadores han explorado las relaciones entre los recuentos altmétricos y las citas a través del análisis de correlación, pero no hay un resultado consistente. Los resultados variados pueden provenir de la divergencia de las fuentes de datos, las diferencias disciplinarias y las características de la distribución de los datos. Para reducir la influencia de los factores de interferencia mencionados, en este estudio se propuso el análisis de co-ocurrencia como método para explorar las relaciones entre las citas y los recuentos altmétricos.

Observamos el solapamiento entre los artículos altamente citados y los artículos de alto recuento altmétrico, junto con la cobertura de cada colección de varias fuentes altmétricas en diferentes campos académicos. Los resultados muestran que Mendeley tiene la mayor correlación con las citas entre todas las fuentes altmétricas en los cinco campos académicos, y podría ser la única que tiene la oportunidad de ser un indicador para la evaluación académica. Los otros recuentos altmétricos de diferentes fuentes no muestran relaciones fuertes con las citas en general.

Informe de investigación sobre el impacto de las bibliotecas universitarias

McReynolds, Stephanie JH, Peter Verheyen, Terriruth Carrier, and Scott Warren. Library Impact Research Report: Distinct Academic Learning Communities at Syracuse University Libraries. Washington, DC: Association of Research Libraries, July 18, 2022.

Texto completo

Como parte de la iniciativa del Marco de Impacto de las Bibliotecas de Investigación de la ARL, un equipo de las Bibliotecas de la Universidad de Syracuse llevó a cabo un estudio para explorar el impacto de la incorporación de tres «comunidades de aprendizaje académico distintas» en la Biblioteca Bird de la Universidad de Syracuse: el Blackstone LaunchPad; Center for Learning and Student Success; y la Syracuse Office of Undergraduate Research and Creative Engagement.

Tres objetivos guiaron al equipo:

(1) explorar cómo las bibliotecas impactan en las comunidades;

(2) determinar cómo las comunidades impactan en las bibliotecas; y

(3) identificar métodos/métricas que pudieran demostrar el impacto recíproco y ser útiles para ARL.

El impacto se exploró desde múltiples perspectivas, incluidos los directores de la comunidad, los participantes de la comunidad, el decano de las bibliotecas y el personal de las bibliotecas. Los resultados apuntan al valor de la biblioteca como espacio académico central e interdisciplinario para las comunidades, que ayuda a romper las fronteras disciplinarias al permitir que los participantes de la comunidad se reúnan y colaboren más fácilmente con estudiantes de otras escuelas y universidades.

10 formas de potenciar el impacto de su investigación

10 formas de potenciar el impacto de tu investigación

WAIKATO

Versión original PDF

1

Incluye una vía de impacto en la planificación de tu investigación
Considere sus objetivos de investigación y el público al que debe llegar su investigación. Toma decisiones en consecuencia y ten en cuenta todos los tipos de impacto, académicos y no académicos.

2

Sea estratégico a la hora de elegir las palabras clave y los títulos
Piensa cuidadosamente al elegir las palabras clave y los títulos. Recuerda que tu investigación generalmente aparecerá más alta en los resultados de búsqueda cuando una palabra clave se utiliza varias veces, especialmente en el título y el resumen.

Consejo: toma nota de las palabras clave más utilizadas en su campo.

3

Obtén un ID de ORCID y utilícelo en la medida de lo posible
En la firma de correo electrónico, en cualquier perfil en línea, en los envíos, siempre que puedas. Asegúrate de que has automatizado la construcción del perfil tanto como sea posible.

Consejo: Cómo crear un perfil en ORCID

4

Utiliza identificadores para asegurarte de que tu trabajo sea reconocido
El uso de identificadores persistentes, como el ID de ORCID y los DOI, minimiza el riesgo de que tu trabajo sea atribuido erróneamente y optimiza la capacidad de varias herramientas para recopilar e informar sobre el impacto y la atención.

Consejo: Cómo crear un perfil en Google Scholar Citations

5

Asegúrate de que todos sus perfiles son correctos y están vinculados
Comprueba que tu nombre, afiliación y publicaciones son correctos en todas las bases de datos (IRIS, Scopus, Web of Science, Google Scholar, etc.). Vincula los perfiles y añade identificadores adicionales siempre que sea posible

Consejo: consulta la lista de comprobación de perfiles para obtener ideas sobre qué más se puede vincular

6

Publicar en acceso abierto
Según una investigación reciente, los artículos de acceso abierto reciben de media un 44% más de citas que los artículos que no son de acceso abierto (White et al, 2019).

Consejo: Cómo depositar nuestro artículo en acceso abierto en un repositorio institucional DSPACE

7

Deposita tu trabajo en Research Commons, un repositorio de acceso abierto
Muchos contratos de publicación permiten que los manuscritos aceptados se depositen en repositorios bajo ciertas condiciones, incluso si no has pagado una cuota para que se convierta en Acceso Abierto.

Consejo: Deposita a través de IRIS o del correo electrónico researchcommons@waikato.ac.nz

8

Comparte otros resultados además de sus manuscritos
Si lo consideras oportuno, piensa en compartir tus conjuntos de datos, software u otros recursos digitales. Con los identificadores apropiados, estos pueden ser citados cuando otros investigadores los utilicen.

Consejo: Consulta al bibliotecario de enlace académico puede ayudarle con esto

9

Promueve tu trabajo
Haz su trabajo lo más visible posible. Compártelo siempre que pueda, por ejemplo, en conferencias, en su sitio web personal, en las redes sociales o en las redes académicas en línea.

Consejo: Cómo publicar un artículo científico y cómo hacerlo con impacto

10

Considera la posibilidad de escribir para un público más amplio
Escribir para un público más amplio, por ejemplo, publicando un resumen no especializado o un blog, puedes abrir tu investigación a un mayor número de lectores, incluidas las personas influyentes y los responsables políticos, así como el público, lo que aumenta el impacto fuera del ámbito académico.

Consejo: Nuevas métricas: más allá de la investigación

OpenCitations, una infraestructura electrónica abierta para fomentar la máxima reutilización de los datos de las citas

Di Giambattista, Chiara, et al. OpenCitations, an open e-infrastructure to foster maximum reuse of citation data. arXiv, 15 de junio de 2022. arXiv.org, https://doi.org/10.48550/arXiv.2206.07476.

OpenCitations es una organización independiente sin ánimo de lucro dedicada a la publicación de datos bibliográficos y de citación abiertos mediante el uso de tecnologías de la web semántica (Linked Data). OpenCitations colabora con proyectos que forman parte del ecosistema de la Ciencia Abierta y cumple con los principios fundacionales de la UNESCO para la Ciencia Abierta, las recomendaciones de I4OC y los principios de datos FAIR, según los cuales los datos deben ser Encontrables, Accesibles, Interoperables y Reutilizables. Dado que sus datos satisfacen todas las directrices de reutilización proporcionadas por FAIR en términos de riqueza, procedencia, licencias de uso y estándares comunitarios relevantes para el dominio, OpenCitations proporciona un ejemplo de una exitosa e-infraestructura abierta en la que la reutilización de datos es parte integral de su misión.