Archivo de la etiqueta: Indices de citas

OpenAlex y OJS: hacia la indexación universal

Chavarro, Diego; Juan Pablo Alperin; y John Willinsky. 2025. “On the Open Road to Universal Indexing: OpenAlex and Open Journal Systems.” Quantitative Science Studies (abril de 2025). https://doi.org/10.1162/qss.a.17/132192

Se analiza cómo OpenAlex indexa revistas que utilizan el sistema de gestión editorial de código abierto Open Journal Systems (OJS), lo que refleja dos iniciativas de software libre enfocadas en expandir la participación en la producción académica.

A partir de una base de datos de 47 625 revistas OJS activas, se observa que el 71 % de estas revistas tienen al menos un artículo indexado en OpenAlex. Además, el estudio destaca que el papel de los DOI proporcionados por Crossref es central: el 97 % de las revistas que emplean DOIs de Crossref están incluidas en OpenAlex, lo que sugiere que la disponibilidad de estos identificadores persistentes es clave para aparecer en el índice.

No obstante, esta dependencia tecnológica también manifiesta inequidades estructurales: las revistas con recursos limitados —en especial aquellas provenientes de países de bajos ingresos (que representan el 47 % del total de revistas OJS) y aquellas publicadas en idiomas distintos al inglés (entre el 55 % y 64 % de las revistas OJS)— presentan una representación significativamente menor en OpenAlex. El estudio plantea implicaciones teóricas importantes sobre cómo la infraestructura académica perpetúa tales disparidades, argumentando que incluso bases de datos bibliográficas de acceso abierto como OpenAlex deben abordar activamente las barreras financieras, infraestructurales y lingüísticas para promover un índice más equitativo a nivel mundial.

Infiltración de contenidos generados por ChatGPT en artículos científicos de revistas de prestigio

Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650

El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas

El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.

Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.

A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.

Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.

Los principales hallazgos del estudio son:

  1. Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
  2. Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
  3. Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.

La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.

El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.

Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.

Clarivate retira el Índice de Impacto a la revista eLife debido a su nuevo modelo de publicación

«Web of Science Index Plans to End eLife’s Journal Impact Factor». Accedido 14 de noviembre de 2024. https://www.science.org/content/article/web-science-index-plans-end-elife-s-journal-impact-factor.

Clarivate anunció que el journal eLife dejará de recibir el índice de impacto, una métrica controvertida considerada por muchos como un indicador de calidad. La razón detrás de esta decisión es que el modelo de publicación adoptado por eLife en enero de 2023 no cumple con los estándares de revisión por pares establecidos por Clarivate. Este modelo incluye una revisión por pares pública, pero no una decisión final sobre si un manuscrito es aceptado o rechazado.

El fundador de eLife, Randy Schekman, expresó su preocupación de que la eliminación del índice de impacto podría afectar negativamente la viabilidad financiera de la revista, ya que el índice de impacto influye en el número de envíos. eLife cobra 2500$ por cada manuscrito que revisa, lo que constituye una fuente clave de ingresos. Sin embargo, el director ejecutivo de eLife, Damian Pattinson, ha defendido el modelo, argumentando que la decisión de Clarivate es un exceso y que el índice de impacto es una métrica corrosiva que nunca han apoyado.

Clarivate ha explicado que su decisión se basa en la falta de una validación clara por parte de la revisión por pares, dado que eLife publica todos los manuscritos que envía para revisión, sin importar si los comentarios de los revisores son positivos o negativos. Los artículos se publican con las revisiones adjuntas, lo que genera controversia sobre la calidad de la revisión.

El modelo de eLife ha sido apoyado por el Instituto Médico Howard Hughes (HHMI), que considera que este enfoque más transparente de la revisión por pares favorece la innovación en la publicación. No obstante, la decisión de Clarivate podría alimentar el debate sobre las debilidades y fortalezas del modelo de publicación de eLife. Críticos como Schekman argumentan que el nuevo modelo ha producido resultados negativos, incluidos casos de artículos subóptimos publicados por la revista.

A pesar de la pérdida del índice de impacto, eLife ha mantenido que su modelo, basado en la transparencia y la participación de los lectores en la evaluación de los trabajos, es beneficioso para la ciencia. Sin embargo, la controversia sigue abierta, ya que algunos consideran que la ausencia de una decisión final por parte de los editores puede dificultar la evaluación adecuada de los artículos.

Elsevier anuncia el lanzamiento de Scopus AI

Scopus AI 

Elsevier, líder mundial en información científica y análisis de datos, lanza hoy Scopus AI, un producto de inteligencia artificial generativa para ayudar a los investigadores e instituciones de investigación a obtener resúmenes rápidos y precisos y perspectivas de investigación que apoyen la colaboración y el impacto social. Scopus AI se basa en el contenido de confianza de Scopus de más de 27.000 revistas académicas, de más de 7.000 editores de todo el mundo, con más de 1.800 millones de citas, e incluye más de 17 millones de perfiles de autores. El contenido de Scopus es examinado por un consejo independiente de científicos y bibliotecarios de renombre mundial que representan a las principales disciplinas científicas.

Desde el lanzamiento alfa en agosto de 2023, miles de investigadores de todo el mundo han probado Scopus AI. Sus comentarios han reforzado el hecho de que, a medida que evoluciona la IA generativa, los investigadores quieren investigaciones fiables y citadas que sean relevantes y altamente personalizadas para sus necesidades.

Elisenda Aguilera, investigadora de la Universidad Pompeu Fabra (España), ha participado en las pruebas de IA de Scopus y ha elaborado un preprint sobre lo que ha aprendido…

«La interfaz de Scopus AI es intuitiva y fácil de usar, permite al investigador obtener una visión general de un problema, así como identificar autores y enfoques, en una sesión de búsqueda más ágil que la convencional. Es una herramienta valiosa para revisiones bibliográficas, construcción de marcos teóricos y verificación de relaciones entre variables, entre otras aplicaciones realmente imposibles de delimitar.»

Elisenda Aguilera

Scopus AI ya está disponible en todo el mundo para los clientes de Scopus.

Fuente: Launch of Scopus AI to Help Researchers Navigate the World of Research. (2024). Www.Elsevier.Com. Recuperado 17 de enero de 2024, de https://www.elsevier.com/about/press-releases/launch-of-scopus-ai-to-help-researchers-navigate-the-world-of-research

¿Realmente más de la mitad de los artículos académicos siguen sin citarse cinco años después de su publicación?

Está ampliamente aceptado que los artículos académicos rara vez se citan o incluso se leen. ¿Pero qué tipo de datos hay detrás de estas afirmaciones?

El genetista y premio Nobel Oliver Smithies, fallecido el pasado mes de enero a los 91 años, era un inventor modesto y autocomplaciente. Era típico de él contar uno de sus mayores fracasos: un artículo sobre la medición de la presión osmótica publicado en 1953, que, como él decía, tenía «la dudosa distinción de no haber sido citado nunca«. «Nadie lo citó nunca, y nadie utilizó nunca el método», dijo a los estudiantes en una reunión de 2014 en Lindau (Alemania).

La idea de que la literatura está plagada de investigaciones no citadas se remonta a un par de artículos publicados en Science: uno de 1990 y otro de 1991. El de 1990 señalaba que el 55% de los artículos publicados entre 1981 y 1985 no habían sido citados en los 5 años siguientes a su publicación.

Dahlia Remler echa un vistazo a la investigación académica sobre las prácticas de citación y descubre que, aunque está claro que los índices de citación son bajos, sigue habiendo mucha confusión sobre las cifras precisas y los métodos para determinar un análisis de citación preciso.

Un artículo de Lokman Meho en 2007 afirmaba que «El 90% de los trabajos publicados en revistas académicas nunca se citan». Esta estadística condenatoria, extraída de un resumen de 2007 sobre el análisis de citas, recorrió recientemente el ciberespacio. Una estadística similar había circulado en 2010, pero en aquella ocasión se decía que el 60% de los artículos de ciencias sociales y naturales no se citaban. Aunque ninguna de las dos estadísticas venía acompañada de un enlace a documentos de investigación académica que las respaldaran.

Según Sierra Williams, muchos artículos académicos no se citan nunca, aunque no pude encontrar ningún estudio con un resultado tan alto como el 90%. Las tasas de no citación varían enormemente según el campo. «Sólo» el 12% de los artículos de medicina no se citan, frente al 82% de las humanidades. Es del 27% para las ciencias naturales y del 32% para las ciencias sociales (cita). Para todo, excepto las humanidades, estas cifras están lejos del 90%, pero siguen siendo altas: Un tercio de los artículos de ciencias sociales no se citan

Pero esos análisis son engañosos, principalmente porque las publicaciones que contaron incluían documentos como cartas, correcciones, resúmenes de reuniones y otro material editorial, que normalmente no se citan. Si se eliminan estos documentos y se dejan sólo los trabajos de investigación y los artículos de revisión, las tasas de no citación caen en picado. Si se amplía el límite más allá de los cinco años, los índices se reducen aún más.

Con un recorte de diez años sigue habiendo artículos no citados, por supuesto, pero varía de forma interesante según el campo. Los artículos biomédicos tienen un 4% de artículos no citados, la química tiene un 8% de material refractario y la física un 11%. Sin embargo, hay que tener en cuenta que si se eliminan las autocitaciones de los mismos autores, estos índices aumentan, a veces de forma notable. La tasa de no citación en diez años en todas las disciplinas, menos la autocitación, es de alrededor del 18%. Pero otra cosa que han descubierto estos estudios es que esta tasa ha ido disminuyendo durante muchos años. Es de suponer que esto se debe a un mejor acceso y búsqueda en las revistas y a una tendencia relacionada con listas de referencias más largas en general. (En el ámbito de las ciencias, ese aumento comienza en torno a 1980 y se ha acentuado en los últimos años).

Pero aún así… …los artículos en la zona de no citados tienden (como es de esperar) a estar en revistas mucho menos prominentes (aparentemente casi todos los artículos publicados en una revista de la que has oído hablar son citados por alguien). Y eso trae a colación el problema de la «materia oscura»: todas estas cifras proceden de revistas indexadas en la Web of Science, una cohorte grande, pero que (justificadamente) ignora las hordas de revistas que publican cualquier cosa. Hay que imaginar que las tasas de citación son abismales entre las «revistas» que fabrican papeles, y la gran mayoría de ellas son seguramente autocitas. Si contamos estas cosas como «papers», entonces el número de publicaciones sin impacto nunca vistas aumenta de nuevo».

Bibliografía:

Willians. Sierra «Are 90% of Academic Papers Really Never Cited? Reviewing the Literature on Academic Citations.» Impact of Social Sciences, 23 de abril de 2014, https://blogs.lse.ac.uk/impactofsocialsciences/2014/04/23/academic-papers-citation-rates-remler/.

Hamilton, David P. «Publishing by—and for?—the Numbers». Science, vol. 250, n.o 4986, diciembre de 1990, pp. 1331-32. science.org (Atypon), https://doi.org/10.1126/science.2255902.

Derek Lowe. Not So Many Uncited Papers, Actually. Science, 20 feb. 2018. https://www.science.org/content/blog-post/not-so-many-uncited-papers-actually. Accedido 16 de septiembre de 2022.

Meho, Lokman I. «The Rise and Rise of Citation Analysis». Physics World, vol. 20, n.o 1, enero de 2007, pp. 32-36. Institute of Physics, https://doi.org/10.1088/2058-7058/20/1/33.

Tainer, John A., et al. «Science, Citation, and Funding». Science, vol. 251, n.o 5000, 1991, pp. 1408-11. JSTOR, https://www.jstor.org/stable/2875794.

Van Noorden, Richard. «The Science That’s Never Been Cited». Nature, vol. 552, n.o 7684, diciembre de 2017, pp. 162-64. http://www.nature.com, https://doi.org/10.1038/d41586-017-08404-0.

ResearchGate versus Google Scholar: ¿Cuál encuentra más citas tempranas?

Thelwall, M., & Kousha, K. (2017). ResearchGate versus Google Scholar: Which finds more early citations? Scientometrics112(2), 1125–1131. https://doi.org/10.1007/s11192-017-2400-4

Texto completo

ResearchGate ha lanzado su propio índice de citas extrayendo citas de los documentos cargados en el sitio y reportando los recuentos de citas en las páginas de perfil de los artículos. Dado que los autores pueden cargar preprints en ResearchGate, puede usarlas para proporcionar evidencia de impacto temprana para nuevos artículos. 

Este artículo evalúa si el número de citas encontradas para artículos recientes es comparable a otros índices de citas utilizando 2675 artículos de bibliotecas y ciencias de la información publicados recientemente. 

Los resultados muestran que en marzo de 2017, ResearchGate encontró menos citas que Google Scholar, pero más que Web of Science y Scopus. Esto fue válido para el conjunto de datos en general y para las seis revistas más importantes que contiene. ResearchGate se correlacionó más fuertemente con las citas de Google Scholar, lo que sugiere que ResearchGate no está aprovechando predominantemente una fuente de datos fundamentalmente diferente a la de Google Scholar. No obstante, el intercambio de preimpresiones en ResearchGate es lo suficientemente importante como para que los autores lo tomen en serio.