Archivo de la etiqueta: Plagio

La inteligencia artificial y su impacto en la escritura académica

Julio Alonso Arévalo. La inteligencia artificial y su impacto en la escritura académica . BUCLE, 2024

La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA)

«Who Owns AI’s Output? – Communications of the ACM», 4 de octubre de 2024, https://cacm.acm.org/news/who-owns-ais-output/.

El artículo “Who Owns AI’s Output?” de Logan Kugler, explora los problemas legales y de propiedad en torno a los productos generados por la inteligencia artificial (IA). En un contexto en el que la IA generativa ha avanzado rápidamente en los últimos años, surgen preguntas sobre quién posee los derechos de autor o patentes de las creaciones de IA, como textos, imágenes, videos, audio y código.

Los diferentes países abordan de manera distinta la cuestión de la propiedad de las obras generadas por IA. En los Estados Unidos, la ley es estricta y no permite otorgar derechos de autor o patentes a obras creadas únicamente por IA. Se requiere la intervención significativa de un ser humano para que se otorgue protección a través de estos mecanismos legales. Sin embargo, otros países como el Reino Unido y Sudáfrica tienen leyes más flexibles que permiten, en algunos casos, la protección de obras generadas por IA.

Otro problema destacado en el artículo es el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA. La mayoría de los sistemas de IA se entrenan utilizando grandes volúmenes de datos, a menudo sin el consentimiento del creador original. Esto ha generado múltiples demandas, como la presentada por el New York Times contra OpenAI, acusando a la compañía de usar su contenido sin permiso para entrenar ChatGPT.

En respuesta a estos desafíos, algunos países, como la Unión Europea, han implementado regulaciones más estrictas para controlar cómo se utilizan los datos protegidos en el entrenamiento de IA. Por otro lado, Japón ha adoptado un enfoque más permisivo, permitiendo el uso de materiales protegidos para el entrenamiento de IA bajo excepciones amplias a la ley de derechos de autor.

El artículo concluye que las regulaciones sobre IA están evolucionando rápidamente, pero presentan grandes retos para los legisladores debido a la velocidad con la que avanza la tecnología. A medida que los países tratan de equilibrar la protección de los derechos de autor y fomentar la innovación tecnológica, es probable que se vean más cambios en las leyes y normativas sobre la propiedad de los productos generados por IA.

Taylor & Francis añade la notificación «bajo investigación» a alguno de los artículos sospechosos de incumplir con la integridad académica

 “Publisher Adds Temporary Online Notifications to Articles Under Investigation.” Retraction Watch. Last modified September 25, 2024. https://retractionwatch.com/2024/09/25/publisher-adds-temporary-online-notifications-to-articles-under-investigation/.

La editorial Taylor & Francis ha comenzado a agregar notificaciones emergentes a algunos artículos en su sitio web indicando que están «bajo investigación». Esta medida, implementada desde junio, busca alertar a los lectores sobre investigaciones en curso para que consideren los hallazgos con precaución. Sin embargo, estas notificaciones solo aparecen en su sitio web, no en bases de datos donde se buscan los artículos.

Algunos artículos en el sitio web de Taylor & Francis ahora incluyen una notificación emergente que indica que dichos documentos están «bajo investigación». (Ver ejemplo)

La editorial comenzó a implementar estos avisos en junio, según un portavoz, con el objetivo de informar a los lectores sobre investigaciones en curso para que tomen precauciones al evaluar la investigación presentada.

Al igual que las «notas del editor» que Springer Nature utiliza en artículos bajo investigación, las notificaciones emergentes de Taylor & Francis solo aparecen en su sitio web, no en las bases de datos que los investigadores suelen usar para buscar artículos.

El equipo de ética e integridad editorial de la empresa es responsable de decidir qué artículos reciben esta notificación y cuándo, según explica una nueva página web que detalla el proceso.

«La notificación emergente se añadirá de manera individual cuando haya preocupaciones significativas sobre la integridad académica del artículo», explicó el portavoz.

Este sistema es especialmente útil en situaciones donde existe riesgo de daño, como cuando el artículo en cuestión podría influir en decisiones médicas. Sin embargo, no se utiliza cuando los problemas detectados son menores o cuando aún no se ha evaluado la credibilidad de las preocupaciones planteadas por terceros. Como este proceso es reciente, la editorial sigue ajustando los criterios de aplicación conforme adquiere más experiencia.

El sitio web aclara que estas notificaciones emergentes son temporales y desaparecerán una vez finalizada la investigación, a diferencia de otras advertencias permanentes, como las expresiones de preocupación, retractaciones o correcciones.

Sabina Alam, directora de Ética e Integridad Editorial de Taylor & Francis, señala que las expresiones formales de preocupación permanecen en el registro académico de manera permanente, y solo se emiten cuando la investigación ha confirmado sólidas razones para preocuparse, lo que suele ocurrir varios meses después de que se identifique un posible problema.

La nueva notificación de «bajo investigación» permitirá informar a los lectores desde el inicio del proceso y se retirará una vez que la investigación haya concluido, sin importar cuál sea el resultado, según Alam.

Otras editoriales, como Science, han adoptado enfoques similares, añadiendo notificaciones mientras investigan problemas y eliminándolas cuando publican correcciones.

Un estudio descubre en Google Scholar artículos de investigación generados por IA

«Study finds AI-generated research papers on Google Scholar – why it matters | ZDNET», accedido 16 de septiembre de 2024, https://www.zdnet.com/article/study-finds-ai-generated-research-papers-on-google-scholar-why-it-matters/#ftag=RSSbaffb68.

Un estudio reciente, publicado en la Harvard Kennedy School’s Misinformation Review, encontró que al menos 139 artículos disponibles en Google Scholar parecen haber sido generados por herramientas de inteligencia artificial (IA). De estos, la mayoría se encontró en revistas no indexadas, pero 19 aparecieron en revistas verificadas y otras 19 en bases de datos universitarias, presuntamente escritas por estudiantes. Esto subraya una creciente preocupación sobre la proliferación de investigaciones falsas, facilitada por herramientas generativas de IA como ChatGPT.

Los investigadores identificaron estos estudios sospechosos por la inclusión de frases típicas de los modelos de lenguaje, como las generadas por ChatGPT. Además, los estudios estaban ampliamente disponibles en varias bases de datos, archivos y redes sociales, aumentando su visibilidad. Temas sensibles como la salud, la tecnología computacional y el medio ambiente estaban entre los más comúnmente abordados por estos artículos falsos, lo que es alarmante dado que pueden influir en decisiones de políticas públicas y la percepción de temas clave.

El estudio destacó que la aparición de ChatGPT y otras IA en 2022, junto con el funcionamiento de Google Scholar, ha incrementado la posibilidad de que personas sin formación académica (como periodistas, políticos, pacientes y estudiantes) encuentren y citen estudios falsos. Esto es particularmente problemático porque, a diferencia de los sesgos o «alucinaciones» de los chatbots de IA, los estudios presentados en una plataforma académica como Google Scholar parecen auténticos y pueden llevar a una mayor confusión o desinformación.

Aunque Google Scholar contiene una amplia gama de literatura académica de calidad, el estudio critica su falta de transparencia y sus criterios automáticos de inclusión, lo que permite que cualquier autor, independientemente de su afiliación científica, pueda subir artículos. A diferencia de otras bases de datos académicas, Scholar no permite filtrar por tipo de material, estado de publicación o si los artículos han sido revisados por pares, lo que facilita que estudios falsos o generados por IA se cuelen en los resultados de búsqueda.

Otro punto preocupante es que, aunque herramientas de detección de contenido generado por IA están mejorando, aún no son lo suficientemente sofisticadas como para identificar de manera confiable estos estudios falsificados. El estudio también señala que, en el pasado, otros investigadores han encontrado libros y artículos falsos en Google Books y Google Scholar utilizando frases características de los chatbots como «Hasta mi última actualización de conocimiento», común en respuestas de ChatGPT.

Con millones de usuarios confiando en Google Scholar para sus investigaciones, la posibilidad de que se citen estos estudios falsos es cada vez mayor. Esto plantea un grave riesgo para la integridad del registro científico y del sistema de comunicación académica, ya que los estudios generados por IA pueden parecer convincentemente científicos, aunque sean completamente falsos. Los autores del estudio advierten que, a medida que la tecnología avanza, será más difícil detectar estos estudios, lo que amenaza con sobrecargar el ecosistema de investigación y desinformar tanto a académicos como al público en general.

En resumen, la creciente inclusión de estudios falsos generados por IA en Google Scholar plantea un peligro para la comunidad científica y el público, ya que estos trabajos pueden influir en decisiones importantes sin ser detectados. La falta de filtros y la facilidad con la que se puede subir contenido no revisado en plataformas académicas populares hace que sea crucial abordar este problema antes de que cause daños irreparables a la confianza en la ciencia y la academia.

Documentos científicos elaborados por Inteligencia Artificial en Google Scholar

Haider, Jutta, Kristofer Rolf Söderström, Björn Ekström, y Malte Rödl. «GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation». Harvard Kennedy School Misinformation Review, 3 de septiembre de 2024. https://doi.org/10.37016/mr-2020-156.


El estudio analiza la aparición de publicaciones científicas cuestionables, producidas con transformadores pre-entrenados generativos (GPT), en Google Scholar. Se investiga dónde se publican o depositan estos trabajos, sus características principales, cómo se difunden en la infraestructura de comunicación académica y cómo desafían el rol de esta infraestructura en mantener la confianza pública en la ciencia.

Para elaborar el estudio se realizó una búsqueda y extracción de datos en Google Scholar utilizando la biblioteca de Python Scholarly (Cholewiak et al., 2023) para identificar artículos que contenían frases comunes generadas por ChatGPT y aplicaciones similares basadas en el mismo modelo subyacente (GPT-3.5 o GPT-4): «a partir de mi última actualización de conocimiento» y/o «no tengo acceso a datos en tiempo real». Esto permitió identificar artículos que probablemente usaron inteligencia artificial generativa para producir texto, resultando en 227 artículos recuperados. La información bibliográfica de estos artículos se añadió automáticamente a una hoja de cálculo y se descargó en Zotero.

Todos los artículos contenían al menos una de las dos frases comunes devueltas por los agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI. A continuación, se utilizó la búsqueda de Google para determinar en qué medida existían copias de artículos cuestionables elaborados con GPT en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Para explorar la extensión del trabajo generado por ChatGPT en el índice de Google Scholar, se realizó un estudio que rastreó la plataforma en busca de publicaciones que contenían respuestas comunes de ChatGPT. El análisis reveló que alrededor del 62% de estos artículos no declaraban el uso de GPT, con la mayoría encontrados en revistas no indexadas y documentos de trabajo, aunque algunos aparecían en revistas y actas de conferencias de prestigio. Es notable que el 57% de estos artículos estaban relacionados con áreas de política susceptibles a operaciones de influencia. La mayoría de estos documentos estaban relacionados con temas relevantes para políticas públicas, como el medio ambiente, la salud y la informática, que son susceptibles de ser manipulados.

La presencia de texto generado por GPT se observó en diversas secciones de los artículos, incluyendo revisiones de literatura, métodos, marcos teóricos y discusiones. Esto sugiere un uso generalizado de GPT en la creación de artículos completos, lo que genera preocupaciones sobre la integridad de las publicaciones científicas y la posibilidad de lo que se denomina «piratería de evidencia»—la manipulación deliberada de la base de evidencia para influir en la opinión pública y en las políticas.

La proliferación de publicaciones fabricadas pone en riesgo la integridad del sistema de comunicación académica y socava la confianza en la ciencia. Además, la posibilidad de que estos textos falsos sean recuperados por motores de búsqueda académicos como Google Scholar aumenta el riesgo de manipulación maliciosa de la evidencia científica.

Para mitigar estos riesgos, el estudio recomienda un enfoque multifacético que incluya medidas técnicas, educativas y regulatorias. Estas podrían implicar opciones de filtrado en los motores de búsqueda académicos para distinguir entre literatura revisada por pares y literatura gris, así como el desarrollo de un motor de búsqueda académico no comercial para uso público. Las iniciativas educativas dirigidas a los responsables de la formulación de políticas, periodistas y otros profesionales de los medios también son cruciales para mejorar la alfabetización mediática e informativa y reducir el impacto de la desinformación.

Este problema no solo se deriva del uso de generadores de texto como ChatGPT, sino que también refleja preocupaciones más amplias sobre el sistema de publicaciones académicas y la monopolización de la información por parte de plataformas como Google Scholar. La proliferación de artículos fraudulentos puede erosionar la confianza en la ciencia, con consecuencias graves para la sociedad y la forma en que se manejan las «desórdenes de información».

El estudio concluye que el problema de los artículos fabricados por GPT probablemente se vuelva más generalizado, con implicaciones significativas para la credibilidad de la comunicación científica y la confianza pública en la ciencia. Para abordar este problema, es esencial entender las razones subyacentes a la proliferación de dicho contenido y desarrollar estrategias para prevenir su manipulación y difusión.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Alonso-Arévalo, Julio. Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Desiderata, n. 24. (2024)

Texto completo

La Inteligencia Artificial Generativa (IAG) se refiere a sistemas de inteligencia artificial capaces de crear contenido original a partir de datos existentes mediante el aprendizaje automático. Estos sistemas, entrenados con vastos corpus de texto e imágenes, pueden generar textos coherentes, responder preguntas, redactar artículos y crear imágenes detalladas. Herramientas como ChatGPT permiten a los investigadores generar borradores de artículos, reducir el tiempo de escritura y mejorar la coherencia del texto. La IAG tiene usos legítimos, como la revisión y corrección de manuscritos, la visualización de tendencias que puede inspirar nuevas formas de pensar y enfoques creativos de investigación, o ayudar a los investigadores a analizar grandes cantidades de datos y extraer información relevante.

La IA complica el plagio. ¿Cómo deben responder los científicos?

Kwon, Diana. «AI Is Complicating Plagiarism. How Should Scientists RespondNature, 30 de julio de 2024. https://doi.org/10.1038/d41586-024-02371-z.

El uso de herramientas de inteligencia artificial generativa (IA) en la escritura plantea preguntas difíciles sobre cuándo debería permitirse su uso. Estos sistemas, como ChatGPT, pueden ahorrar tiempo, mejorar la claridad y reducir barreras lingüísticas. Sin embargo, complican el debate sobre el uso indebido del trabajo ajeno, ya que la IA puede generar texto que se asemeja a contenidos existentes, lo que podría considerarse plagio.

La IA generativa plantea un desafío al distinguir entre la escritura completamente humana y la completamente generada por máquinas, creando una «zona gris» difícil de definir. Aunque el uso no autorizado de herramientas de IA puede no ser considerado plagio, podría verse como generación de contenido no autorizado. Este debate también incluye preocupaciones sobre la infracción de derechos de autor, ya que estas herramientas se entrenan con grandes cantidades de textos publicados sin permiso.

El uso de IA en la redacción académica ha aumentado rápidamente, con estimaciones que indican que al menos el 10% de los resúmenes en artículos biomédicos de 2024 han utilizado estas herramientas. La comunidad académica está dividida sobre cuándo el uso de IA es ético o constituye plagio. Algunas revistas han comenzado a exigir la divulgación completa del uso de IA, pero las políticas varían.

AI EN ARTÍCULOS ACADÉMICOS
Según un análisis de 14 millones de resúmenes de PubMed, el uso de palabras estilísticas (como «delves») aumentó de forma inusitada tras la generalización de los grandes modelos lingüísticos. Ello eclipsó el aumento de palabras relacionadas con el contenido de la pandemia (como «COVID»).

Además, los detectores de textos generados por IA aún no son completamente fiables, especialmente cuando los textos han sido ligeramente editados. Esto dificulta identificar y diferenciar entre contenido generado por IA y por humanos, especialmente para autores no nativos en inglés. La integración de herramientas de IA en plataformas comunes como Word y Google Docs complicará aún más la distinción entre contenido influenciado por IA y el que no lo es.

La respuesta de la comunidad científica incluye la necesidad de desarrollar guías claras sobre el uso de IA y reconocer que el avance tecnológico podría seguir superando la capacidad de regulación y detección.

Algunos investigadores ‘sorprendidos’ de que Taylor & Francis haya vendido el acceso a sus investigaciones a Microsoft AI

Battersby, Matilda. «Academic Authors “shocked” after Taylor & Francis Sells Access to Their Research to Microsoft AI». The Bookseller. Accedido 23 de julio de 2024. https://www.thebookseller.com/news/academic-authors-shocked-after-taylor–francis-sells-access-to-their-research-to-microsoft-ai.

Autores académicos han expresado su sorpresa al enterarse de que la editorial Taylor & Francis, propietaria de Routledge, vendió acceso a las investigaciones de sus autores como parte de una colaboración con Microsoft en inteligencia artificial (IA), en un acuerdo valorado en casi 8 millones de libras (10 millones de $) en su primer año. La sociedad de autores ha mostrado preocupación por esta situación y destacó la falta de consulta con los autores antes de firmar el acuerdo.

La Dra. Ruth Alison Clemens, una académica publicada por Taylor & Francis y Routledge, dijo que los autores no fueron informados sobre el acuerdo de IA y no tuvieron la oportunidad de optar por no participar. Clemens se enteró del trato por casualidad y expresó su sorpresa por la falta de comunicación al respecto.

Un portavoz de Taylor & Francis confirmó el acuerdo, indicando que proporciona a Microsoft acceso no exclusivo a contenido avanzado y datos para mejorar los sistemas de IA. El acuerdo, detallado por Informa, la empresa matriz de Taylor & Francis, en una actualización comercial en mayo, estipula un pago inicial de $10 millones por acceso a los datos, con pagos recurrentes no especificados en los tres años siguientes.

Taylor & Francis afirmó que protege la integridad del trabajo de los autores y los derechos de recibir pagos de regalías conforme a los contratos de autor. Sin embargo, no quedó claro si existe una política de exclusión para los autores en este acuerdo.

La comunidad académica ha mostrado una fuerte preocupación, destacando la necesidad de considerar cuestiones de derechos de autor, derechos morales y protección de datos. The Society of Authors (SoA) instó a los autores que descubran que su trabajo ha sido utilizado sin su consentimiento a contactarlos para recibir orientación.

Barbara Hayes, directora ejecutiva de ALCS, enfatizó la importancia de representar plenamente los intereses y derechos de los autores en estas negociaciones, una etapa que a menudo falta en los acuerdos actuales.

A principios de esta semana, el Copyright Clearance Centre anunció la disponibilidad de los derechos de reutilización de la IA dentro de su  Annual Copyright License (ACL), que, según afirma, es «la primera solución colectiva de concesión de licencias para el uso interno de materiales protegidos por derechos de autor en sistemas de IA». La licencia proporcionará a los titulares derechos y remuneración por los nuevos usos de sus contenidos.

¿Qué hacer una vez que el artículo es retractado?: NISO emite prácticas recomendadas sobre la comunicación de retractaciones, eliminaciones y expresiones de preocupación

Communication of Retractions, Removals, and Expressions of Concern (CREC): A Recommended Practice of the National Information Standards Organization. NISO, 2024

Texto completo

La confianza es el elemento central de las comunicaciones académicas, distinguiéndolas de otras formas de publicación. Este artículo aborda la importancia de corregir errores en la publicación académica mediante procesos de retractación, eliminación y expresiones de preocupación. Estos procedimientos son cruciales para mantener la confianza en la validez de los resultados publicados.

Hasta ahora no habia una forma consistente de comunicar el estado de retractación de un trabajo académico. Hace dos semanas, NISO (National Information Standards Organization) emitió una nueva Práctica Recomendada sobre la Comunicación de Retractaciones, Eliminaciones y Expresiones de Preocupación (CREC). El objetivo de esta práctica es establecer mejores prácticas para la creación, transferencia y visualización de metadatos, facilitando la comunicación oportuna y eficiente de información a todos los interesados.

El proyecto CREC surgió de la Conferencia NISO Plus 2021, y con el apoyo de la Fundación Alfred P. Sloan, un grupo de trabajo de NISO compuesto por más de dos docenas de editores, intermediarios, bibliotecarios e investigadores desarrolló un conjunto de recomendaciones. La práctica recomendada establece una terminología consistente y protocolos de visualización para la presentación de trabajos retractados. También proporciona orientación sobre cómo distribuir metadatos relacionados con retractaciones y define las responsabilidades de los editores.

Algunas recomendaciones incluyen anteponer «RETRACTED:» en el título del artículo y usar marcas de agua y etiquetas consistentes en las páginas de contenido. Las notificaciones de retractación deben publicarse por separado, pero ser accesibles gratuitamente y vinculadas al contenido original debidamente etiquetado. Además, el documento describe cómo implementar estas recomendaciones y compartir la información con el ecosistema académico, incluyendo agregadores, servicios de descubrimiento y preservación.

El CREC define elementos de metadatos específicos para publicaciones retractadas y notificaciones de retractación, clasificándolos como «Esenciales», «Esenciales si están disponibles» o «Recomendados». Estos metadatos son cruciales para limitar la difusión de investigaciones retractadas en sistemas digitales.

Finalmente, la práctica recomendada de CREC está disponible gratuitamente y NISO organizará un seminario web sobre el tema el 23 de julio de 2024.

Para más información, visite: NISO CREC Recommended Practice.

Una revista fraudulenta indexó casi 900 artículos en Scopus

Al-Amr, A. M. (2024, julio 8). The wolf in Scopus’ clothing: Another hijacked journal has indexed nearly 900 articles. Retraction Watch. https://retractionwatch.com/2024/07/08/the-wolf-in-scopus-clothing-another-hijacked-journal-has-indexed-nearly-900-articles/

El 7 de julio de 2023, Mohammed Al-Amr informó a través de 𝕏 que la página de inicio de la revista en Scopus había sido comprometida y redirigía a los usuarios a un sitio web fraudulento que se hacía pasar por la publicación legítima.

A pesar de esta revelación, el equipo editorial de la revista no respondió ni advirtió a los autores sobre el clon engañoso. En diciembre de 2023, Scopus tomó medidas, eliminando los enlaces a la página de inicio de la publicación para combatir el secuestro.

Mientras que el verdadero Community Practitioner es una revista basada en suscripción y enfocada en medicina y enfermería, el sitio web falso afirmaba ser una publicación de acceso abierto desde enero de 2020 y ofrecía suscripciones a números anteriores contactando con «el editor». También anunciaba la posibilidad de publicar artículos en todos los campos de investigación, lo cual se desvía claramente del enfoque de la publicación legítima.

El análisis de la base de datos de Scopus reveló 880 artículos falsos de la revista secuestrada, indexados entre 2020 y 2024, provenientes de países como India, Indonesia, Irak, Malasia y Arabia Saudita. Muchos de estos artículos estaban plagiados, con DOIs copiados de otras revistas.

Los signos evidentes de estos artículos falsos incluyen volúmenes, números y páginas inconsistentes en comparación con la publicación legítima. Algunos también tienen DOIs de Zenodo, un servicio que la Community Practitioner auténtica no utiliza.

Las consecuencias de esta infiltración son de gran alcance. Los autores de estos artículos fraudulentos pueden haber obtenido beneficios injustos al ser indexados en Scopus, asegurando ascensos académicos, empleos y credenciales bajo pretensiones falsas. La reputación de la revista legítima ha sido dañada, y su métrica CiteScore se ha visto comprometida por la afluencia de artículos falsos con pocas o ninguna cita desde 2020.

Eliminar simplemente el URL de la página de inicio de la revista secuestrada de Scopus no ha sido suficiente, ya que el contenido fraudulento sigue en la base de datos, socavando su integridad. Se necesita una estrategia más completa para eliminar no solo los enlaces visibles a las revistas fraudulentos, sino también para prevenir que su contenido infiltre las bases de datos de indexación.