Archivo de la etiqueta: Ética de la información

Un nuevo enfoque de la ética de la investigación: utilizar el diálogo guiado para fortalecer las comunidades de investigación

Henriikka Mustajoki y Arto Mustajoki, A New Approach to Research Ethics: Using Guided Dialogue to Strengthen Research Communities (London: Routledge, 2017), https://doi.org/10.4324/9781315545318.

A New Approach to Research Ethics es una guía clara, práctica y útil sobre los problemas éticos a los que se enfrentan los investigadores hoy en día. Examinando las teorías de la toma de decisiones éticas y aplicándolas a diversas situaciones dentro de una carrera e proceso de investigación, este texto ofrece una perspectiva más amplia sobre cómo la ética puede ser una fuerza positiva para fortalecer la comunidad investigadora.

Basado en una sólida selección de estudios de caso desafiantes, este texto ofrece un nuevo enfoque para abordar los problemas éticos y proporciona al lector:

  • Una visión más amplia sobre la ética en la investigación práctica, abarcando tanto las diferentes etapas de las carreras investigadoras como diversas tareas dentro de esa carrera, incluyendo la supervisión y las evaluaciones de investigación.
  • Reflexiones sobre cuestiones como la creciente globalización, la ciencia abierta y la competencia intensificada.
  • Una mayor comprensión de la investigación en un mundo de nuevas tecnologías.
  • Una extensión de la ética en la investigación hacia un enfoque multidisciplinario e interdisciplinario.
  • Una introducción a un método de «diálogo guiado», que ayuda a identificar y abordar los problemas éticos tanto a nivel individual como dentro de la comunidad investigadora.

Un nuevo enfoque de la ética en la investigación permite la autorreflexión y ofrece orientación para el desarrollo profesional en un área cada vez más competitiva. Lleno de valiosas recomendaciones para el investigador y el tomador de decisiones éticas, este texto es esencial para estudiantes de posgrado, académicos senior y desarrolladores de cursos de formación sobre ética para investigadores.

Infiltración de contenidos generados por ChatGPT en artículos científicos de revistas de prestigio

Strzelecki, Artur. «‘As of My Last Knowledge Update’: How is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?» Learned Publishing 38, no. 1 (2025). https://doi.org/10.1002/leap.1650

El artículo examina cómo el contenido generado por ChatGPT aparece en artículos revisados por pares en revistas de prestigio sin ser declarado por los autores. Utilizando el método SPAR4SLR, se identificaron fragmentos generados por IA en publicaciones indexadas en bases de datos científicas

El uso no declarado de contenido generado por ChatGPT en artículos científicos es un problema emergente, con ejemplos de textos generados por IA que han pasado desapercibidos en revistas académicas de prestigio. Esto ha sido detectado en publicaciones como Resources Policy, Surfaces and Interfaces y Radiology Case Reports, que finalmente fueron retiradas. La falta de transparencia sobre el uso de IA en la creación de contenido científico plantea desafíos para el proceso de revisión por pares y la aceptación de manuscritos en revistas científicas.

Este artículo propone investigar cómo identificar los artículos parcialmente generados por ChatGPT, cómo se citan en otros trabajos y cómo responden los editores a este tipo de contenido. La investigación busca mejorar las políticas editoriales y la calidad de los artículos publicados, enfocándose no solo en correcciones lingüísticas, sino en la creación de contenido generado por IA.

A través de búsquedas en Google Scholar, se ha identificó contenido generado por ChatGPT mediante frases recurrentes que este modelo utiliza, como «as of my last knowledge update» y «I don’t have access to». Estas frases fueron inicialmente utilizadas para encontrar artículos que contenían texto generado por la IA. Además, se identificaron otros términos frecuentes como «regenerate response», que aparecían en artículos científicos sin justificación, señalando que el contenido había sido generado o manipulado por el modelo de IA.

Utilizando el método SPAR4SLR, comúnmente empleado en revisiones sistemáticas de literatura, el autor analizó artículos indexados en las bases de datos Web of Science y Scopus, identificando secciones que presentan indicios de haber sido creadas íntegramente por ChatGPT.

Los principales hallazgos del estudio son:

  1. Presencia no declarada de contenido generado por IA: Se detectaron artículos en revistas de renombre que contienen material producido por modelos de lenguaje como ChatGPT, sin que los autores hayan reconocido su uso.
  2. Citas académicas: Varios de estos artículos ya han sido citados en otras investigaciones publicadas en revistas indexadas, lo que amplifica la difusión de contenido generado por IA en la literatura científica.
  3. Disciplinas afectadas: Aunque la mayoría de los artículos identificados pertenecen a las áreas de medicina e informática, también se encontraron en campos como ciencias ambientales, ingeniería, sociología, educación, economía y gestión.

La búsqueda identificó 1.362 artículos científicos en los que se confirma inequívocamente que porciones del texto fueron generadas por ChatGPT. La cantidad de artículos fue tal que podría realizarse un análisis manual, artículo por artículo. La mayoría de los resultados obtenidos por Google Scholar se vinculan con publicaciones de revistas no indexadas en bases de datos científicas de calidad como Web of Science y Scopus, o en plataformas que publican preprints, como arXiv, researchsquare, SSRN y otras. Sin embargo, una porción menor de los resultados pertenece a editores reconocidos como grandes publicadores científicos con gran influencia en los lectores. Muchos de los artículos identificados fueron publicados en revistas que están indexadas en las bases de datos Web of Science y Scopus y tienen indicadores de calidad como el Factor de Impacto y CiteScore derivados de la cantidad de citas.

El estudio subraya la necesidad de una discusión ética y metodológica sobre el uso de modelos de lenguaje como ChatGPT en la producción de trabajos académicos. La falta de transparencia en la utilización de estas herramientas puede comprometer la integridad científica y plantea interrogantes sobre la autoría y la originalidad en la investigación.

Este análisis invita a la comunidad académica a reflexionar sobre las implicaciones del uso de inteligencia artificial en la redacción científica y a establecer directrices claras que aseguren la transparencia y la calidad en las publicaciones.

Uso de grandes modelos lingüísticos como herramientas de inteligencia artificial en la investigación académica y la publicación entre los investigadores

Mishra, Tanisha, Edward Sutanto, Rini Rossanti, Nayana Pant, Anum Ashraf, Akshay Raut, Germaine Uwabareze, Ajayi Oluwatomiwa, y Bushra Zeeshan. «Use of Large Language Models as Artificial Intelligence Tools in Academic Research and Publishing Among Global Clinical ResearchersScientific Reports 14, no. 31672 (2024). https://doi.org/10.1038/s41598-024-81370-6.

El articulo explora el creciente uso de los Modelos de Lenguaje de Gran Escala (LLMs) en la investigación académica, particularmente en el ámbito clínico. Los autores analizan cómo estos modelos, como el Generative Pre-trained Transformer (GPT), están siendo empleados para tareas como la revisión de literatura, el cribado de resúmenes y la redacción de manuscritos.

El estudio se basa en una encuesta transversal aplicada a 226 investigadores médicos y paramédicos de 59 países, formados en el programa de Certificación en Investigación de Harvard Medical School entre 2020 y 2024. Los resultados muestran que el 87.6% de los encuestados estaban al tanto de los LLMs, y aquellos con mayor conocimiento tendían a tener un mayor número de publicaciones indexadas en PubMed.

Entre los encuestados conscientes de los LLMs, el 18.7% los había utilizado principalmente para corrección gramatical y formateo, aunque una proporción significativa no reconoció explícitamente su uso en sus publicaciones. La percepción general sobre el impacto futuro de los LLMs es mayormente positiva, con el 50.8% de los encuestados anticipando un impacto beneficioso en el proceso de publicación, especialmente en la corrección gramatical, revisión y edición, redacción y revisión de literatura.

El estudio también revela preocupaciones éticas, ya que el 58.1% de los encuestados opinó que las revistas deberían permitir el uso de IA en la investigación, mientras que el 78.3% cree que se deben establecer regulaciones para evitar abusos. Los autores enfatizan la necesidad de desarrollar directrices y un marco ético para gobernar el uso de la IA en la investigación académica, abordando los desafíos actuales y asegurando un uso responsable de estas herramientas avanzadas.

Hacia un Archivo Común de Libros para una IA Ética y de Interés Público



Authors Alliance. «Developing a Public-Interest Training Commons of BooksAuthors Alliance, December 5, 2024. https://www.authorsalliance.org/2024/12/05/developing-a-public-interest-training-commons-of-books/.

Este proyecto busca equilibrar el desarrollo de IA con principios éticos y sociales, aprovechando la riqueza cultural de los libros mientras se promueve la equidad en el acceso al conocimiento y en la representación de los datos utilizados.

La Authors Alliance, con el apoyo de la Fundación Mellon, ha lanzado un proyecto para planificar un archivo de libros orientado al interés público en el desarrollo de inteligencia artificial (IA). Northeastern University Library colabora en la coordinación de esta iniciativa.

Los modelos de lenguaje de IA (LLMs) requieren grandes volúmenes de texto para su entrenamiento, y los libros representan un recurso valioso. Sin embargo, el desarrollo de IA hasta ahora ha estado dominado por empresas privadas que priorizan la competencia sin atender suficientemente a la diversidad, la veracidad, el sesgo o el impacto social de sus datos.

El proyecto busca crear un plan para establecer una organización o alianza que gestione un archivo de libros con fines de interés público, impulsado por bibliotecas sin fines de lucro. Este archivo estará diseñado para considerar las perspectivas de autores, editoriales, investigadores y tecnólogos, asegurando que la IA se desarrolle de manera ética e inclusiva.

El proyecto aborda varios desafíos esenciales:

  • Misión y objetivos: Definir metas a corto y largo plazo.
  • Aspectos técnicos y logísticos: Diseñar estrategias distintas a las iniciativas actuales lideradas por bibliotecas.
  • Diversidad del corpus: Garantizar un archivo amplio y diverso que ofrezca alternativas viables a los datos actuales.
  • Gobernanza: Crear estructuras que equilibren los intereses de todos los actores involucrados.
  • Sostenibilidad: Diseñar un modelo de financiación a largo plazo para el mantenimiento y crecimiento del archivo.
  • Legalidad y derechos de autor: Asegurar que los libros se adquieran legalmente y que se respete a autores y titulares de derechos mediante compensaciones y créditos adecuados.
  • Segmentación de usuarios: Reconocer y satisfacer las diferentes necesidades de investigadores sin fines de lucro, nuevas empresas y grandes actores comerciales.

¿Navegar con IA o hundirse con IA? Análisis de verbos de títulos de artículos de investigación sospechosos de contener contenidos generados/asistidos por IA

Comas-Forgas, Ruben, Alexandros Koulouris, y Dimitris Kouis. «‘AI-Navigating’ or ‘AI-Sinking’? An Analysis of Verbs in Research Articles Titles Suspicious of Containing AI-Generated/Assisted Content.» Learned Publishing, publicado por primera vez el 1 de diciembre de 2024. https://doi.org/10.1002/leap.1647.



El estudio examina cómo la inteligencia artificial generativa (IA), como ChatGPT, puede estar influyendo en el lenguaje de los títulos de artículos académicos. Analizando 15 verbos seleccionados en títulos extraídos de SCOPUS (2015-2024), se detectó un incremento notable de ciertos términos asociados con IA. Los hallazgos sugieren que estas herramientas afectan la escritura científica, especialmente en disciplinas específicas. Se subraya la importancia de establecer estándares para el uso de IA en publicaciones académicas y se plantea la necesidad de más investigaciones para ampliar el análisis lingüístico.

Se analizaron cómo la aparición frecuente del verbo «navigating» en títulos académicos revisados en 2023 despertando sospechas sobre la influencia de herramientas de inteligencia artificial generativa (IA). Lo cual motivó una investigación que conecta los avances en modelos de lenguaje como ChatGPT con cambios en la redacción científica, particularmente en los títulos. Los resultados de la misma sugieren que la IA está transformando los métodos de escritura académica, aunque la detección de su uso sigue siendo un desafío. Los títulos, clave en la visibilidad y selección editorial, se examinan como indicadores de esta influencia emergente.

El estudio buscaba entender cómo la IA está transformando la comunicación científica, para ello se analizaron los verbos de acción en títulos de artículos científicos para identificar patrones que sugieran contenido generado o asistido por IA, especialmente ChatGPT. Sus objetivos incluyen:

  1. Identificar verbos recurrentes indicativos de IA generativa.
  2. Analizar tendencias en el uso de estos verbos durante la última década.
  3. Examinar características de documentos con títulos sospechosos.
  4. Cuantificar manuscritos asistidos por IA, estimando su impacto en la redacción académica.

La metodología del estudio se desarrolló en dos pasos principales:

  1. Identificación de verbos sospechosos: Se analizaron verbos presentes en títulos generados por ChatGPT usando resúmenes de artículos recientes en cuatro disciplinas. Esto resultó en una lista de 25 verbos potencialmente indicativos de contenido asistido por IA, basándose en aumentos significativos en su uso desde 2023 en títulos indexados en SCOPUS.
  2. Análisis bibliométrico: Se examinaron tendencias de uso y características de manuscritos con estos verbos en bases como SCOPUS y DOAJ, proyectando datos de 2024 para evaluar patrones lingüísticos relacionados con la IA.

El estudio identificó 15 verbos con un notable aumento de uso en títulos de manuscritos entre 2023 y 2024, lo que sugiere una posible influencia de herramientas de IA como ChatGPT. Verbos como revolutionizing y unleashing mostraron tasas de crecimiento anual (YoYG) superiores al 100%, mientras que otros como exploring y bridging presentaron incrementos más moderados. Estos datos, obtenidos de SCOPUS, revelan un patrón de crecimiento en el uso de términos asociados con innovación y descubrimiento, correlacionado con la creciente adopción de tecnologías de IA.

El análisis de títulos en SCOPUS mostró un aumento significativo en el uso de verbos asociados con IA, con 165.087 documentos estimados para 2024 que contienen al menos uno de los 15 verbos analizados. Este incremento es más notable en categorías como ‘Letters’ y ‘Review’, lo que sugiere una creciente dependencia de herramientas de IA para redactar comunicaciones rápidas y revisiones literarias. Además, se observó un aumento del 144.5% en el uso de IA en países no anglófonos, mientras que en los países de habla inglesa fue del 59.8%.



Para estimar el número de títulos generados o asistidos por IA, se siguieron tres pasos: calcular el crecimiento interanual (YoYG) promedio de 2016 a 2022, estimar el YoYG para 2023-2024 según esa media, y calcular la diferencia entre esta estimación y los datos reales para determinar los títulos potencialmente generados por IA. Se observó un aumento notable de títulos sospechosos de ser asistidos por IA en SCOPUS, con un total de 63.780 títulos en dos años, destacando verbos como “Enhancing” y “Exploring” en el lenguaje académico.

Desarrollo ético de las plataformas de IA

O’Donnell, James. «We Need to Start Wrestling with the Ethics of AI AgentsMIT Technology Review, November 26, 2024. https://www.technologyreview.com/2024/11/26/1107309/we-need-to-start-wrestling-with-the-ethics-of-ai-agents/.



Se analiza los retos éticos de las plataformas de IA, capaces de realizar tareas complejas y simular comportamientos humanos con precisión. Estas tecnologías plantean preocupaciones sobre la privacidad, los deepfakes y la transparencia en las interacciones con usuarios. Abordar estas cuestiones es clave antes de su adopción masiva.

Actualmente, las plataformas de IA se dividen en dos tipos principales: las plataformas basadas en herramientas, que ejecutan tareas digitales específicas como rellenar formularios o buscar información, y las plataformas de simulación, capaces de imitar personalidades humanas con notable precisión. Estas últimas surgieron inicialmente en investigaciones sociales para realizar estudios difíciles o poco éticos con participantes reales.

El desarrollo reciente de estas plataformas ha alcanzado niveles impresionantes, como lo demuestra un estudio de 2024 donde se crearon simulaciones precisas de las preferencias y valoraciones de mil personas tras entrevistas de dos horas. Esta convergencia entre ambos tipos de plataformas plantea escenarios en los que la IA no solo puede imitar la personalidad de un individuo, sino también actuar en su nombre. Empresas como Tavus ya trabajan en «gemelos digitales» que podrían desempeñar roles como terapeutas, médicos o profesores.

Sin embargo, este avance trae consigo preocupaciones éticas. Por un lado, la facilidad para replicar voces, comportamientos y personalidades podría agravar problemas como los deepfakes dañinos o el uso no consensuado de datos personales. Por otro lado, surge la pregunta de si las personas tienen derecho a saber si están interactuando con una IA o con un ser humano. Estas cuestiones son especialmente relevantes en contextos como el servicio al cliente, donde los límites entre humanos y máquinas se difuminan.

El autor subraya que, aunque esta tecnología aún está en desarrollo, no está tan lejos como podría parecer. Es crucial abordar estos dilemas éticos de manera anticipada, dado que las implicaciones sociales y personales podrían ser profundas y disruptivas.

Gestión de publicaciones retractadas por parte de diferentes bases de datos

Salami, Malik Oyewale, Corinne McCumber, y Jodi Schneider. 2024. «Analyzing the Consistency of Retraction Indexing». OSF. https://doi.org/10.31222/osf.io/gvfk5.

El artículo aborda un problema crítico en el ámbito académico: la inconsistencia en la identificación y el manejo de publicaciones retractadas por parte de diferentes bases de datos. Se analiza cómo estas bases gestionan las retractaciones, evaluando la calidad de su indexación.

El propósito central es investigar por qué las publicaciones retractadas siguen siendo citadas incluso después de que se retiran oficialmente. Esto puede atribuirse, en parte, a las dificultades que enfrentan autores y editores para identificar sistemáticamente estas publicaciones en diferentes bases de datos académicas. Los investigadores buscan comprender el nivel de acuerdo entre estas bases de datos y señalar los errores más comunes en la indexación.

Para llevar a cabo el estudio se evaluaron 11 bases de datos científicas relevantes, utilizando una lista unificada de 85.392 publicaciones únicas retractadas como referencia. Se analizaron las publicaciones que cada base incluía, aquellas que identificaban como retractadas y las que no eran reconocidas en absoluto. Y finalmente se midió la concordancia entre las bases de datos en cuanto a la identificación de publicaciones retractadas.

Hallazgos principales:

  • Baja consistencia entre bases de datos: Los resultados muestran que las bases de datos tienen una baja concordancia en la indexación de publicaciones retractadas, incluso cuando cubren los mismos documentos. Esto genera discrepancias significativas sobre qué trabajos se identifican oficialmente como retractados.
  • Errores en la indexación: Se encontraron problemas recurrentes en cómo se manejan las retractaciones, tales como: Las publicaciones retractadas que no son marcadas adecuadamente en ciertas bases. Inconsistencias en el etiquetado de retractaciones entre diferentes plataformas.
  • Impacto en las citas posteriores a la retractación: Debido a estas inconsistencias, muchos trabajos retractados siguen siendo citados por error, lo que perpetúa información incorrecta y afecta la credibilidad de futuras investigaciones.

El estudio destaca varias implicaciones importantes para la comunidad académica debido a la falta de estándares claros en la gestión de publicaciones retractadas.

  • Primero, hay una confusión para los investigadores. Los autores pueden no estar al tanto de que una publicación ha sido retractada si buscan referencias en bases de datos que no la han actualizado adecuadamente. Esto puede llevar a la cita de trabajos que ya no son válidos, lo que afecta la calidad de la investigación.
  • En segundo lugar, hay un impacto en la calidad científica. Las citas erróneas de publicaciones retractadas pueden disminuir la precisión de nuevos estudios. Si otros investigadores basan su trabajo en artículos retractados, esto puede afectar la fiabilidad de sus propios resultados, lo que reduce la confianza en la ciencia.

El estudio también presenta varias recomendaciones para mejorar la situación. Una de las principales sugerencias es crear directrices claras sobre cómo las bases de datos deben manejar las publicaciones retractadas. Además, se debe mejorar la coordinación entre las plataformas para asegurarse de que todas las bases de datos identifiquen correctamente los trabajos retractados. Finalmente, se recomienda implementar mejores sistemas de notificación para alertar a los investigadores cuando un artículo haya sido retractado, asegurando que todos estén informados y puedan evitar usar referencias incorrectas.

El análisis pone de manifiesto un desafío crítico en el sistema académico global: la inconsistencia en el manejo de las retractaciones. Resolver este problema es fundamental para mejorar la transparencia y la confiabilidad de la investigación científica

El papel central de la identidad digital en la integridad de la investigación

Member, Holly STM. 2024. «STM Report: Trusted Identity in Academic Publishing». STM Association. 31 de octubre de 2024.

Texto completo

El informe Trusted Identity in Academic Publishing: The Central Role of Digital Identity in Research Integrity, publicado por STM Solutions, aborda los desafíos emergentes en la confianza en la publicación académica debido al aumento de fraudes de identidad y violaciones de la integridad.

Tradicionalmente, el modelo de publicación académica se basa en una verificación mínima, lo que ha resultado inadecuado ante la proliferación de actividades fraudulentas, como los paper mills y la manipulación de identidades.

Durante siglos, la publicación académica se ha basado en la confianza, asumiendo implícitamente que los individuos que interactúan con una revista académica lo hacen de buena fe y dentro de las normas establecidas. Esta alta confianza significa que los investigadores generalmente no necesitan demostrar su identidad o buenas intenciones al presentar un artículo, actuar como revisores o unirse a un consejo editorial. De hecho, la mayoría de los editores solo requieren una dirección de correo electrónico funcional para participar en el proceso de envío y revisión.

Sin embargo, casos recientes de retiradas masivas de artículos debido a fraudes y un aumento de problemas de integridad en la investigación ilustran que esta confianza es cada vez más vulnerable a la explotación. Las paper mills y personas deshonestas han podido socavar estos procesos para obtener beneficios financieros o de reputación, contaminando el registro académico y llevando a un aumento considerable en las retiradas. Como resultado, hay una brecha entre el nivel de confianza que necesitan los sistemas editoriales y el nivel que los investigadores pueden proporcionar fácilmente.

Una solución instintiva es aumentar la seguridad en los accesos a las plataformas editoriales, insistiendo en controles de identidad similares a los requeridos para reservar un vuelo o alquilar un coche. Sin embargo, implementar estas medidas no es una tarea sencilla. Existen preocupaciones legítimas sobre aumentar la fricción para los investigadores honestos, el riesgo de excluir a aquellos que no pueden cumplir con estos controles y la privacidad del usuario.

Si bien los editores que mejoren sus controles de integridad pueden obtener una ventaja estratégica al proteger su reputación, es posible que algunos investigadores opten por revistas con medidas menos estrictas simplemente porque presentan menos obstáculos. Además, las inconsistencias entre los enfoques de los editores añaden complejidad al proceso de envío. Cualquier intento de encontrar una solución deberá bloquear o disuadir el fraude de manera efectiva mientras minimiza las cargas para los investigadores mediante un enfoque considerado y proporcional.

Este documento tiene como objetivo explicar el contexto de este tema y preparar el terreno para trabajos futuros que exploren posibles soluciones. También establece la dirección para investigar las formas más adecuadas de hacer realidad estas soluciones y proporcionar una manera de medir su efectividad.

El informe enfatiza la necesidad urgente de fortalecer la verificación de identidades sin crear obstáculos para los investigadores legítimos. Hylke Koers, CIO de STM Solutions, subraya que es esencial encontrar un equilibrio entre la integridad científica y la protección de los derechos de privacidad de los investigadores.

Además, el informe llama a la colaboración para desarrollar directrices y recomendaciones que permitan a editores y proveedores de sistemas editoriales combatir el fraude mientras mantienen la inclusividad en la investigación académica. La comunidad está invitada a revisar el informe hasta el 30 de noviembre y proporcionar comentarios sobre cómo las soluciones de identidad digital pueden apoyar la confianza en la investigación en un panorama en constante cambio.

Revistas con altos índices de artículos sospechosos señalados por una start-up de integridad científica



Van Noorden R. Journals with high rates of suspicious papers flagged by science-integrity start-up. Nature. 2024 Oct 23;doi: 10.1038/d41586-024-03427-w. Available from: https://www.nature.com/articles/d41586-024-03427-w

El artículo de Richard Van Noorden analiza el impacto de investigaciones científicas fraudulentas o sospechosas en revistas académicas, señaladas por la herramienta Argos, desarrollada por la empresa tecnológica Scitility. Esta plataforma, lanzada en septiembre de 2024, asigna a los artículos un puntaje de riesgo basado en los antecedentes de los autores y en las citas a investigaciones previamente retractadas. Un puntaje alto no prueba que un artículo sea de baja calidad, pero sugiere que debe investigarse más a fondo.

Entre las editoriales con más artículos de alto riesgo, destaca Hindawi, un sello ahora cerrado, subsidiario de Wiley, con más de 10.000 retractaciones en dos años (alrededor del 4% de su cartera en la última década). Aunque Wiley ha limpiado una gran parte de su catálogo, Argos señala que todavía persisten más de 1.000 artículos de alto riesgo. Otras editoriales, como Elsevier, MDPI y Springer Nature, también figuran con miles de artículos sospechosos, pero con proporciones más bajas en relación a su volumen de publicaciones.

Argos es parte de una creciente cantidad de herramientas diseñadas para detectar señales de alerta en la integridad científica, como Papermill Alarm y Signals, que ayudan a identificar posibles fraudes en manuscritos. Aunque algunas editoriales han implementado tecnologías para detectar irregularidades, la proporción de artículos problemáticos aún es considerable. Las editoriales Impact Journals, Spandidos e Ivyspring presentan las mayores proporciones de artículos de alto riesgo, con cifras superiores al 0.6%.

Además de analizar la situación a nivel de editorial, Argos también proporciona datos sobre revistas específicas. La revista Scientific Reports de Springer Nature, por ejemplo, cuenta con 450 artículos de alto riesgo y 231 retractaciones, lo que representa el 0.3% de su producción total. Otras revistas con grandes brechas entre artículos retractados y sospechosos son Sustainability de MDPI y Materials Today Proceedings de Elsevier.

El crecimiento del fraude científico se debe en parte a la proliferación de «fábricas de artículos» y contenido generado por inteligencia artificial. Las editoriales están aumentando su inversión en supervisión humana y tecnología para enfrentar estos desafíos.

Argos se apoya en datos abiertos, como la base de datos de Retraction Watch, y también rastrea redes de autores con antecedentes de mala conducta. No obstante, una de las dificultades más grandes que enfrentan las herramientas de integridad es la correcta distinción entre autores con nombres similares, lo que puede sesgar los resultados.

Hacia una IA ética y justa en la investigación educativa

Barnes, T., Danish, J., Finkelstein, S., Molvig, O., Burriss, S., Humburg, M., Reichert, H., Limke, A. Toward Ethical and Just AI in Education Research. Community for Advancing Discovery Research in Education (CADRE). Education Development Center, 2024

Texto completo

El documento «Toward Ethical and Just AI in Education Research» discute el creciente uso de la inteligencia artificial en la educación, particularmente en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM). Los avances en la investigación y desarrollo de inteligencia artificial en educación (AIED) están transformando la enseñanza y el aprendizaje, generando una mezcla de entusiasmo y preocupación.

Los autores, miembros de la Community for Advancing Discovery Research in Education (CADRE), reconocen que, aunque la AI tiene el potencial de revolucionar la educación, también puede perpetuar sesgos existentes y afectar negativamente la práctica educativa. Este informe es el primero de una serie de tres que aborda enfoques éticos en la investigación y aplicación de la AIED en STEM, impulsado por la necesidad de considerar cuidadosamente cómo se diseñan y utilizan estas tecnologías.

Los investigadores subrayan la importancia de adoptar políticas que prioricen la ética, la equidad y la justicia en el desarrollo de tecnologías AIED en educación K-12. En este sentido, proponen un marco ético y herramientas que fomentan la reflexión continua y la comunicación para mejorar la investigación y el desarrollo inclusivos y equitativos.

Además, hacen hincapié en que las tecnologías AI reflejan tanto los sesgos intencionados como los no intencionados de sus diseñadores y de la sociedad. Por lo tanto, abogan por un enfoque integral que incorpore principios éticos establecidos, lo que permitirá que las buenas intenciones de los investigadores y desarrolladores se traduzcan en decisiones de diseño positivas y en la creación de productos tecnológicos inclusivos.