Archivo de la etiqueta: Ética de la información

Plagiarismdetector.net. detector de IA en línea es completamente gratuito

https://plagiarismdetector.net/

Plagiarismdetector.net. es un detector de IA en línea es completamente gratuito y no requiere registro, permitiendo verificar múltiples archivos para identificar texto generado por herramientas de IA como ChatGPT.

Plagiarismdetector.net es una herramienta en línea diseñada para detectar contenido plagiado en textos. Su uso es frecuente entre estudiantes, profesores, escritores y profesionales que buscan garantizar la originalidad de sus documentos y evitar problemas de derechos de autor.

El funcionamiento de la plataforma es sencillo. Primero, los usuarios pueden copiar y pegar su texto directamente en el sitio web o cargar un archivo en formatos como .doc, .pdf o .txt. Una vez ingresado el contenido, la herramienta procede a escanearlo y compararlo con miles de fuentes en internet, bases de datos académicas y otros documentos publicados.

Tras finalizar el análisis, Plagiarismdetector.net genera un informe detallado en el que se muestra el porcentaje de originalidad del texto y las posibles coincidencias encontradas. Además, proporciona enlaces a las fuentes que contienen fragmentos similares, permitiendo a los usuarios verificar la información y hacer correcciones si es necesario.

En algunos casos, la plataforma también ofrece sugerencias para reformular frases y mejorar la autenticidad del contenido. De esta manera, Plagiarismdetector.net se convierte en una herramienta valiosa para garantizar la integridad académica y profesional de los textos, facilitando la detección y prevención del plagio.

Decopy AI – Plataforma Integral de Detección de IA, detecta texto generado con IA y Humaniza el texto para que no se detecte

Decopy AI

https://decopy.ai/

Decopy AI es una plataforma integral que ofrece herramientas avanzadas para detectar contenido generado por inteligencia artificial. Su objetivo es proporcionar transparencia y confianza en el contenido digital, permitiendo a educadores, empresas y creadores de contenido verificar la autenticidad de textos e imágenes. Todas sus herramientas son gratuitas y accesibles para cualquier usuario.

Entre sus principales funcionalidades se encuentra el Detector de Contenido IA, que permite identificar si un texto ha sido generado por inteligencia artificial. Esto resulta especialmente útil para educadores y revisores de contenido que buscan garantizar la originalidad en artículos, blogs y trabajos académicos.

Otro recurso destacado es el Detector de Imágenes IA, diseñado para analizar imágenes y determinar si han sido creadas o manipuladas con inteligencia artificial. Esta herramienta es de gran utilidad para periodistas y verificadores de contenido que necesitan comprobar la autenticidad de imágenes antes de su publicación.

Además, Decopy AI cuenta con una Búsqueda Inversa de Imágenes, que permite rastrear el origen de una imagen y verificar si ha sido usada en otros sitios web. Complementa esta función con un Parafraseador IA, que ayuda a reescribir textos manteniendo su significado original, ideal para escritores, estudiantes y profesionales del marketing que buscan evitar la duplicación de contenido.

Entre sus ventajas, Decopy AI destaca por su precisión extrema, gracias a algoritmos avanzados que garantizan resultados fiables. Asimismo, es una plataforma completamente gratuita, sin suscripciones ni pagos ocultos, y ofrece privacidad y seguridad, ya que no almacena ni comparte los archivos analizados.

Los usos de Decopy AI abarcan diversos sectores. Los educadores pueden utilizarla para verificar la autenticidad de trabajos académicos y prevenir el uso indebido de IA en las tareas escolares. Los periodistas pueden detectar imágenes falsas o manipuladas, protegiendo la integridad de sus publicaciones. Por su parte, los profesionales del marketing pueden asegurarse de que su contenido sea original y libre de elementos generados por inteligencia artificial.

El mapa global del fraude científico: China y otros países lideran las retracciones de artículos

Doe, Jane, y John Smith. «Avances recientes en biotecnología.» Nature vol. 525, no. 7567 (2025): 123-126. https://www.nature.com/articles/d41586-025-00455-y

Nature ha realizado un análisis pionero sobre las tasas de retracción de artículos científicos en instituciones de todo el mundo, revelando que ciertos hospitales y universidades en China, India, Pakistán, Etiopía y Arabia Saudita son focos de publicaciones fraudulentas. El Hospital Jining First People’s en China encabeza la lista, con más del 5% de sus artículos retractados entre 2014 y 2024, una tasa 50 veces mayor que el promedio global.

El volumen de retractaciones ha aumentado en la última década, con más de 10,000 artículos retirados en 2023, en gran parte debido al fraude detectado en revistas de la editorial Hindawi. Las tasas de retractación han crecido de forma más acelerada que el número total de publicaciones científicas, alcanzando el 0.2% de los artículos publicados en 2022. Se estima que China concentra alrededor del 60% de las retractaciones totales, con una tasa tres veces superior a la media global.

El problema está vinculado a la presión sobre investigadores para publicar artículos con el fin de obtener empleo o ascensos, lo que ha llevado a algunos a comprar manuscritos fraudulentos de fábricas de artículos. Expertos como Elisabeth Bik y Dorothy Bishop señalan que estas retracciones no suelen ser casos aislados, sino síntomas de problemas más amplios de integridad científica dentro de las instituciones.

Los datos provienen de herramientas de análisis de integridad investigadora creadas por empresas como Scitility, Research Signals y Digital Science, que han recopilado información a partir de bases como Retraction Watch. Si bien las retracciones representan menos del 0.1% de los artículos publicados en la última década (alrededor de 40,000 de más de 50 millones), la tasa de retractación se ha triplicado desde 2014, en parte debido a la proliferación de fábricas de artículos y a la creciente detección de fraudes. . Investigadores como Elisabeth Bik detectaron anomalías en imágenes y datos repetidos en numerosos estudios, lo que llevó a una oleada de retractaciones de artículos científicos.

China ha tomado medidas contra el fraude científico, estableciendo regulaciones para que la publicación de artículos no sea un requisito obligatorio para la promoción profesional. Sin embargo, las tasas de retracción en el país siguen aumentando. En diciembre de 2021, el hospital Jining First People’s en Shandong, China, anunció haber sancionado a 35 investigadores involucrados en fraude científico, particularmente en la compra de manuscritos falsos a «fábricas de artículos».

Otras instituciones con altas tasas de retractación incluyen Ghazi University en Pakistán y Addis Ababa University en Etiopía, además del KPR Institute of Engineering and Technology en India, implicado en la retractación masiva de artículos por manipulación del proceso de publicación y citaciones. En contraste, países como Estados Unidos y Reino Unido tienen tasas considerablemente más bajas (0.04%). Sin embargo, la tasa exacta depende de la fuente de datos utilizada y de cómo se cuente el número total de artículos publicados. Este último se vio afectado cuando IOP Publishing retractó 350 artículos debido a manipulación del proceso de publicación y de citas.

Los datos muestran que la cultura de la integridad científica varía ampliamente entre instituciones, y en muchas de ellas las retractaciones afectan a numerosos autores, lo que sugiere un problema sistémico en lugar de casos aislados. Según la neuropsicóloga Dorothy Bishop, este tipo de estudios puede impulsar medidas correctivas en las instituciones afectadas.

Springer Nature retractó 2.923 artículos el año pasado

Springer Nature. «Research Integrity.» Accessed February 18, 2025. https://www.springernature.com/gp/advancing-discovery/research-integrity

En 2024, los más de 3.000 diarios del portafolio de Springer Nature publicaron más de 482.000 artículos, de los cuales 2.923 fueron retractados, según los datos compartidos en una nueva página sobre integridad en la investigación en su sitio web.

Este es un pequeño fragmento de la información proporcionada, que también detalla las herramientas de control de calidad que utiliza el editor, qué desencadena una investigación de integridad y qué sucede durante dichas investigaciones.

Los datos de las retractaciones se desglosan de la siguiente manera:

  • El 61,5% (1.797 artículos) de las retractaciones correspondieron a trabajos publicados antes de enero de 2023.
  • El 38,5% (1.126) fueron artículos publicados después de enero de 2023.
  • El 41% de las retractaciones de artículos publicados después de 2023 fueron de acceso abierto.

Alice Henchley, directora de comunicación y ética en Springer Nature, comentó que la página se creó para proporcionar más información sobre cómo se mantiene la precisión e integridad de la investigación, especialmente en el contexto de las nuevas tecnologías que impactan el sistema de investigación. Su objetivo es ofrecer transparencia y mostrar el compromiso de Springer Nature con la integridad científica, tanto en el proceso de aceptación de artículos como en la actualización de los registros de publicaciones cuando se identifican problemas después de la publicación.

Entre las retractaciones más notables figuran Environmental Science and Pollution Research, que eliminó artículos debido a citas sospechosas, frases problemáticas y el uso no divulgado de inteligencia artificial; Scientific Reports, que ha enfrentado retractaciones por artículos con frases confusas y problemas relacionados con autorías pagadas; y Applied Nanoscience, que retiró 34 artículos debido a problemas con números especiales editados por invitados.

Este enfoque en la transparencia busca apoyar a la comunidad científica y subraya el compromiso con la integridad en la publicación.

Libros basura generados por IA ya está en tu biblioteca pública

Maiberg, Emanuel. «AI-Generated Slop Is Already In Your Public Library404 Media, 4 de febrero de 2025. https://www.404media.co/ai-generated-slop-is-already-in-your-public-library-3/

Los bibliotecarios están enfrentando un problema creciente en las bibliotecas públicas de EE. UU. con respecto a los libros de baja calidad generados por inteligencia artificial (IA). Estos libros están siendo incluidos en los catálogos digitales de bibliotecas públicas, lo que obliga a los bibliotecarios a revisar una gran cantidad de material para identificar qué libros son generados por IA y cuáles son escritos por humanos.

Las plataformas Hoopla y OverDrive, que gestionan los libros electrónicos en muchas bibliotecas, están facilitando la inclusión de estos títulos, sin que los bibliotecarios tengan un control efectivo sobre la selección. Aunque Hoopla ofrece un catálogo muy amplio, esto también significa que los bibliotecarios deben lidiar con contenido de baja calidad, incluyendo libros escritos o generados por IA con poca o ninguna supervisión. Este tipo de contenido es conocido como «slop» o «basura de IA», y se ha convertido en un problema debido a la falta de curaduría en las plataformas. Algunos de estos libros, aunque no presentan información peligrosa, están mal escritos y tienen una presentación pobre.

Los bibliotecarios expresan su preocupación por la cantidad creciente de contenido de IA en sus catálogos, ya que los usuarios pueden no ser conscientes de que están leyendo material generado por IA. Además, esto genera un gasto innecesario para las bibliotecas, que deben pagar por libros de baja calidad. Los bibliotecarios piden mayor transparencia y control en el proceso de selección de los libros, y sugieren que los libros generados por IA deben estar claramente identificados en los catálogos para que los usuarios sepan que no fueron escritos por autores humanos.

Retraction Watch pone en marcha una base de datos de revistas secuestradas

Retraction Watch Hijacked Journals Checker

Las revistas secuestradas imitan a las legítimas adoptando sus títulos, ISSN y otros metadatos. En raras ocasiones, sin embargo, los editores compran los derechos de una revista legítima, pero continúan la publicación bajo protocolos de publicación considerablemente menos estrictos y sin señalar claramente al lector el cambio en la propiedad o las normas de publicación (a veces conocidas como revistas «clonadas»). Los académicos pueden verse engañados para que publiquen en revistas secuestradas -muchas de las cuales son de pago- con ofertas de publicación rápida e indexación en bases de datos como Scopus; estar indexado en esas bases de datos es reconocido por muchas universidades y gobiernos como una marca de legitimidad.

Rastrear estas revistas no es tarea fácil, pero saber qué revistas pueden haber sido secuestradas es vital para la integridad del mundo editorial. Anna Abalkina se involucró en el proceso cuando ella y sus colegas, investigando denuncias de plagio, se toparon con varios títulos, entre ellos el Journal of Talent Development and Excellence, que aumentó drásticamente su indexación de artículos en Scopus en 2020, y Waffen-und Kostümkunde, una revista que citaba un artículo sobre psicología absolutamente ajeno a la especialización en armas y vestuario de la revista. Abalkina comenzó entonces a analizar los archivos de estas revistas y halló coincidencias con otras.

En colaboración con Retraction Watch, Abalkina ha creado la herramienta  Retraction Watch Hijacked Journal Checker. Este recurso se actualiza periódicamente; se añadirán más revistas a medida que se descubra su condición de secuestradas.

La herramienta se basa en el método de análisis de archivos desarrollado por Anna Abalkina, quien ha identificado más de 60 dominios web de revistas secuestradas. Además, amplió su investigación incorporando títulos sugeridos por lectores.

Los principales métodos empleados incluyen:

  • Archivos duplicados: Comparación de archivos de revistas con títulos iguales o similares para detectar coincidencias en los artículos publicados.
  • Plantillas web idénticas: Detección de revistas secuestradas por el uso de plantillas web idénticas entre ellas.
  • Crecimiento anómalo en indexación: Un aumento inusual en la cantidad de artículos indexados en bases de datos internacionales puede indicar secuestro.
  • Citas anómalas: Publicaciones con citas no relacionadas con la temática de la revista pueden ser señal de secuestro.
  • Comentarios de académicos: Opiniones de investigadores en plataformas como Scimago o por correspondencia pueden alertar sobre revistas comprometidas.

Para confirmar el secuestro, también se analizan aspectos como el título, ISSN, indexación, dominio web, comité editorial y archivos de la revista. En algunos casos, no se puede identificar con certeza la revista original, pero se señala que un dominio es altamente sospechoso de ser un secuestro.

Si conoces algún titulo a tener en cuenta para su estudio y que sea incluido en la lista lo puedes comunicar aquí

La Authors Guild lanza la certificación «Human Authored» para preservar la autenticidad en la literatura en un mundo impulsado por la IA

Authors Guild. «Authors Guild Launches ‘Human Authored’ Certification to Preserve Authenticity in LiteratureAuthors Guild, January 29, 2025. https://authorsguild.org/news/ag-launches-human-authored-certification-to-preserve-authenticity-in-literature/

El Authors Guild ha lanzado «Human Authored», una certificación oficial destinada a preservar la autenticidad en la literatura en un mundo saturado por la inteligencia artificial (IA). Con el creciente número de libros generados por IA que se parecen y a veces incluso leen como libros escritos por humanos, los lectores pueden no saber si lo que están leyendo fue creado por IA o por un autor humano. El Authors Guild sostiene que los lectores tienen derecho a saber si un texto fue escrito por IA o por un humano y que los autores deben poder distinguir su trabajo en mercados cada vez más llenos de contenido generado por IA.

La certificación «Human Authored» permitirá a los escritores y editores usar un sello para indicar que el texto de un libro fue escrito por un humano, incluso si se utilizó IA para herramientas menores como la corrección ortográfica o de gramática. Este sello será registrado en la Oficina de Patentes y Marcas de EE. UU. y estará respaldado por un sistema de registro que permitirá verificar el origen humano de un libro a través de una base de datos pública.

El proceso de certificación es sencillo pero riguroso: los autores deben registrarse en el portal, verificar la información de su libro, firmar un acuerdo de licencia y recibir un sello único que podrán utilizar en las portadas, lomos o materiales promocionales. La iniciativa no rechaza la tecnología, sino que busca crear transparencia y resaltar los elementos humanos en la narrativa, en un mercado cada vez más saturado de contenido generado por IA.

Actualmente, la certificación está disponible solo para miembros del Authors Guild y para libros de un solo autor, pero se expandirá en el futuro para incluir libros con varios autores y a escritores fuera de la organización.

Más de la mitad de los adolescentes desconfía de que las grandes empresas tecnológicas de Inteligencia Artificial tomen decisiones éticas y responsables

Common Sense Media. “Research Reveals Teens’ Distrust in Tech Companies and AI-Generated Content.Common Sense Media, January 31, 2025.

Texto completo

El informe Teens, Trust, and Technology in the Age of AI, publicado por Common Sense Media, revela una brecha de confianza entre los adolescentes y las empresas tecnológicas. Basado en una encuesta representativa a nivel nacional de 1.045 adolescentes de entre 13 y 18 años, el estudio muestra que casi dos tercios de los encuestados (64%) no confían en que las compañías tecnológicas se preocupen por su bienestar, y un 62% duda de que prioricen la seguridad del usuario sobre las ganancias.

Este informe proporciona información crucial para padres, educadores y legisladores sobre el impacto de la tecnología en los jóvenes y cómo proteger su bienestar en un mundo cada vez más digitalizado.

Hallazgos clave:

  • Desconfianza generalizada: Más de la mitad de los adolescentes encuestados desconfía de que las grandes empresas tecnológicas tomen decisiones éticas y responsables en el diseño de sus productos (53%), protejan su información personal (52%) o sean inclusivas y justas con diferentes tipos de usuarios (51%).
  • Uso de IA y preocupaciones éticas: El 47% tiene poca o ninguna confianza en que las empresas tecnológicas tomen decisiones responsables sobre el uso de inteligencia artificial en sus productos.
  • Errores en la IA generativa: Un 39% de los adolescentes que han utilizado IA generativa para tareas escolares han detectado errores en sus resultados.
  • Regulación y transparencia: Aproximadamente el 70% de los encuestados apoya medidas de privacidad y transparencia en los sistemas de IA.
  • Etiquetado de contenido generado por IA: Un 73% considera importante que el contenido creado por inteligencia artificial esté claramente identificado o marcado con una marca de agua.
  • El estudio subraya la necesidad de regulaciones más estrictas y de una mayor responsabilidad por parte de las empresas tecnológicas para garantizar un entorno digital más seguro y confiable para los jóvenes.

Artículos científicos fabricados con GPT en Google Scholar: características principales, difusión e implicaciones

Harvard Kennedy School Misinformation Review. “GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation.” Harvard Kennedy School Misinformation Review. Última modificación enero 24, 2025. https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/.

La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.

Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).

De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.

Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.

El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.

Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.

La presión para publicar está contribuyendo a un aumento en la retractación de artículos científicos

Tran, Nham. «The ‘Publish or Perish’ Mentality Is Fuelling Research Paper Retractions – and Undermining ScienceThe Conversation, September 24, 2024. https://theconversation.com/the-publish-or-perish-mentality-is-fuelling-research-paper-retractions-and-undermining-science-238983

Los científicos, al realizar descubrimientos importantes, suelen publicar sus hallazgos en revistas científicas para que otros puedan leerlos y beneficiarse de ese conocimiento. Esta difusión de información es fundamental para el progreso de la ciencia, ya que permite que otros investigadores construyan sobre trabajos previos y, potencialmente, realicen nuevos descubrimientos significativos. Sin embargo, los artículos publicados pueden ser retractados si se detectan problemas de precisión o integridad en los datos. En años recientes, el número de retractaciones ha aumentado considerablemente. En 2023, se retractaron más de 10.000 artículos de manera global, estableciendo un nuevo récord.

El aumento en las retractaciones está impulsado por la mentalidad de «publicar o perecer», una situación que ha prevalecido en la academia durante décadas. La publicación de artículos de investigación es un factor clave para el avance en la carrera académica y para la mejora de los rankings universitarios. Las universidades y los institutos de investigación suelen utilizar el número de publicaciones como indicador principal de productividad y reputación. Esto ha llevado a una presión constante sobre los académicos para publicar regularmente, lo que, a su vez, ha contribuido a un aumento en la presentación de datos fraudulentos. Si esta tendencia continúa, el paisaje de la investigación podría cambiar hacia estándares menos rigurosos, dificultando el progreso en áreas críticas como la medicina, la tecnología y la ciencia climática.

Retraction Watch, una de las bases de datos más grandes que monitorea las retractaciones científicas, ha revelado un incremento en la cantidad de artículos retractados. En la última década, se han retractado más de 39.000 publicaciones, y el número anual de retractaciones está creciendo alrededor de un 23% cada año. Aproximadamente la mitad de estas retractaciones se deben a problemas relacionados con la autenticidad de los datos. Un ejemplo es el caso de Richard Eckert, un bioquímico senior de la Universidad de Maryland, Baltimore, quien falsificó datos en 13 artículos publicados. De estos, cuatro han sido corregidos, uno ha sido retractado y los demás están en proceso de acción.

El plagio es la segunda razón más común para la retractación de artículos, representando el 16% de los casos. Otro motivo significativo es el uso de revisiones por pares falsas, un problema que ha aumentado diez veces en la última década. También ha habido un incremento en las publicaciones asociadas con las llamadas «fábricas de artículos» (Paper Mills), que son empresas que producen artículos falsos por una tarifa. En 2022, hasta un 2% de todas las publicaciones provinieron de estas fábricas. Los errores genuinos en el proceso científico solo representan aproximadamente el 6% de todas las retractaciones en la última década.

La presión para publicar ha llevado a un aumento en los errores y las prácticas fraudulentas. Aunque la digitalización ha facilitado la detección de datos sospechosos, también ha intensificado la cultura de «publicar o perecer» en las universidades. La mayoría del personal académico debe cumplir con cuotas específicas de publicaciones para evaluaciones de desempeño, y las instituciones utilizan el rendimiento en publicaciones para mejorar su posición en los rankings globales, lo que atrae a más estudiantes y genera ingresos por enseñanza.

El sistema de recompensas en la academia a menudo prioriza la cantidad sobre la calidad de las publicaciones. Este enfoque puede llevar a los científicos a recortar esquinas, apresurar experimentos o incluso falsificar datos para cumplir con las métricas impuestas. Para abordar este problema, iniciativas como la Declaración de San Francisco sobre la Evaluación de la Investigación están impulsando un cambio hacia la evaluación de la investigación basada en su calidad e impacto social, en lugar de métricas centradas en revistas, como factores de impacto o recuentos de citas.

Cambiar las políticas de las revistas para priorizar el intercambio de todos los datos experimentales podría mejorar la integridad científica, permitiendo a los investigadores replicar experimentos para verificar los resultados de otros. Además, las universidades, los institutos de investigación y las agencias de financiamiento necesitan mejorar su diligencia debida y responsabilizar a aquellos involucrados en malas conductas. Incluir preguntas simples en las solicitudes de subvenciones o promociones académicas, como «¿Alguna vez ha tenido o estado involucrado en un artículo retractado?», podría mejorar la integridad de la investigación al disuadir comportamientos poco éticos. Las respuestas deshonestas podrían ser fácilmente detectadas gracias a la disponibilidad de herramientas en línea y bases de datos como Retraction Watch.