Archivo de la etiqueta: Fraude

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.

Se vende la autoría: Nature investiga cómo funcionan las fábricas de papel

Ro, Christine, y Jack Leeming. “Authorship for Sale: Nature Investigates How Paper Mills Work.” Nature, 9 de junio de 2025. https://doi.org/10.1038/d41586-025-01824-3.

Más sobre Paper Mills

Se examina el oscuro negocio de las «paper mills» o «fábricas de artículos científicos», empresas dedicadas a fabricar investigaciones falsas o a vender plazas de autoría en artículos académicos ya aceptados para publicación.

Estas prácticas han proliferado en parte por la presión creciente que sufren investigadores, especialmente en países donde las evaluaciones profesionales y académicas dependen del número de publicaciones en revistas indexadas. Investigadores de todo el mundo, desde Arabia Saudí hasta Kazajistán o China, han recurrido a estas compañías para engrosar su currículum, muchas veces sin haber escrito ni una línea del trabajo.

El artículo presenta el caso de “Omar”, un profesor asistente en Arabia Saudí, que pasó de tener 2 publicaciones científicas a 20 en apenas un año. Para lograrlo, Omar compró coautorías en artículos sobre inteligencia artificial aplicada a la medicina, sin revisar siquiera el contenido. En muchos casos, el proceso era completamente automatizado: le ofrecían aparecer como coautor en artículos ya aceptados por revistas, previo pago de entre 20 y 400 dólares. Omar justifica su decisión alegando que, si no lo hacía, perdería su trabajo, una presión compartida por muchos profesionales del ámbito académico y sanitario.

Las paper mills operan con métodos cada vez más sofisticados. Algunas venden directamente coautorías en artículos ya aceptados, otras generan investigaciones falsas desde cero. Emplean tecnologías como imágenes creadas por inteligencia artificial, evitan los plagios detectables y simulan revisiones por pares con perfiles falsos. Empresas como International Publisher LLC (con sede en Rusia) han recaudado millones en pocos años vendiendo estas plazas de autoría. Se estima que toda esta industria podría mover cientos de millones de dólares anualmente, lo que revela un problema de escala global.

Las consecuencias de esta práctica son graves. Un análisis muestra que los centros con mayor número de retractaciones en publicaciones científicas están en su mayoría en China, donde muchos hospitales han sido señalados por artículos fraudulentos. La presión sobre médicos, enfermeras y docentes para publicar artículos es tan fuerte que muchos ven estas prácticas como su única vía de progreso. Investigadores de universidades chinas han confirmado que, si no publican con frecuencia en revistas del Web of Science, no pueden acceder a becas, ascensos o incluso mantener su empleo.

El fraude también se apoya en tácticas como el uso de frases extrañas y mal traducidas (como “subterranean insect settlement” para referirse a una colonia de hormigas), o la inclusión de referencias duplicadas y sin sentido. Estas señales han servido a investigadores como Anna Abalkina y Dorothy Bishop para destapar cientos de artículos fraudulentos, que han sido retractados tras revelarse pagos por coautoría. En Kazajistán, autores han admitido pagar hasta 1500 dólares, incluso recurriendo a préstamos personales, para figurar en artículos que nunca escribieron.

Muchos de los autores involucrados alegan que no sabían que estaban participando en una práctica fraudulenta. Algunos creen que pagaron solo por servicios de traducción o asesoramiento editorial, sin darse cuenta de que las empresas se encargaban de manipular todo el proceso: desde sugerir revisores falsos hasta responder en su nombre a las revisiones editoriales. Sin embargo, las editoriales científicas insisten en que los autores son responsables de verificar la integridad de los trabajos en los que aparecen como firmantes.

A pesar de algunos esfuerzos por parte de editoriales y grupos de vigilancia para detectar y frenar esta corrupción en la publicación científica, el problema parece difícil de erradicar mientras persista un sistema que recompensa más la cantidad de publicaciones que la calidad o la integridad del trabajo. El reportaje concluye que, sin una reforma estructural del sistema académico y sin reducir la presión por publicar a toda costa, las paper mills seguirán encontrando clientes dispuestos a pagar por figurar como autores en ciencia ficticia.

¿Qué es la generación de imágenes basada en autorregresión y cómo afectará al fraude documental?

Flook, Rebecca. 2025. «What Is Autoregression-Based Image Generation and How Will It Impact Document Fraud?» Artificial Intelligence, mayo 23, 2025. https://nationalcentreforai.jiscinvolve.org/wp/2025/05/23/what-is-autoregression-based-image-generation-and-how-will-it-impact-document-fraud-2/

En el artículo se explora el papel emergente de los modelos de IA autorregresivos en la generación de imágenes y sus implicaciones en el fraude documental.

Los modelos autoregresivos generan imágenes prediciendo píxel por píxel en una secuencia, basándose en los píxeles anteriores. Esta técnica permite una creación detallada y controlada de imágenes, lo que la hace útil para tareas que requieren precisión y coherencia visual. En pocas palabras, tiene que ver con la utilización de la autorregresión. No se trata de un concepto nuevo en la IA Generativa, ya que los modelos autorregresivos se utilizan principalmente para generar texto. También se ha utilizado anteriormente en la generación de imágenes, pero no con el nivel de multimodalidad que estamos presenciando ahora, que se ha incorporado a GPT-4o y está disponible para los usuarios de ChatGPT. Así, cuando un usuario pide una imagen al modelo de IA Generativa, éste utiliza esta metodología aprendida, convirtiendo una distribución de datos de puro ruido en una imagen basada en una indicación del usuario, con diversos grados de éxito.

Desde la introducción de esta nueva metodología, se ha observado que el modelo posee una capacidad preocupante para crear documentos falsificados, como distintos tipos de identificaciones. Muchos procesos de autenticación en la vida diaria dependen de la verificación de imágenes, y la inteligencia artificial está nuevamente facilitando el acceso a actores malintencionados para generar recursos fraudulentos. Los generadores de imágenes por IA intentan asegurar que los usuarios conozcan el origen de una imagen incluyendo marcas de agua o una firma en los metadatos. Aunque esto representa un obstáculo para los actores malintencionados, no es una solución infalible. Estos datos de procedencia pueden ser eliminados o modificados para imitar autenticidad.

Para contrarrestar estos riesgos, el artículo subraya la importancia de desarrollar mecanismos sólidos de detección y protocolos de verificación. También destaca la necesidad de mantener la investigación activa y fomentar la colaboración entre las partes implicadas para anticiparse a posibles usos fraudulentos.

El crecimiento explosivo del fraude impulsado por la IA: Deepfakes

Statista Daily Data. «Infografía: El explosivo crecimiento del fraude impulsado por la IA», 15 de marzo de 2024. https://es.statista.com/grafico/31907/paises-con-mayores-aumentos-de-casos-de-fraude-de-deepfake.

La proliferación de videos, fotos y grabaciones de audio engañosas, generadas con sistemas de inteligencia artificial (IA), ha alcanzado proporciones alarmantes en diversas plataformas de internet.

Desde imágenes de Donald Trump posando con votantes negros hasta el Papa luciendo una chaqueta estilo puffer, estos contenidos manipulados pueden hacer que parezca que figuras prominentes en la política o el entretenimiento expresen ideas o acciones que nunca han realizado.

Además de su uso para crear contenido falso, esta tecnología también facilita la comisión de fraudes de identidad, ya sea mediante la fabricación de documentos falsificados o usurpando la identidad de personas a través de llamadas telefónicas. Entre 2022 y 2023, los casos de fraude vinculados a deepfakes se han disparado en numerosos países alrededor del mundo, como lo revela nuestro análisis basado en el informe anual más reciente del proveedor de verificación de identidad Sumsub.

Entre los hallazgos clave del estudio se destacan:

  • Un aumento significativo de 10 veces en el número de deepfakes detectados globalmente en todas las industrias entre 2022 y 2023, con diferencias regionales notablemente marcadas.
  • España es el país más atacado por deepfakes, el pasaporte de los Emiratos Árabes Unidos es el documento más falsificado a nivel mundial, y América Latina es la región donde el fraude aumentó en todos los países.
  • Las tarjetas de identificación siguen siendo las más explotadas para el fraude de identidad, representando casi el 75% de todas las actividades fraudulentas relacionadas con documentos de identidad.
  • Los medios de comunicación en línea son la industria con el mayor aumento de fraude de identidad.

Por ejemplo, en Filipinas, los intentos de fraude aumentaron en un 4.500% respecto al año anterior, seguido de países como Vietnam, Estados Unidos y Bélgica. Con el potencial de la inteligencia artificial en constante crecimiento, es probable que los intentos de fraude mediante deepfakes se expandan a otras áreas. Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub, señala que «hemos observado cómo los deepfakes se han vuelto cada vez más convincentes en los últimos años, y esto solo continuará y se ramificará hacia nuevos tipos de fraudes, como se ha visto con los deepfakes de voz».

Aunque la creación de deepfakes en sí misma no constituye un delito, muchos gobiernos están adoptando regulaciones más estrictas en el uso de la IA para prevenir daños a las partes involucradas. Además, alrededor de 400 expertos en IA y tecnología han suscrito una carta abierta el mes pasado, instando a los gobiernos de todo el mundo a tomar medidas enérgicas contra los deepfakes.

El informe concluye con predicciones para el próximo año en cuanto a verificación de identidad, así como pautas para la prevención del fraude proporcionadas por expertos. Entre las predicciones se incluyen un énfasis en la verificación no documental, un aumento de las reglas más estrictas en los medios de comunicación en línea y un cambio en la posesión de datos de identidad hacia un almacenamiento local obligatorio.

Los documentos científicos fraudulentos están comprometiendo la confiabilidad en la ciencia

McKie, Robin. «‘The Situation Has Become Appalling’: Fake Scientific Papers Push Research Credibility to Crisis Point». The Observer, 3 de febrero de 2024, sec. Science. https://www.theguardian.com/science/2024/feb/03/the-situation-has-become-appalling-fake-scientific-papers-push-research-credibility-to-crisis-point.


Los científicos están haciendo sonar la alarma sobre la publicación masiva de miles de documentos de investigación falsos en revistas, lo que constituye un creciente escándalo internacional. Esta situación está comprometiendo la investigación médica, obstaculizando el desarrollo de medicamentos y poniendo en peligro la prometedora investigación académica. Una ola global de ciencia fraudulenta está afectando gravemente a laboratorios y universidades.

El año pasado, el número anual de documentos retractados por revistas de investigación superó los 10.000 por primera vez. La mayoría de los analistas creen que la cifra es solo la punta de un iceberg de fraude científico.

«La situación se ha vuelto alarmante», dijo la profesora Dorothy Bishop de la Universidad de Oxford. «El nivel de publicación de documentos fraudulentos está creando problemas serios para la ciencia. En muchos campos, está volviéndose difícil construir un enfoque acumulativo hacia un tema, porque nos falta una base sólida de hallazgos confiables. Y va empeorando más y más».

El sorprendente aumento en la publicación de documentos de ciencia falsa tiene sus raíces en China, donde a jóvenes médicos y científicos que buscaban ascensos se les exigía haber publicado documentos científicos. Organizaciones clandestinas, conocidas como «fábricas de documentos» (Paper mills), comenzaron a suministrar trabajos fabricados para su publicación en revistas allí.

La práctica se ha extendido desde entonces a India, Irán, Rusia, estados de la antigua Unión Soviética y Europa del Este, con «fábricas de documentos» suministrando estudios fabricados a más y más revistas a medida que aumenta el número de jóvenes científicos que intentan impulsar sus carreras al reclamar una falsa experiencia de investigación. En algunos casos, los editores de revistas han sido sobornados para aceptar artículos, mientras que las «fábricas de documentos» han logrado establecer a sus propios agentes como editores invitados que luego permiten que se publiquen montones de trabajos falsificados.

«Los editores no están cumpliendo adecuadamente con sus roles y los revisores por pares no están haciendo su trabajo. Y algunos están siendo pagados grandes sumas de dinero», dijo la profesora Alison Avenell de la Universidad de Aberdeen. «Es profundamente preocupante».

Los productos de las «fábricas de documentos» a menudo parecen artículos regulares pero se basan en plantillas en las que se insertan nombres de genes o enfermedades al azar entre tablas y figuras ficticias. Preocupantemente, estos artículos pueden ser incorporados a grandes bases de datos utilizadas por aquellos que trabajan en el descubrimiento de medicamentos.

Otros son más extraños e incluyen investigaciones no relacionadas con el campo de una revista, lo que deja en claro que no se ha llevado a cabo una revisión por pares en relación con ese artículo. Un ejemplo es un documento sobre la ideología marxista que apareció en la revista Computational and Mathematical Methods in Medicine. Otros son distintivos debido al lenguaje extraño que utilizan, incluyendo referencias a «peligro del seno» en lugar de cáncer de seno y «afección de Parkinson» en lugar de enfermedad de Parkinson.

Grupos de vigilancia, como Retraction Watch, han rastreado el problema y han notado retractaciones por parte de revistas que se vieron obligadas a actuar en ocasiones cuando se descubrieron fabricaciones. Un estudio, realizado por Nature, reveló que en 2013 hubo poco más de 1.000 retractaciones. En 2022, la cifra superó los 4.000 antes de saltar a más de 10.000 el año pasado.

De los más de 10.000 documentos retractados el año pasado, más de 8,000 habían sido publicados en revistas propiedad de Hindawi, una subsidiaria de Wiley. Estas cifras han obligado a la empresa a tomar medidas drásticas. Un portavoz de Wiley anunció: «Vamos a eliminar la marca Hindawi y hemos comenzado a integrar completamente los más de 200 diarios de Hindawi en el portafolio de Wiley». Además, la compañía ha identificado a cientos de estafadores en su cartera de revistas y ha removido a aquellos que desempeñaron roles editoriales. Aunque Wiley reconoce que no puede abordar la crisis por sí sola, otras editoriales también se ven afectadas por los «paper mills». Los académicos se muestran cautelosos, ya que en muchos países son remunerados según la cantidad de artículos publicados. El daño causado por la publicación de investigaciones deficientes o falsas se evidencia con el caso del fármaco antiparasitario ivermectina, que inicialmente se creyó que podría tratar el Covid-19 pero posteriormente se descubrió evidencia clara de fraude en los estudios. Este incidente ilustra cómo la ciencia se ve afectada por el material fabricado. Los expertos advierten sobre la creciente amenaza de los «paper mills» y la investigación fraudulenta, señalando que la integridad del conocimiento científico está en peligro y que la corrupción está infiltrándose en el sistema.

Las citaciones en Google Scholar son manipulables


Ibrahim, Hazem, Fengyuan Liu, Yasir Zaki, y Talal Rahwan. «Google Scholar is manipulatable». arXiv, 7 de febrero de 2024. https://doi.org/10.48550/arXiv.2402.04607.


El documento proporciona evidencia de fraude en la compra de citas en Google Scholar. A través de un análisis de perfiles en Google Scholar y encuestas a profesores de universidades de alto prestigio, se descubre la amplia utilización de esta plataforma en la evaluación de científicos. Los investigadores también revelan la existencia de un servicio para aumentar citas y demuestran que es posible comprar citas en grandes cantidades. Este hallazgo subraya la importancia de no depender exclusivamente de los recuentos de citas en la evaluación académica.

En este estudio, se compiló un conjunto de datos de aproximadamente 1.6 millones de perfiles en Google Scholar para examinar casos de fraude de citas en la plataforma. Se encuestó a profesores de universidades altamente clasificadas, confirmando que Google Scholar se utiliza ampliamente en la evaluación de los científicos. Intrigados por un servicio de aumento de citas descubierto durante la investigación, los investigadores contactaron con el servicio encubiertos como autores ficticios y lograron comprar 50 citas. Estos hallazgos proporcionan evidencia concluyente de que las citas pueden ser compradas en grandes cantidades, resaltando la necesidad de ir más allá de los recuentos de citas.

Una marca de agua podría detectar los textos escritos por herramientas de Inteligencia Artificial como ChatGTP

«A Watermark for Chatbots Can Expose Text Written by an AI». MIT Technology Review. Accedido 29 de enero de 2023.

Ver completo

Los textos generados por inteligencia artificial podrían identificarse como tales mediante marcas ocultas, que nos permitirían saber si las palabras que leemos han sido escritas por un ser humano o no.

Estas «marcas de agua» son invisibles al ojo humano, pero permiten a los ordenadores detectar que el texto procede probablemente de un sistema de IA como ChatGTP. Si se incorporan a grandes modelos lingüísticos, podrían ayudar a evitar algunos de los problemas que estos modelos ya están causado.

Por ejemplo, desde que se lanzó en noviembre el chatbot ChatGPT de OpenAI, los estudiantes ya han empezado a hacer trampas utilizándolo para que escriba trabajos declase por ellos. El sitio web de noticias CNET ha utilizado ChatGPT para escribir artículos, pero ha tenido que corregirlos ante las acusaciones de plagio. Incorporar la marca de agua a estos sistemas antes de su lanzamiento podría ayudar a resolver estos problemas.

En algunos estudios, estas marcas de agua ya se han utilizado para identificar con casi total certeza textos generados por IA. Los investigadores de la Universidad de Maryland, por ejemplo, fueron capaces de detectar el texto creado por el modelo lingüístico de código abierto de Meta, OPT-6.7B, mediante un algoritmo de detección creado por ellos. El trabajo se describe en un artículo que aún no ha sido revisado por pares, este código estará disponible gratuitamente en torno al 15 de febrero.

«Ahora mismo estamos en el Salvaje Oeste», afirma John Kirchenbauer, investigador de la Universidad de Maryland que participó en el desarrollo de las marcas de agua. Kirchenbauer confía en que las herramientas de marca de agua den ventaja a los esfuerzos de detección de la IA. La herramienta que ha desarrollado su equipo podría adaptarse a cualquier modelo lingüístico de inteligencia artificial que prediga la siguiente palabra.

Los modelos lingüísticos de IA funcionan prediciendo y generando una palabra cada vez. Después de cada palabra, el algoritmo de marca de agua divide aleatoriamente el vocabulario del modelo lingüístico en palabras de una «lista verde» y una «lista roja» y, a continuación, pide al modelo que elija palabras de la lista verde.

Cuantas más palabras de la lista verde haya en un pasaje, más probable es que el texto haya sido generado por una máquina. El texto escrito por una persona suele contener una mezcla más aleatoria de palabras. Por ejemplo, para la palabra «bello», el algoritmo podría clasificar la palabra «flor» como verde y «orquídea» como roja. El modelo de IA con el algoritmo de marca de agua tendría más probabilidades de utilizar la palabra «flor» que «orquídea», explica Tom Goldstein, profesor adjunto de la Universidad de Maryland, que participó en la investigación.

ChatGPT forma parte de una nueva generación de grandes modelos lingüísticos que generan textos tan fluidos que podrían confundirse con la escritura humana. Estos modelos de IA Estos modelos de IA recopilan hechos por confianza, pero son famosos por arrojar falsedades y sesgos. Para un ojo inexperto, puede ser casi imposible distinguir un pasaje escrito por un modelo de IA de otro escrito por un ser humano. La vertiginosa velocidad de desarrollo de la inteligencia artificial hace que los nuevos modelos, más potentes, reduzcan rápidamente la eficacia de las actuales herramientas de detección de textos falsos. Es una carrera constante entre los desarrolladores de IA para crear nuevas herramientas de seguridad que puedan estar a la altura de la última generación de modelos de IA.

Armados con ChatGPT, los ciberdelincuentes crean malware y traman falsos bots de chicas

Brewster, Thomas. «Armed With ChatGPT, Cybercriminals Build Malware And Plot Fake Girl Bots». Forbes. Accedido 27 de enero de 2023.

Ver original

Los usuarios de foros clandestinos empiezan a compartir malware codificado por la sensación viral de OpenAI y los estafadores de citas planean crear falsas chicas convincentes con la herramienta. Los pronosticadores cibernéticos predicen que se avecinan más usos maliciosos de ChatGPT.

Los ciberdelincuentes han empezado a utilizar ChatGPT, el chatbot de inteligencia artificial de OpenAI, para crear rápidamente herramientas de pirateo informático, advirtieron el viernes investigadores en ciberseguridad. Los estafadores también están probando la capacidad de ChatGPT para construir otros chatbots diseñados para hacerse pasar por mujeres jóvenes con el fin de captar objetivos, según declaró a Forbes un experto que monitoriza foros de delincuentes.

Muchos de los primeros usuarios de ChatGPT habían dado la voz de alarma ante la posibilidad de que la aplicación, que se hizo viral en los días posteriores a su lanzamiento en diciembre, pudiera codificar software malicioso capaz de espiar las pulsaciones del teclado de los usuarios o crear ransomware.

Según un informe de la empresa de seguridad israelí Check Point, los foros clandestinos de delincuentes han terminado por darse cuenta. En uno de los foros analizados por Check Point, un hacker que ya había compartido malware para Android mostraba un código escrito por ChatGPT que robaba archivos de interés, los comprimía y los enviaba a través de la web. Mostraron otra herramienta que instalaba una puerta trasera en un ordenador y podía cargar más malware en un PC infectado.

En el mismo foro, otro usuario compartió un código Python que podía cifrar archivos, afirmando que la aplicación de OpenAI les había ayudado a construirlo. Afirmaban que era el primer script que habían desarrollado. Como señaló Check Point en su informe, dicho código puede utilizarse con fines totalmente benignos, pero también podría «modificarse fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario», de forma similar a como funciona el ransomware. El mismo usuario del foro había vendido anteriormente acceso a servidores de empresas pirateados y datos robados, señaló Check Point.

Un usuario también habló de «abusar» de ChatGPT haciendo que ayudara a codificar las características de un mercado de la web oscura, similar a los bazares de drogas como Silk Road o Alphabay. Como ejemplo, el usuario mostró cómo el bot de chat podía crear rápidamente una aplicación que monitorizara los precios de las criptomonedas para un sistema de pago teórico.

Alex Holden, fundador de la empresa de inteligencia cibernética Hold Security, dijo que había visto a estafadores de citas empezar a utilizar ChatGPT también, ya que tratan de crear personajes convincentes. «Están planeando crear chatbots para hacerse pasar sobre todo por chicas para llegar más lejos en los chats con sus marcas», dijo. «Intentan automatizar la charla ociosa».

OpenAI no había respondido a la solicitud de comentarios en el momento de la publicación.

Aunque las herramientas codificadas por ChatGPT parecían «bastante básicas», Check Point dijo que era sólo cuestión de tiempo hasta que hackers más «sofisticados» encontraran la forma de convertir la IA en su ventaja. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, dijo que no parecía que ChatGPT fuera aún capaz de codificar algo tan complejo como las principales cepas de ransomware que se han visto en importantes incidentes de piratería informática en los últimos años, como Conti, tristemente célebre por su uso en la violación del sistema nacional de salud de Irlanda. La herramienta de OpenAI, sin embargo, reducirá la barrera de entrada para que los novatos se introduzcan en ese mercado ilícito mediante la creación de malware más básico, pero igualmente eficaz, añadió Ferguson.

También planteó la preocupación de que ChatGPT, en lugar de crear código que robe los datos de las víctimas, pueda utilizarse para crear sitios web y bots que engañen a los usuarios para que compartan su información. Podría «industrializar la creación y personalización de páginas web maliciosas, campañas de phishing muy selectivas y estafas basadas en ingeniería social», añadió Ferguson.

Sergey Shykevich, investigador de inteligencia de amenazas de Check Point, declaró a Forbes que ChatGPT será una «gran herramienta» para que los hackers rusos que no dominan el inglés elaboren correos electrónicos de phishing de apariencia legítima.

En cuanto a las protecciones contra el uso delictivo de ChatGPT, Shykevich dijo que, en última instancia y «por desgracia», tendrían que aplicarse mediante regulación. OpenAI ha implementado algunos controles, como la prevención de solicitudes obvias de ChatGPT para crear programas espía con advertencias de infracción de la política, aunque los hackers y los periodistas han encontrado formas de eludir esas protecciones. Shykevich afirma que quizá haya que obligar legalmente a empresas como OpenAI a entrenar a su IA para detectar este tipo de abusos.

Papel Mills: la fabricación de artículos para la venta de autorías

Paper Mills: research report drom COPE & STM. STM, 2022

Texto completo

En el ámbito de la investigación, una Paper Mills (fábrica de articulos) es una «organización no oficial, potencialmente ilegal y con ánimo de lucro, que produce y vende la autoría de manuscritos de investigación»

La fabricación de artículos es el proceso por el que se envían manuscritos terminados a una revista a cambio de una cuota en nombre de los investigadores con el fin de facilitarles la publicación, o para ofrecerles la autoría a cambio de dinero.

En unas ocasiones, los Paper Mills contienen operaciones sofisticadas que venden puestos de autoría en investigaciones legítimas, pero en muchos otros casos los trabajos contienen datos fraudulentos y pueden estar plagiados o ser poco profesionales. También puede incluir la fabricación de datos, lo que lleva a la ciencia basura y, a veces, a retractaciones en la literatura científica.

Los investigadores se ven presionados a publicar para avanzar en su carrera «Publish or perish», y por ello algunos recurren a estas prácticas inaceptables. Se trata de un problema de ética e integridad de la investigación que afecta a la publicación académica, una deshonestidad académica que implica el engaño y la autoría por contrato, más concretamente el ghostwriting académico, es decir la escritura fantasma, un término utilizado para describir la investigación académica escrita por alguien cuyo nombre no se reconoce.

En abril de 2022, el departamento de noticias de la revista Science publicó un post que identificaba cientos de artículos académicos publicados en los que se habían vendido puestos de autoría a través de un sitio web ruso que permitía a los investigadores pagar por el prestigio académico, sin exigir contribuciones legítimas en la investigación. Durante el periodo de tres años analizado, se identificaron 419 artículos que coincidían con manuscritos publicados posteriormente en muchas revistas académicas diferentes, con un sesgo significativo hacia las publicaciones en revistas depredadoras. Aunque los artículos fabricados aparecieron en varias revistas, sólo en International Journal of Emerging Technologies in Learning (Kassel University Press) se publicaron casi 100 artículos, aparentemente coordinados mediante la participación de editores de revistas que organizaban números especiales con espacio para coautores subastados por entre 180 y 5.000 dólares. En otra red coordinada, se descubrió que los editores invitados y los editores académicos asalariados de MDPI coordinaban la venta de autorías en cuatro revistas diferentes de MDPI, con un total de más de 20 artículos. Más allá de la colusión entre los editores y International Publisher Ltd., muchos trabajos de investigación legítimos también vendieron autorías desconocidas por parte de los editores de las revistas, y finalmente fueron aceptados en revistas publicadas por Elsevier, Oxford University Press, Springer Nature, Taylor & Francis, Wolters Kluwer y Wiley-Blackwell. Desde el 6 de abril de 2022, muchos de estos editores han abierto una investigación sobre el asunto.

En 2022 COPE y STM llevaron a cabo un estudio con Maverick Publishing Services, utilizando datos de las editoriales, para comprender la magnitud del problema de las Paper Mills. En el estudio también se entrevistó a las partes interesadas: investigadores, editores y a miembros de Retraction Watch.

Todos los implicados creen que el problema de las fábricas de artículos es una amenaza real para la integridad de los registros académicos, y que es necesario un esfuerzo colectivo porque los editores tienen claro que no pueden resolver este problema solos. Es necesario un esfuerzo conjunto de editores, financiadores e instituciones de investigación.

El documento recomienda una serie de acciones al respecto:

  • Es necesario un importante ejercicio de educación para garantizar que los editores sean conscientes del problema de las fabricación de artículos y que los editores/personal de redacción reciban formación para identificar los documentos falsos.
  • Inversión continua en herramientas y sistemas para detectar los artículos sospechosos a medida que se presentan.
  • Compromiso con las instituciones y los financiadores para revisar los incentivos para que los investigadores publiquen artículos válidos y no utilicen servicios que ofrezcan una publicación rápida pero falsa.
  • Investigar los protocolos que pueden establecerse para impedir que las Paper Mills logren sus objetivos.
  • Revisar el proceso de retractación para tener en cuenta las características únicas de los artículos fabricados.
  • Investigar cómo garantizar que los avisos de retractación se apliquen a todas las copias de un artículo, como los servidores de preprints y los repositorios de artículos.

Una página web rusa vende autorías en artículos de revistas de impacto por 5.000 dólares

Russian site peddles paper authorship in reputable journals for up to $5000 a pop. Science, 2022

Ver completo

Desde 2019, Anna Abalkina ha estado monitoreando un sitio web que ofrece una forma ilícita para que los científicos pulan sus currículos. El sitio, operado desde Rusia, ofrece abiertamente vender espacios de autoría en artículos científicos que pronto se publicarán, por tarifas que van desde varios cientos de dólares hasta casi 5000 dólares.

Abalkina, socióloga de la Universidad Libre de Berlín, ha documentado lo que parece ser un negocio floreciente en el sitio, www.123mi.ru . Desde que debutó en diciembre de 2018, analizó más de 1000 anuncios publicados allí y encontró al menos 419 que parecían coincidir con manuscritos que luego aparecieron en docenas de revistas diferentes, informó en una preprint publicado en arXiv en marzo.

Más de 100 de estos artículos identificados se publicaron en 68 revistas dirigidas por editores establecidos, incluidos Elsevier, Oxford University Press, Springer Nature, Taylor & Francis, Wolters Kluwer y Wiley-Blackwell, aunque la mayoría de estos eran publicaciones especializadas. Los autores rusos superaron en número a los de cualquier otra nacionalidad en el recuento de contratos recientes del sitio web.