Archivo de la etiqueta: Plagio

Comprender los distintos tipos de mala conducta científica

Nader Ale Ebrahim «Shedding Light on the Shadows: Understanding Different Types of Scientific Misconduct». 2023. Accedido 18 de diciembre de 2023. https://www.linkedin.com/pulse/shedding-light-shadows-understanding-different-types-ale-ebrahim-y32qc.

En la búsqueda del conocimiento y la verdad, la comunidad científica opera sobre una base de confianza, integridad y conducta ética. Sin embargo, el panorama de la investigación científica no está exento de conductas impropias. Este artículo profundiza en diversas formas de mala conducta científica, con el objetivo de aumentar la conciencia y promover una cultura de honestidad y transparencia en la investigación.

  1. Plagio: El Ladrón Silencioso El plagio, el acto de utilizar el trabajo o las ideas de alguien más sin el debido reconocimiento, representa una grave violación de la integridad académica. Minimiza la credibilidad de la investigación y muestra falta de respeto por el trabajo original de otros. Detectar y prevenir el plagio es crucial para mantener la integridad de la literatura científica.
  2. Fabricación y Falsificación de Datos: El Arte de la Decepción La fabricación de datos implica crear datos ficticios, mientras que la falsificación implica manipular o alterar datos para ajustarlos a resultados deseados. Ambas prácticas son perjudiciales, ya que pueden llevar a conclusiones incorrectas y engañar a otros investigadores, potencialmente causando un efecto dominó de desinformación.
  3. Autoría indebida: Cuando se otorga autoría a individuos que no han contribuido significativamente a la investigación o, por el contrario, se omiten contribuyentes merecedores. Esta mala conducta cuestiona la autenticidad de la autoría y puede dar lugar a disputas y desconfianza dentro de la comunidad académica.
  4. Publicación Duplicada: Publicar los mismos datos o estudio en varias revistas como trabajo original es otra forma de mala conducta. Esta práctica puede distorsionar la literatura científica, dando una falsa impresión de hallazgos corroborados e inflando artificialmente el historial de publicaciones del investigador.
  5. Manipulación de la Revisión por Pares: La revisión por pares es fundamental para la validación de la investigación. Manipular este proceso, ya sea influyendo en los revisores o comprometiendo la imparcialidad de la revisión, socava la esencia misma de la validación de la investigación.

En conclusión, comprender y reconocer las diversas formas de mala conducta científica es el primer paso para combatirlas. Incumbe a las instituciones, revistas y a los propios investigadores fomentar un entorno donde la conducta ética sea la norma, no la excepción. La vigilancia, la educación y políticas rigurosas son clave para mantener la integridad de la investigación científica. Como miembros de la comunidad científica, debemos comprometernos con estos estándares, asegurando que nuestra búsqueda del conocimiento sea pura, creíble y confiable.

10 tipos de plagio que todo escritor académico debería conocer para evitarlo según Turnitin.

R, Dr Somasundaram. 2023. «10 Types of Plagiarism – Every Academic Writer Should Know – Updated». iLovePhD. 8 de julio de 2023. https://www.ilovephd.com/10-types-of-plagiarism-every-academic-writer-should-know/.

Ver infografía

El plagio es el problema más común al que se enfrentan los escritores académicos al redactar sus trabajos de investigación o tesis. La conocida herramienta de detección de plagio Turnitin clasifica el plagio en 10 tipos comunes antes de generar el informe. En este artículo, exploraremos los 10 tipos de plagio que todo escritor académico debería conocer para evitarlo.

1. Clonación (Clone) – Plagio: En la clonación, una persona copia el trabajo de otra (palabra por palabra) sin realizar ningún cambio y lo presenta como su propio trabajo.

2. Remodelación (Remix) – Plagio: En el tipo de plagio por remodelación, una persona recopila información de varias fuentes, la mezcla en un solo documento y reclama el trabajo como propio.

3. Copiar y Pegar (Ctrl+C) – Plagio: En este caso, se copia una parte significativa del texto de un solo origen sin realizar ninguna alteración, lo cual se denomina como plagio Ctrl+C.

4. Híbrido (Hybrid) – Plagio: En el plagio híbrido, se copian documentos de origen perfectamente citados y se organizan como un nuevo documento sin citarlos.

5. Buscar y Reemplazar (Find-Replace) – Plagio: Cambiar las palabras y frases más comunes en el contenido copiado y no realizar cambios en el documento es conocido como «buscar y reemplazar» – un tipo de plagio.

6. Reciclaje (Recycle) – Plagio: El reciclaje, también conocido como autoplagio, se refiere a la acción de tomar prestado de un documento anterior propio sin una cita adecuada.

7. Mezcla (Mashup) – Plagio: Cuando se copia un documento escrito de más de una fuente y se mezclan todos sin una cita adecuada, se llama plagio de mezcla.

8. Error 404 (404 Error) – Plagio: El «error 404» – plagio es cuando una persona crea un documento copiando de diversas fuentes y lo presenta como un solo documento con citas. Sin embargo, si las citas son inexactas o conducen a recursos que no existen, se llamará 404 tipos de plagio.

9. Agregador (Aggregator) – Plagio: En este tipo de plagio, el documento escrito incluye todas las citas adecuadas, pero no contiene trabajo original.

10. Retuitear (Re-Tweet) – Plagio: Si todo el documento escrito parece perfecto con marcas debidamente citadas, pero aún así el documento se asemeja en alguna parte a la estructura o las palabras originales del texto, se llama plagio por retuiteo.

Wiley dejará de utilizar la marca «Hindawi» por críticas sobre venta de autorías, lo que ha generado un descenso de ingresos de 18 millones de dólares

Kincaid, Author Ellie. 2023. «Wiley to Stop Using “Hindawi” Name amid $18 Million Revenue Decline». Retraction Watch (blog). 6 de diciembre de 2023. https://retractionwatch.com/2023/12/06/wiley-to-stop-using-hindawi-name-amid-18-million-revenue-decline/.


Wiley ha comunicado su decisión de no utilizar la problemática marca Hindawi. La editorial Hindawi ha llevado a controversias, desatando numerosas críticas acerca de la calidad de algunos de sus artículos, venta de autorías y retractaciones masivas. En un movimiento estratégico, Wiley planea integrar las alrededor de 200 revistas de Hindawi en el conjunto de su cartera para mediados del próximo año.

Hindawi era una editorial académica especializada en revistas de acceso abierto. La empresa se estableció en 1997 en Egipto y creció para convertirse en uno de los principales editores de acceso abierto en el mundo. Su adquisición por parte de Wiley en 2021 ha generado problemas significativos, con una pérdida de ingresos de 18 millones de dólares en el último trimestre financiero en comparación con el mismo trimestre del año anterior, según reveló la misma Wiley. Las revistas de Hindawi se han visto afectadas por la publicación de contenido de baja calidad y «fabricas de papel«*, lo que ha llevado a miles de retractaciones, cierres de revistas y la exclusión de varios títulos de un importante índice.

En el actual año fiscal, Wiley anticipa una pérdida de ingresos de entre 35 y 40 millones de dólares procedentes de Hindawi. Esto se debe a los esfuerzos en curso para abordar los problemas en las revistas y retractarse de los artículos. Matthew Kissner, presidente y CEO interino de Wiley, comunicó en la conferencia de resultados que la empresa espera que los ingresos comiencen a recuperarse en el próximo año fiscal.

* En el ámbito de la investigación, una fábrica de artículos se refiere a una organización con fines de lucro, no oficial y potencialmente ilegal que produce y vende manuscritos fraudulentos que pretenden asemejarse a investigaciones genuinas.

Los editores responden a los comentarios de la Oficina de Derechos de Autor diciendo que las empresas multimillonarias de inteligencia artificial copian en masa obras sin consentimiento

Publishers Submit Reply Comments to Copyright Office in Artificial Intelligence Proceeding—AAP. (2023, diciembre 6).

Texto completo

Association of American Publishers (AAP) de Estados Unidos presentó los comentarios de respuesta en la investigación de la U.S. Copyright Office de EE. UU. sobre la intersección entre la ley de derechos de autor y la inteligencia artificial (IA) en respuesta a afirmaciones defectuosas e inexactas presentadas por algunas empresas tecnológicas y/o sus inversores en la primera ronda de comentarios, incluidas afirmaciones agotadas de que los derechos de los autores y editores son un obstáculo para la innovación.

AAP presentó una extensa contribución que incluye los siguientes puntos:

  1. Las grandes empresas tecnológicas piden al gobierno «cobertura contra la responsabilidad por su desconsideración calculada de la autoría, ignorando también que los titulares de derechos ya licencian rutinariamente sus obras para todo tipo de usos digitales».
  2. «En lugar de trabajar con los propietarios de derechos de autor, estas empresas buscan apropiarse de la literatura y otras propiedades intelectuales invaluables para su propio beneficio comercial y torcer la ley a su voluntad. El gobierno no debería tener ningún papel en otorgar ventajas comerciales a las empresas de IA a expensas de autores, editores y otros creadores».
  3. «Las empresas que se benefician de la comercialización de esta tecnología deberían estar obligadas no solo a compensar a los titulares de derechos por su ingestión pasada de obras con derechos de autor para entrenar sistemas Gen AI, sino también por su uso continuo y futuro de obras protegidas para entrenar nuevos sistemas Gen AI o ajustar sus productos existentes».
  4. «Los desarrolladores de Gen AI no son ‘start-ups’ que luchan y necesitan un impulso del gobierno. Cuentan entre sus inversores a algunas de las empresas tecnológicas más grandes y rentables del mundo y tienen un valor, en algunos casos, entre 80 y 90 mil millones de dólares. No hay absolutamente ninguna razón de política pública para crear inmunidades legales para tales empresas, que solo enfrentan el requisito razonable de buscar el consentimiento o licencias de los titulares de derechos cuyas obras utilizan para entrenar sus sistemas Gen AI».
  5. «Sería un grave error repetir los errores de política pasados que permitieron a las empresas tecnológicas alcanzar una dominancia de mercado poco saludable, casi de monopolio, hasta el punto de que los gobiernos han luchado por frenar su poder, a pesar de los intentos repetidos de moderar sus tácticas agresivas en el mercado».
  6. «La cuestión de la seguridad nacional es ciertamente motivo de profunda preocupación para todos los ciudadanos estadounidenses, especialmente cuando los actores malintencionados pueden utilizar la IA y los sistemas Gen AI para sembrar desinformación o información falsa que socave nuestras instituciones democráticas y cree otros riesgos para la seguridad nacional. Esta posibilidad señala la necesidad aún mayor de autores y editores que produzcan y difundan contenido de calidad verificado y verificado. Avanzar en la agenda tecnológica y económica de la nación no es un juego de suma cero, y no debería convertirse en una carrera hacia el fondo».
  7. «La transparencia es un requisito esencial. Es de interés público saber qué obras de autor se han ingerido y es una parte esencial de buscar un consentimiento adecuado tener esa información claramente registrada. Este requisito no es oneroso y se presta a una mayor innovación en el campo de las empresas de derechos digitales».
  8. «En ningún caso la Ley de Derechos de Autor permite el acceso no autorizado o la adquisición de obras con derechos de autor. El acceso legal a fuentes autorizadas es importante. No se permite a un ser humano reproducir y descargar ilegalmente 183,000 obras con derechos de autor (el número de títulos infractores estimados en el corpus ‘Books3’) para leer o aprender de ellas».

Ética de la investigación e inteligencia generativa. La responsabilidad de difundir resultados

Ética de la investigación e inteligencia generativa por Julio Alonso Arévalo. CURSO: Competencias digitales y alfabetización académica, nov. 2023

VER VIDEO

En el contexto de la IA, especialmente en la creación de obras generadas automáticamente, surge la cuestión de la atribución y la autoría. La ética de la investigación en este ámbito implica considerar quién debe recibir crédito por las creaciones generadas por algoritmos, si es el desarrollador del algoritmo, el usuario que lo emplea, o el propio algoritmo. Por un lado, los derechos de autor tradicionales están diseñados para proteger la creatividad humana, pero en el caso de obras generadas por IA, la autoría puede ser difusa. Algunos argumentan que los desarrolladores de algoritmos deberían ser reconocidos, mientras que otros abogan por formas innovadoras de atribución. En resumen, la ética de la investigación en inteligencia artificial y derechos de autor implica repensar y adaptar los marcos existentes para abordar de manera justa la creación de obras generadas por IA, garantizando la atribución adecuada y considerando los posibles sesgos en el proceso de desarrollo y entrenamiento de estos sistemas.

La Comisión Federal de Comercio (FTC) de USA hace un comentario a la Oficina de Derechos de autor sobre los posibles perjuicios de la IA para los creadores

Federal Trade Commission. «In Comment Submitted to U.S. Copyright Office, FTC Raises AI-Related Competition and Consumer Protection Issues, Stressing That It Will Use Its Authority to Protect Competition and Consumers in AI Markets», 7 de noviembre de 2023.

Texto


En un comentario presentado ante la Oficina de Derechos de Autor de los Estados Unidos, la Comisión Federal de Comercio identifica varios problemas planteados por el desarrollo e implementación de la Inteligencia Artificial (IA) que implican políticas de competencia y protección al consumidor, señalando el papel de la Comisión en monitorear el impacto de la IA generativa y hacer cumplir vigorosamente la ley según corresponda para proteger la competencia y los consumidores.

«La manera en que las empresas están desarrollando y lanzando herramientas de IA generativa y otros productos de IA… suscita preocupaciones sobre posibles perjuicios a los consumidores, trabajadores y pequeñas empresas», según el comentario. «La FTC ha estado explorando los riesgos asociados con el uso de la IA, incluyendo violaciones a la privacidad de los consumidores, automatización de la discriminación y el sesgo, y el aumento de prácticas engañosas, esquemas de impostores y otros tipos de estafas».

El comentario explica que la FTC tiene un interés en cuestiones relacionadas con los derechos de autor más allá de las preguntas sobre el alcance de los derechos y la extensión de la responsabilidad bajo las leyes de derechos de autor. Por ejemplo, no solo puede perjudicarse de manera injusta la capacidad de los creadores para competir, sino que los consumidores pueden ser engañados cuando la autoría no se alinea con las expectativas del consumidor. Un consumidor puede pensar que una obra ha sido creada por un músico o artista en particular cuando es un producto creado por IA.

«La conducta que pueda violar las leyes de derechos de autor… también puede constituir un método injusto de competencia o una práctica injusta o engañosa, especialmente cuando la violación de derechos de autor engaña a los consumidores, explota la reputación de un creador o disminuye el valor de sus obras existentes o futuras, revela información privada o causa un daño sustancial a los consumidores», continúa el comentario. Además, ciertas grandes empresas tecnológicas tienen vastos recursos financieros que les permiten proteger a los usuarios de sus herramientas de IA generativa o licencias exclusivas de datos propietarios con derechos de autor, potencialmente afianzando aún más el poder de mercado de estas empresas dominantes.

¿Quién posee los derechos de autor de un contenido generado por inteligencia artificial generativa?


La determinación de quién posee los derechos de autor del contenido producido por inteligencia artificial (IA) es un asunto legal de gran complejidad y en constante cambio. Por lo general, las herramientas de IA generativa, como ChatGPT, no pueden ser consideradas autoras en el sentido legal o creativo, ya que no tienen la capacidad de comparecer ante un tribunal en caso de conflictos de intereses entre otras cuestiones.

La cuestión de quién posee los derechos de autor del contenido generado por inteligencia artificial (IA) es un asunto legal complejo y en constante evolución que puede variar según la jurisdicción y depende de las circunstancias específicas.

  1. Autoría: Las leyes de derechos de autor tradicionalmente otorgan derechos de autor al creador o autor humano de una obra. La IA, al ser una máquina, no se considera una persona legal capaz de poseer derechos de autor. Esto ha llevado a debates sobre si el programador humano de la IA o la organización que emplea al programador debería considerarse el autor o propietario del contenido generado por la IA.
  2. Doctrina del «Trabajo por Encargo»: En algunas jurisdicciones, cuando una obra se crea como parte de una relación laboral, el empleador suele considerarse el propietario de los derechos de autor. Si un empleado crea contenido generado por la IA en el ámbito de su empleo, es posible que su empleador tenga un reclamo más fuerte sobre los derechos de autor.
  3. Acuerdos Contractuales: La propiedad del contenido generado por la IA también puede determinarse mediante acuerdos contractuales. Las empresas y programadores pueden especificar la propiedad y los derechos asociados con el contenido generado por la IA en contratos o acuerdos de licencia. Estos contratos pueden anular las reglas de derechos de autor por defecto.
  4. Uso Justo: En algunos casos, el uso de contenido generado por la IA podría considerarse «uso justo» bajo la ley de derechos de autor. El uso justo puede aplicarse en situaciones en las que se utiliza material con derechos de autor con fines como comentario, crítica, informes de noticias, enseñanza o investigación. Sin embargo, el uso justo es una doctrina legal compleja que puede variar según la jurisdicción y depende de los detalles de cada caso.
  5. Transformación y Obras Derivadas: El contenido generado por la IA que se basa en material con derechos de autor existente puede considerarse una obra derivada. Los derechos de autor del material original aún pueden aplicarse en la medida en que sea reconocible en el contenido generado por la IA.
  6. Marco Legal en Evolución: El marco legal que rodea el contenido generado por la IA sigue evolucionando, y algunos países pueden promulgar leyes o regulaciones específicas para abordar estos problemas. Los tribunales y legisladores están considerando activamente las implicaciones de la IA en los derechos de autor y la propiedad intelectual.

A nivel general puede decirse que una inteligencia artificial generativa (IA) en sí misma no puede ser propietaria de los derechos de autor de una obra. Los derechos de autor tradicionalmente se otorgan a autores humanos, y las IA no son consideradas entidades legales con la capacidad de poseer derechos de autor.

Por lo tanto, ChatGPT, como una inteligencia artificial desarrollada por OpenAI, no puede ser considerado un autor en el sentido legal o creativo. Los derechos de autor tradicionalmente se aplican a obras creadas por personas físicas. ChatGPT es una herramienta de procesamiento de lenguaje natural que genera respuestas y texto basados en patrones y datos previamente aprendidos, pero no tiene la capacidad de tener intenciones, creatividad o una voluntad propia. Por lo tanto, cualquier contenido generado por ChatGPT generalmente se atribuiría a los usuarios que lo utilizan o a las organizaciones que lo emplean, y no a la IA en sí misma.

Además, la responsabilidad de citar fuentes recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información específica de fuentes con derechos de autor o utiliza contenido protegido en sus interacciones con ChatGPT, es responsabilidad del usuario garantizar que cumple con las leyes de derechos de autor al citar adecuadamente esas fuentes. La responsabilidad de evitar el plagio recae en los usuarios que interactúan con ChatGPT. Si un usuario proporciona información o ideas específicas de fuentes externas sin citar adecuadamente esas fuentes, eso podría considerarse un acto de plagio por parte del usuario, no de ChatGPT.

Es esencial consultar con expertos legales especializados en derechos de autor o propiedad intelectual para obtener orientación en casos específicos. Las leyes y las interpretaciones pueden haber evolucionado desde mi última actualización en enero de 2022, y diferentes jurisdicciones pueden tener enfoques únicos para este tema.

‘ChatGPT Detector’ detecta documentos generados por IA con una precisión sin precedentes

Prillaman, McKenzie. «‘ChatGPT Detector’ Catches AI-Generated Papers with Unprecedented Accuracy». Nature, 6 de noviembre de 2023. https://doi.org/10.1038/d41586-023-03479-4.

Los grandes modelos lingüísticos como ChatGPT pueden generar textos que parecen auténticos a la velocidad del rayo, si bien, la gran mayoría de editores de revistas rechazan los modelos lingüísticos como autores de manuscritos. Por tanto, se necesita inmediatamente un medio para distinguir con precisión el texto generado por humanos del generado por inteligencia artificial (IA).

Según un estudio publicado el 6 de noviembre en Cell Reports Physical Science, una herramienta de aprendizaje automático puede identificar fácilmente cuándo los documentos de química están escritos utilizando el chatbot ChatGPT. El clasificador especializado, que superó a dos detectores de inteligencia artificial (IA) existentes, podría ayudar a las editoriales académicas a identificar documentos creados por generadores de texto de IA.

Se trata de un detector preciso de texto de IA para revistas científicas probando su capacidad en una serie de situaciones complejas, incluido el texto humano de una amplia variedad de revistas de química, el texto de IA del modelo de lenguaje más avanzado disponible públicamente (GPT-4) y, lo que es más importante, el texto de IA generado mediante mensajes diseñados para ocultar el uso de IA. En todos los casos, los textos humanos y de IA se asignaron con gran precisión. El texto generado por ChatGPT puede detectarse fácilmente en las revistas de química; este avance es un requisito previo fundamental para entender cómo afectará la generación automatizada de texto a las publicaciones científicas de ahora en adelante.

«La mayoría de la comunidad de análisis de texto busca un detector realmente general que funcione en cualquier cosa», dice la coautora Heather Desaire, una química de la Universidad de Kansas en Lawrence. Pero al crear una herramienta que se centra en un tipo específico de documento, «realmente estábamos buscando la precisión».

Los hallazgos sugieren que los esfuerzos para desarrollar detectores de IA podrían mejorar al adaptar el software a tipos específicos de escritura, dice Desaire. «Si puedes construir algo rápidamente y fácilmente, entonces no es tan difícil construir algo para diferentes dominios».

¿Podemos asegurarnos de que los sistemas de detección de la IA generativa sean precisos y justos?:

Statement on Principles for the Development and Use of Systems to Detect Generative AI Content. ACM, oct. 2023

Texto completo

Con el interés público centrado en tecnologías de IA generativa en constante aumento, algunos de los problemas más apremiantes giran en torno a preguntas como «¿Se está utilizando la IA generativa para crear imágenes y videos falsos?» y «¿Los estudiantes están utilizando la IA generativa para escribir trabajos y hacer trampa en los exámenes?» Por estas razones, hay una creciente demanda de sistemas que puedan detectar si una imagen, archivo de audio o trabajo escrito ha sido creado por un humano o un sistema de IA.

A pesar de que los sistemas de detección de IA están comenzando a proliferar, no existen estándares de la industria ni regulaciones gubernamentales que garanticen que estos sistemas sean precisos o justos. Debido a que el impacto de estos sistemas en las personas puede ser significativo, el Association for Computing Machinery’s US Technology Policy Committee (ACM USTPC) ha emitido una Declaración de Principios para el Desarrollo y Uso de Sistemas de Detección de Contenido de IA Generativa.

La introducción a la nueva Declaración de USTPC destaca diversos escenarios en los que sería deseable contar con sistemas para detectar contenido generado por IA. Por ejemplo, los empleadores que desean saber si se utilizó IA generativa para completar una solicitud de trabajo o las empresas de medios que intentan determinar si los comentarios publicados en plataformas fueron dejados por humanos o chatbots.

Al mismo tiempo, la Declaración señala que «la demanda de tales sistemas no es un indicador de su equidad o precisión». El comité continúa explicando que «ninguna tecnología de detección actualmente disponible es lo suficientemente confiable como para basar exclusivamente decisiones críticas, potencialmente alteradoras de la vida y la carrera…»

La declaración proporciona un contexto técnico sobre por qué no se puede garantizar la equidad y precisión de los sistemas de detección de IA generativa existentes y establece seis principios y recomendaciones específicos:

  1. Bajo riesgo de rechazos incorrectos y proceso de apelación impulsado por humanos: El uso de sistemas para detectar imágenes generadas por IA y otros medios que automáticamente marcan las presentaciones para su rechazo solo debe ser aceptable si estos sistemas de detección tienen un riesgo extremadamente bajo de rechazos incorrectos y si se proporciona un proceso de apelación impulsado por humanos.
  2. Presentaciones de alto riesgo: Generalmente no es apropiado rechazar automáticamente presentaciones de texto en circunstancias de alto riesgo que se clasifican como producidas por un sistema de IA generativa, incluso si se proporciona un proceso para apelar dichos rechazos. Ejemplos de presentaciones de alto riesgo incluyen (pero no se limitan a) tareas en el aula y solicitudes de admisión a una institución educativa, crédito o empleo.
  3. Códigos de conducta: Las entidades que utilizan sistemas de detección de IA generativa deben adoptar directrices, como códigos de conducta, manuales del empleado y códigos de honor ejecutables, que requieran que aquellos afiliados a la entidad cumplan con las políticas de IA de la organización.
  4. Impugnación de resultados: De acuerdo con declaraciones anteriores de USTPC, las personas deben tener la oportunidad de impugnar resultados siempre que se tome una decisión adversa sobre ellas, en su totalidad o en parte, basada en la salida de un sistema de IA.
  5. Formación adecuada: Los evaluadores de contenido humano deben recibir una formación adecuada de manera continua sobre los métodos y herramientas adecuados para validar el contenido presentado.
  6. Aumento de la financiación: Sería prudente y beneficioso aumentar la financiación del sector público y privado para la investigación sobre cómo desarrollar mecanismos de detección mejores, realizar análisis de impacto, realizar investigaciones de usuario y otros asuntos relacionados.

En palabras de Simson Garfinkel, autor principal de la declaración y presidente del Subcomité de Gobierno Digital de USTPC: «En principio, detectar texto e imágenes generados por la IA es un problema abierto. Aunque podría ser posible construir un sistema que pueda detectar el contenido generado por la IA de hoy, tal detector podría utilizarse para construir el sistema de generación de IA del mañana que evite dicha detección. Esta declaración se emite para agregar una voz de experiencia técnica al pánico moral sobre el uso de la IA generativa. Estamos diciendo que el texto e imágenes producidos por sistemas de IA generativa no pueden detectarse de manera confiable hoy. También alentamos a todas las instituciones a abstenerse de desplegar sistemas que pretendan detectar y descartar automáticamente materiales porque supuestamente fueron creados por un sistema de IA generativa».

Larry Medsker, presidente del Comité de Política Tecnológica de ACM de los Estados Unidos, agregó: «Esta nueva Declaración es parte de una serie continua que el Comité de Tecnología de ACM de los Estados Unidos publica para informar al público sobre las nuevas tecnologías y sus impactos en la sociedad. Recientemente, hemos estado especialmente activos en brindar aportes oportunos para abordar los nuevos desarrollos en IA». En esta línea, los miembros de USTPC han publicado “Principles for the Development, Deployment and Use of Generative AI” y “Statement on Principles for Responsible Algorithmic Systems.”

Además del autor principal Simson Garfinkel, los principales contribuyentes a la “Statement on Principles for the Development and Use of Systems to Detect Generative AI Content” incluyen a los miembros del comité Houssam Abbas, Andrew Appel, Harish Arunachalam, Ricardo Baeza-Yates, David Bauman, Ravi Jain, Carl Landwehr, Larry Medsker, Neeti Pokhriyal, Arnon Rosenthal y Marc Rotenberg.

Un artículo aprobado y aceptado en una revista de Springer Nature aparece con la frase «Regenerate response» comando de ChatTGPT para reformular los resultados

Joelving, Author Frederik. «Signs of Undeclared ChatGPT Use in Papers Mounting». Retraction Watch (blog), 6 de octubre de 2023. https://retractionwatch.com/2023/10/06/signs-of-undeclared-chatgpt-use-in-papers-mounting/.

La semana pasada, una revista ambiental publicó un artículo sobre el uso de energía renovable en la limpieza de tierras contaminadas, con un costo de acceso de 40 euros, y aparentemente escrito por investigadores chinos. El artículo incluía una frase peculiar, «Regenerate response», lo que planteó dudas sobre la posibilidad de contenido generado por IA. Este incidente destaca una tendencia creciente de uso de IA, en particular ChatGPT, en la investigación sin una debida declaración. El autor del artículo y la persona de contacto de la empresa no respondieron a las solicitudes de comentarios. Springer Nature, el editor, declaró que están investigando cuidadosamente el asunto de acuerdo con las mejores prácticas, pero no pudieron proporcionar más detalles en este momento.

Supuestamente escrito por investigadores en China, «Revitalizing our earth: unleashing the power of green energy in soil remediation for a sustainable future» incluye la frase superflua «Regenerate response» al final de una sección de métodos. Para aquellos que no están familiarizados, «Regenerate response» es un botón en ChatGPT de OpenAI que incita al chatbot a reformular una respuesta insatisfactoria.

«¿Los autores copiaron y pegaron la salida de ChatGPT e incluyeron por error la etiqueta del botón?» se preguntó Guillaume Cabanac, profesor de informática en la Universidad de Toulouse, en Francia, en un comentario en PubPeer..

Y agregó: «¿Cómo es que esta expresión sin sentido sobrevivió a la revisión de pruebas por parte de los coautores, editores, revisores, correctores de estilo y maquetadores?»

Este caso es el ejemplo más reciente de una creciente tendencia de uso descuidado y no declarado de ChatGPT en la investigación. Hasta ahora, Cabanac, cuyo trabajo fue cubierto en Nature el mes pasado, ha publicado más de 30 artículos en PubPeer que contienen esas dos palabras reveladoras y sueltas. Y eso no incluye los artículos que aparecen en revistas depredadoras, dijo el investigador científico a Retraction Watch.

«El software informático se ha utilizado durante décadas para ayudar a los autores», dijo Cabanac. «Solo piensa en Grammarly o DeepL para personas como yo. No soy hablante nativo de inglés, así que voy a WordReference, a veces voy a DeepL. Pero lo que hago es mirar el resultado y corregir los errores».

ChatGPT y otras herramientas que utilizan sistemas de IA conocidos como modelos de lenguaje a gran escala tienden a inventar cosas. Como informamos a principios de este año, ese trabajo independiente puede ser un problema para los investigadores que buscan ayuda para encontrar referencias.

«A veces elabora cosas que no estaban en la mente de los investigadores», dijo Cabanac. «Y ese es el punto de inflexión para mí. Cuando las personas utilizan el sistema para generar algo que no tenían en mente, como fabricar datos, generar texto con referencias a trabajos que ni siquiera leyeron, esto es inaceptable».

Según algunos editores, los chatbots tienen usos legítimos al escribir artículos. La clave es informar a los lectores sobre lo que se hizo.

El autor correspondiente del artículo ambiental, Kangyan Li de ESD China Ltd., no respondió a las solicitudes de comentarios. Tampoco lo hizo una persona de contacto mencionada en el sitio web de su empresa.

Un portavoz de Springer Nature, que publica la revista Environmental Science and Pollution Research en la que apareció el artículo, dijo que el editor estaba «investigando cuidadosamente el problema de acuerdo con las mejores prácticas de COPE» pero no pudo compartir más detalles en este momento.

No está claro cómo los autores, y mucho menos la revista, pudieron pasar por alto la extraña frase. «Tal vez no se trate de los autores, sino de una fábrica de papel», dijo Cabanac, refiriéndose a organizaciones poco fiables que venden espacios de autor en artículos científicos que pueden contener datos falsos.

«Regenerar respuesta» no es la única señal de participación no declarada de un chatbot que ha visto Cabanac. Un ejemplo aún más atroz es la frase «Como modelo lingüístico de IA, yo…«, que ha encontrado en nueve artículos hasta ahora.

A Cabanac le preocupa que un descuido tan flagrante, posiblemente la punta del iceberg, pueda pasar desapercibido tanto para el personal editorial como para los revisores.