Archivo de la etiqueta: Plagio

La IA esta deteriorando la confianza entre profesores y alumnos

El artículo advierte que el uso de IA en las tareas escolares está debilitando la confianza entre estudiantes y profesores, al generar sospechas y dependencia tecnológica. Señala que la clave está en replantear evaluaciones y fomentar un diálogo abierto sobre integridad académica.

Se analiza cómo el uso creciente de herramientas de inteligencia artificial por parte de los estudiantes está afectando de manera significativa la relación de confianza entre alumnos y profesores. La facilidad con la que los estudiantes pueden recurrir a la IA para redactar ensayos, resolver tareas o incluso generar ideas iniciales está transformando las dinámicas del aula. Por un lado, los estudiantes encuentran en estas herramientas una vía rápida para cumplir con las exigencias académicas; por otro, los docentes empiezan a sospechar de la autenticidad de los trabajos presentados. Esta tensión ha dado lugar a un círculo vicioso: los alumnos sienten que los profesores no confían en ellos, y los profesores perciben que los estudiantes no son honestos en su esfuerzo académico.

Esta pérdida de confianza se ve reforzada por el uso de softwares diseñados para detectar textos generados por IA. Si bien estas herramientas prometen garantizar integridad académica, en la práctica son imperfectas y generan errores de diagnóstico. Casos documentados muestran que estudiantes cuya lengua materna no es el inglés han sido señalados erróneamente como usuarios de IA, lo que introduce sesgos culturales y lingüísticos en el proceso de evaluación. Estos fallos no solo afectan la reputación de los alumnos, sino que también aumentan el escepticismo hacia los métodos de control empleados por los profesores. De esta forma, lo que debería ser un recurso para salvaguardar la calidad del aprendizaje termina, en muchos casos, debilitando todavía más la confianza mutua en el aula.

El artículo recoge también testimonios de docentes que perciben un cambio profundo en la motivación de los estudiantes. Liz Shulman, profesora citada en el texto, describe que la relación alumno-profesor ha adoptado un carácter cada vez más “transaccional”: los estudiantes parecen concentrarse únicamente en entregar tareas que cumplan requisitos formales, sin implicarse realmente en el proceso de aprendizaje. Frente a esta situación, algunas instituciones han comenzado a implementar estrategias alternativas para reducir el impacto de la IA en las evaluaciones: trabajos escritos a mano en clase, presentaciones orales, revisiones por etapas o la entrega de borradores parciales. Estas medidas buscan no solo dificultar el uso de la IA como atajo, sino también revalorizar el esfuerzo y la creatividad individuales en el proceso educativo.

Toppo enfatiza, además, que aunque la irrupción de la IA representa un reto novedoso, no es del todo ajeno a los problemas que la educación ya enfrentaba en torno a la integridad académica. Expertos como Tim Gorichanaz recuerdan que la inclinación de algunos estudiantes hacia el plagio o la deshonestidad tiene raíces previas: falta de motivación, presión por las calificaciones y ausencia de conexión con los contenidos. La IA, en este sentido, no ha creado el problema, sino que lo ha amplificado y visibilizado de manera más contundente. Lo que cambia con la IA es la escala y la facilidad con la que los estudiantes pueden optar por delegar en la máquina, lo cual plantea la urgencia de respuestas pedagógicas innovadoras.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

La nueva función de detección de Turnitin ayuda a identificar el uso de herramientas de humanización de IA

Kelly, Rhea. “New Turnitin Bypasser Detection Feature Helps Identify Use of AI Humanizer Tools.” THE Journal, 2 de septiembre de 2025. https://thejournal.com/articles/2025/09/02/new-turnitin-bypasser-detection-feature-helps-identify-use-of-ai-humanizer-tools.aspx

Turnitin lanzó una función para detectar textos modificados por herramientas “humanizadoras” de IA, evitando que los estudiantes oculten contenido generado artificialmente. Esto fortalece la integridad académica al identificar fácilmente el uso indebido de IA en los trabajos.

Turnitin ha ampliado sus capacidades de detección de escritura con inteligencia artificial (IA) mediante la incorporación de una nueva función denominada «detección de bypassers». Esta herramienta está diseñada para identificar textos que han sido modificados por programas conocidos como «humanizadores«, los cuales alteran contenido generado por IA para que parezca escrito por humanos.

La disponibilidad de estos humanizadores representa una amenaza creciente para la integridad académica, ya que permite a los estudiantes ocultar el uso de IA, dificultando la verificación de la originalidad de los trabajos entregados. La nueva función de detección de bypassers se integra dentro de la función general de detección de escritura de Turnitin, permitiendo a los usuarios verificar automáticamente si un texto contiene contenido generado por IA o modificado por humanizadores, todo desde la misma plataforma, sin necesidad de integraciones adicionales o herramientas externas. Actualmente, esta función está limitada a interacciones en inglés.

Annie Chechitelli, directora de productos de Turnitin, destacó que, aunque el plagio siempre ha sido una preocupación para los educadores, con el auge de la IA ha surgido una nueva categoría de proveedores de trampas que se benefician del mal uso de la IA por parte de los estudiantes, proporcionando acceso fácil y gratuito a humanizadores para ocultar contenido generado por IA. En respuesta a este desafío emergente, Turnitin ha actualizado su software para detectar las principales modificaciones realizadas por bypassers de IA, permitiendo a los educadores mantener la integridad académica.

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

¿Es realmente posible detectar con precisión el contenido generado por inteligencia artificial?

Edwards, Benj. “Why AI Detectors Think the US Constitution Was Written by AI.” Ars Technica, 14 de julio de 2023.

Los expertos en inteligencia artificial de la UMD, Soheil Feizi y Furong Huang, comparten sus últimas investigaciones sobre los grandes modelos lingüísticos como ChatGPT, las posibles implicaciones de su uso y lo que nos depara el futuro.

Los detectores actuales se han convertido en herramientas populares en entornos educativos y profesionales, pero la evidencia muestra que su fiabilidad es muy limitada. En muchos casos, un texto auténticamente humano puede ser clasificado como artificial, mientras que uno generado por IA puede pasar inadvertido. Este margen de error refleja que los algoritmos todavía no cuentan con mecanismos suficientemente sólidos para distinguir entre los matices del lenguaje humano y los patrones que produce una máquina.

Una de las principales dificultades radica en que los detectores suelen basarse en métricas lingüísticas como la “perplejidad”, que miden la complejidad o previsibilidad de un texto. Sin embargo, la escritura humana no siempre responde a un mismo patrón: puede ser sencilla o repetitiva, como ocurre en exámenes, informes técnicos o incluso documentos históricos. Este es el motivo por el que se han dado casos llamativos, como el de la Constitución de Estados Unidos, que fue identificada erróneamente como un texto creado por inteligencia artificial. Este tipo de fallos no solo muestran las limitaciones técnicas, sino también los riesgos de utilizar estas herramientas como árbitros definitivos de la autenticidad textual.

El artículo también menciona que las estrategias de detección basadas en marcas de agua digitales, que se presentan como una alternativa, tampoco están libres de problemas. Aunque permiten incrustar señales invisibles en los textos generados por IA para poder rastrearlos, estas señales pueden ser eliminadas o modificadas mediante técnicas de reescritura o edición, lo que vuelve a poner en entredicho la seguridad del sistema. Así, tanto los detectores tradicionales como las técnicas más recientes pueden ser engañados con relativa facilidad.

A pesar de estas limitaciones, hay un horizonte de mejora. Investigadores apuntan que la fiabilidad de los detectores podría aumentar si se entrenan con más datos de referencia de escritura humana y si, en lugar de analizar frases o fragmentos cortos, se valoran textos completos en los que se puedan identificar patrones más amplios. De este modo, aunque hoy la detección de IA se perciba como una tarea frágil y llena de falsos positivos, aún existe la posibilidad de desarrollar métodos más precisos y robustos que permitan distinguir con mayor seguridad entre lo humano y lo artificial.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. «Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.» International Journal for Educational Integrity 19, artículo 17 (2023). https://doi.org/10.1007/s40979-023-00140-5.

Se evalúa la eficacia de diversas herramientas de detección de contenido generado por inteligencia artificial (IA), como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, para diferenciar entre textos escritos por humanos y generados por IA.

Para la investigación, se generaron 15 párrafos con el modelo ChatGPT 3.5, 15 con el modelo 4 y 5 respuestas de control escritas por humanos, todas sobre el tema de torres de enfriamiento en procesos de ingeniería. Las herramientas evaluadas incluyeron OpenAI, Writer, Copyleaks, GPTZero y CrossPlag.

Los resultados indicaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT-3.5 que por GPT-4. Sin embargo, al aplicarlas a las respuestas de control escritas por humanos, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Estos hallazgos subrayan la necesidad de desarrollar y perfeccionar las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve más sofisticado y difícil de distinguir del texto escrito por humanos.

Aunque las herramientas de detección de IA ofrecen una funcionalidad valiosa, su fiabilidad y precisión actuales son limitadas. Es crucial abordar estos desafíos para garantizar una evaluación justa y precisa en diversos contextos académicos y profesionales.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

La IA en las publicaciones académicas: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación

Gao, Wenli, Guoying Liu, Michael Bailou Huang, y Hong Yao. “AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and Policies.” International Journal of Librarianship 10, no. 2 (2025): 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se examina cómo las revistas de biblioteconomía e información científica (LIS) han adoptado y regulado el uso de la inteligencia artificial generativa, especialmente herramientas como ChatGPT, dentro del contexto de la publicación académica

En primer lugar, los autores describen numerosos beneficios potenciales de ChatGPT para el ámbito editorial: facilita a los autores la redacción, puede asistir en la generación de resúmenes, sintetizar información compleja y, en general, optimizar varios aspectos del proceso de publicación. No obstante, advierten que esta tecnología representa una innovación disruptiva que podría transformar profundamente la academia y la comunicación científica.

A pesar de sus ventajas, el artículo destaca importantes desafíos éticos. Una de las principales preocupaciones es la autoría: el uso de ChatGPT genera dudas sobre quién es realmente el autor del contenido —el humano que lo solicitó o la IA que lo generó— y sobre cómo atribuir correctamente el crédito. demás, señalan problemas relacionados con el derecho de autor: el modelo puede usar contenido protegido sin citar adecuadamente, ya sea en forma de citas, datos, ideas, métodos o gráficos, lo que podría derivar en plagio, incluso cuando el texto se paraprasea.

Frente a estos retos, los autores argumentan que es fundamental evaluar el nivel de transparencia con que se está integrando la IA generativa en las prácticas editoriales. Recomiendan que las revistas establezcan políticas claras que regulen su uso, especialmente en lo referido a atribución, transparencia y salvaguarda de la originalidad del trabajo científico.

Los detectores de escritura realizada por IA actuales no son fiables en escenarios prácticos

Sadasivan, Vinu Sankar, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, y Soheil Feizi. “Can AI-Generated Text be Reliably Detected?arXiv, marzo 17, 2023. https://doi.org/10.48550/arXiv.2303.11156

Investigadores de la Universidad de Maryland, liderados por Soheil Feizi, profesor asistente de informática, han evaluado la fiabilidad de los detectores de contenido generado por inteligencia artificial (IA). Su conclusión es clara: los detectores actuales no son fiables en escenarios prácticos. Feizi señala que herramientas comunes como paráfrasis pueden reducir la precisión de detección a niveles similares a una simple moneda al aire.

Feizi distingue dos tipos de errores de detección: tipo I, cuando un texto humano es marcado como generado por IA, y tipo II, cuando un texto de IA pasa como humano. Ambos presentan graves implicaciones, especialmente en contextos académicos y editoriales, donde errores pueden arruinar reputaciones y ser extremadamente difíciles de refutar.

Adicionalmente, incluso los métodos basados en marcas digitales (watermarking), teóricamente diseñados para identificar contenido de IA, pueden ser vulnerables a ataques de suplantación. El investigador advierte que dichas fallas podrían socavar la credibilidad de los mecanismos de autenticación digital.

Soheil Feizi explica que, en la práctica, dada la semejanza en la distribución de estilos entre textos humanos y generados por IA —y la sofisticación creciente de las técnicas de engaño—, es “teóricamente imposible” distinguir con certeza absoluta el origen de un texto.

Por otro lado, Furong Huang, también profesora asistente en la Universidad de Maryland, adopta una posición más optimista. Ella sostiene que los modelos de detección podrían mejorar si se dispone de una gran cantidad de ejemplos genuinos de escritura humana para su entrenamiento. Es decir, la clave para refinar estas herramientas sería el acceso a más y mejores datos.

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada