Archivo de la etiqueta: Ética de la información

Aprendizaje con IA: Una recopilación de artículos escritos por estudiantes

University of Leeds Libraries. “New Student-Led Open Education Resource Showcases Student Voices on AI.” Leeds University Libraries Blog, September 9, 2025.

PDF

EPUB

Los textos relatan experiencias reales de uso de inteligencia artificial generativa (GenAI) en el estudio, abarcando cómo dicha tecnología puede facilitar la comprensión, fomentar la creatividad y la confianza, así como apoyar un aprendizaje más personalizado y accesible

Un tema resaltado en las aportaciones de los estudiantes es la conciencia ética: muchos reflexionan sobre el uso responsable de la IA, los límites apropiados, las implicaciones de integridad académica, y cómo evitar depender demasiado de la tecnología sin comprensión crítica.

Los casos incluyen ejemplos de usos diversos: desde herramientas que ayudan a estructurar ideas o investigar, hasta aplicaciones que permiten adaptaciones para quienes tienen necesidades de aprendizaje distintas.

El recurso ha sido desarrollado como parte de la iniciativa University of Leeds Open Books, usando la plataforma Pressbooks. Está licenciado de forma abierta (“open license”) y está disponible libremente para que cualquiera lo lea, lo use y lo adapte. Además, se plantea como un “libro vivo”: se aceptan nuevas contribuciones hasta el 1 de noviembre de 2025, y todas las aportaciones pasan por un proceso de revisión por pares gestionado por el equipo editorial estudiantil.

El proyecto cuenta con el apoyo institucional de varias áreas de la universidad: la Escuela de Educación, las Bibliotecas, el Servicio de Educación Digital, Desarrollo Organizacional y Profesional, Curriculum Redefined, el Leeds Institute for Teaching Excellence (LITE), y la Knowledge Equity Network. También hay patrocinio de altos cargos universitarios implicados en educación y experiencia estudiantil, lo que indica un compromiso institucionalidad con la calidad educativa, la equidad y la innovación pedagógica.

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.

El auge alarmante de los artículos científicos fraudulentos

Fraudulent Scientific Papers Are Booming.” The Economist, 6 de agosto de 2025. https://www.economist.com/science-and-technology/2025/08/06/fraudulent-scientific-papers-are-booming

Se analiza un problema creciente y alarmante en la ciencia: el aumento exponencial de artículos científicos fraudulentos. Mientras que el número total de publicaciones científicas se duplica aproximadamente cada quince años, el número estimado de artículos fraudulentos se duplica cada año y medio, lo que indica un ritmo mucho más acelerado de expansión de la falsedad en la literatura académica. Esta tendencia sugiere que, si continúa, los estudios fraudulentos podrían llegar a representar una proporción significativa del conocimiento científico disponible.

Uno de los factores clave detrás de este fenómeno son los llamados «paper mills», organizaciones que venden artículos ya redactados o fabricados, muchas veces con datos falsos, imágenes manipuladas o plagios. A cambio, los científicos obtienen autorías o citas sin esfuerzo real. Estas redes operan con una sofisticación sorprendente, casi como mafias, e involucran a editores corruptos, intermediarios y revistas vulnerables. Solo un pequeño número de individuos en posiciones editoriales puede facilitar la publicación masiva de estudios falsos, lo que multiplica la propagación del fraude.

El sistema editorial, tal como está estructurado, muestra vulnerabilidades importantes. Los intentos de combatir la difusión de artículos fraudulentos, como retirar revistas de bases de datos académicas o deindexarlas, han sido insuficientes. La proliferación de estudios falsos distorsiona campos enteros, dificulta los procesos de revisión y pone en riesgo los meta-análisis que guían prácticas médicas y científicas. Esto erosiona la confianza tanto dentro de la comunidad científica como en el público general, amenazando la credibilidad del método científico y sus aplicaciones.

Para llegar a su conclusión, los autores buscaron artículos publicados en PLOS ONE, una revista importante y generalmente reconocida que identifica cuál de sus 18.329 editores es responsable de cada artículo. (La mayoría de los editores son académicos que realizan la revisión por pares durante toda su investigación). Desde 2006, la revista ha publicado 276.956 artículos, 702 de los cuales fueron retractados y 2.241 recibieron comentarios en PubPeer, un sitio web que permite a otros académicos y a investigadores en línea plantear inquietudes.

El artículo también hace un llamado urgente a reforzar la integridad académica. Aunque existen herramientas para contrarrestar la amenaza —como retractaciones, exclusión de autores o instituciones, y revisiones de indexación en bases académicas—, las medidas actuales no son suficientes frente al crecimiento desenfrenado del fraude. De no implementarse estrategias más rigurosas y coordinadas, advierten los expertos, la propia ciencia podría verse comprometida.

Para preservar la credibilidad y la utilidad del conocimiento científico, será crucial que las instituciones académicas, las publicaciones y los evaluadores actúen de manera decidida y coordinada, reformando incentivos y fortaleciendo los mecanismos de control y verificación.

Contenido generado por IA está contaminando los servidores de preprints

Watson, Traci. «AI content is tainting preprints: how moderators are fighting backNature, 12 de agosto de 2025. https://doi.org/10.1038/d41586-025-02469-y.

Diversos servidores de preprints —como PsyArXiv, arXiv, bioRxiv y medRxiv— están detectando un aumento en el número de manuscritos que parecen haber sido generados o asistidos por inteligencia artificial o incluso por fábricas de artículos («paper mills»). Este comportamiento plantea serias dudas sobre la integridad de la ciencia abierta y la velocidad de publicación sin control.

Un caso emblemático involucró un manuscrito titulado “Self-Experimental Report: Emergence of Generative AI Interfaces in Dream States” publicado en PsyArXiv. El estilo estrambótico del contenido, la falta de afiliación del autor y la ausencia de detalles claros sobre el uso de IA llevaron a una alerta lanzada por la psicóloga Olivia Kirtley, quien luego solicitó su eliminación. Aunque el autor afirmó que la IA solo tuvo un papel limitado (como cálculo simbólico y verificación de fórmulas), no lo declaró explícitamente, lo que violó las normas del servidor.

En el servidor arXiv, los moderadores estiman que aproximadamente un 2 % de las presentaciones son rechazadas por tener indicios de IA o ser elaboradas por paper mills.

En bioRxiv y medRxiv, se rechazan más de diez manuscritos al día que resultan sospechosos de ser generados de forma automatizada, dentro de un promedio de 7.000 envíos mensuales

Los servidores de preprints reconocen un incremento reciente en contenido generado por IA, especialmente tras el lanzamiento de herramientas como ChatGPT en 2022. Esto ha generado una crisis creciente en apenas los últimos meses. El Centro para la Ciencia Abierta (Center for Open Science), responsable de PsyArXiv, expresó públicamente su preocupación por esta tendencia.

Un estudio publicado la semana pasada en Nature Human Behavior estima que, en septiembre de 2024, casi dos años después del lanzamiento de ChatGPT, los LLM produjeron el 22 % del contenido de los resúmenes de informática publicados en arXiv y aproximadamente el 10 % del texto de los resúmenes de biología publicados en bioRxiv. En comparación, un análisis de los resúmenes biomédicos publicados en revistas en 2024 reveló que el 14 % contenía texto generado por LLM en sus resúmenes. (imagen de arriba)

Sin embargo, aplicar filtros más rigurosos para detectar contenido automatizado presenta desafíos: requiere recursos adicionales, puede ralentizar el proceso de publicación y genera dilemas sobre qué contenidos aceptar o rechazar sin convertirse en un sistema excesivamente burocrático

La proliferación de contenido no fiable amenaza con erosionar la credibilidad de la ciencia de los repositorios de preprints, que juegan un papel cada vez más relevante en la difusión rápida de descubrimientos. Se vuelve clave que los servicios de preprints implementen mecanismos de detección más sofisticados, promuevan la transparencia respecto al uso de IA en la redacción y mantengan un equilibrio entre agilidad de publicación y rigor científico.

La manipulación de chatbots puede multiplicar por 12 la exposición de información privada

Zhan, Xiao; Carrillo, Juan-Carlos; Seymour, William; y Such, José. 2025. “Malicious LLM-Based Conversational AI Makes Users Reveal Personal Information.” En Proceedings of the 34th USENIX Security Symposium, USENIX Association.

Texto completo

Un estudio reciente de King’s College London ha puesto de relieve la vulnerabilidad de los chatbots de inteligencia artificial (IA) con apariencia conversacional humana, utilizados por millones de personas en su vida diaria. La investigación demuestra que estos sistemas pueden ser manipulados con relativa facilidad para conseguir que los usuarios revelen mucha más información personal de la que compartirían en un contexto habitual.

Los resultados son especialmente llamativos: cuando los chatbots son diseñados o modificados con intenciones maliciosas, los usuarios llegan a proporcionar hasta 12,5 veces más datos privados que en interacciones normales. Este incremento se logra mediante la combinación de técnicas de ingeniería de prompts —instrucciones específicas que orientan el comportamiento del modelo— y estrategias psicológicas bien conocidas, como la creación de confianza, la apelación emocional o el uso de preguntas aparentemente inocentes que llevan a respuestas más profundas de lo esperado.

El estudio recalca además que no es necesario poseer una alta especialización técnica para lograr esta manipulación. Dado que muchas compañías permiten el acceso a los modelos base que sustentan a sus chatbots, cualquier persona con conocimientos mínimos puede ajustar parámetros y configuraciones para orientar la conversación hacia la obtención de datos sensibles, lo que multiplica el riesgo de un uso indebido.

Las implicaciones son serias. El trabajo de King’s College London alerta sobre la fragilidad de la privacidad en entornos digitales donde la interacción con chatbots se percibe como inofensiva y rutinaria. En contextos como la atención al cliente, el asesoramiento médico o financiero, o incluso el acompañamiento emocional, la posibilidad de que un chatbot manipulado extraiga información confidencial plantea amenazas directas a la seguridad de las personas y a la protección de sus datos.

Ante este escenario, los investigadores subrayan la urgente necesidad de reforzar las medidas de seguridad y protección de datos en los sistemas de IA conversacional. Proponen, entre otras acciones:

  • Desarrollar protocolos de verificación más estrictos sobre el acceso y modificación de modelos base.
  • Implementar mecanismos de detección de manipulación en los propios chatbots.
  • Fomentar la educación digital de los usuarios, para que reconozcan patrones de conversación sospechosos.
  • Establecer regulaciones claras y exigentes que limiten el mal uso de estos sistemas.

En definitiva, el estudio concluye que, aunque los chatbots de IA tienen un enorme potencial para mejorar la interacción humano-máquina, su diseño y despliegue deben ir acompañados de fuertes garantías éticas y técnicas, de lo contrario podrían convertirse en herramientas de explotación de la privacidad a gran escala.

La inteligencia artificial en la publicación académica: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación


Gao, W., Liu, G., Huang, M. B., & Yao, H. (2025). AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and PoliciesInternational Journal of Librarianship10(2), 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se investiga el panorama actual de las directrices y políticas relacionadas con el uso de inteligencia artificial generativa en revistas del ámbito de la Bibliotecología y Ciencias de la Información (LIS).

En un contexto en el que herramientas como ChatGPT se han popularizado para realizar tareas como corrección gramatical, análisis estadístico o redacción de manuscritos, los autores destacan preocupaciones éticas sobre autoría, derecho de autor, reproducibilidad y transparencia en la investigación

Mediante un enfoque metodológico descriptivo, se revisaron las normas editoriales de un conjunto de revistas LIS seleccionadas a partir de la lista de Nixon y se aplicaron estadísticas básicas para comparar revistas con y sin políticas explícitas sobre IA generativa.

Los resultados revelan que, de las 45 revistas estudiadas, 31 (69 %) incluyen algún tipo de declaración sobre el uso de IA en sus directrices. La mayoría exige a los autores declarar el uso de estas herramientas, y algunas (16) extienden regulaciones también a editores y revisores, incluyendo prohibiciones como el uso de manuscritos en sistemas de IA externos.

Además, se observa una carencia notable de tales políticas en revistas de acceso abierto, lo que plantea riesgos en cuanto a la calidad editorial y la proliferación de prácticas predatorias. Los autores concluyen subrayando la necesidad de estandarizar las declaraciones sobre el uso de IA generativa para fortalecer la integridad del proceso de publicación académica.

Diseño de IA ética para estudiantes: manual de IA generativa para la educación primaria y secundaria

AI Advisory Boards. “Designing Ethical AI for Learners- Generative AI Playbook for K-12 Education (Quill).” AI Advisory Boards (blog), 28 de abril de 2025.

Texto completo

Quill.org ha elaborado un «playbook» práctico y fundamentado en la investigación para diseñar inteligencia artificial (IA) ética en entornos educativos K-12. Basado en más de seis años de experiencia y utilizado por más de diez millones de estudiantes, especialmente en escuelas con menos recursos, su enfoque demuestra que la IA puede reflejar el juicio de educadores expertos si se implementa de manera adecuada

El playbook se estructura en cuatro pasos fundamentales: primero, realizar investigación antes de escribir código, definiendo con claridad lo que significa un aprendizaje exitoso en cada contexto; segundo, crear datasets propios con entre 50 y 100 respuestas reales de estudiantes acompañadas de retroalimentación docente de alta calidad; tercero, evaluar la IA de forma temprana y continua, revisando manualmente más de 100,000 respuestas al año y aplicando pruebas A/B; y cuarto, crear un consejo asesor docente –el Teacher Advisory Council– compuesto por más de 300 profesores que revisan y prueban cada actividad en múltiples ciclos antes de su lanzamiento.

Además, el enfoque se basa en tres principios clave para que la retroalimentación de la IA sea efectiva: diseñar prompts textuales que fomenten respuestas fundamentadas; definir respuestas ejemplares mediante criterios claros y revisión de numerosos ejemplos; y ofrecer retroalimentación constructiva y accionable que promueva la revisión y el crecimiento del estudiante, sin sustituir al docente.

Este playbook invita a educadores y desarrolladores de tecnología educativa a adoptar un proceso ético, colaborativo, riguroso y centrado en la pedagogía, asegurando que la IA actúe como un verdadero aliado en el aprendizaje.

La ética es la ventaja: el futuro de la IA en la educación superior

Georgieva, Maya y John Stuart. 2025. “ Ethics Is the Edge: The Future of AI in Higher Education ”. EDUCAUSE Review , 24 de junio de 2025. Consultado el 28 de julio de 2025. https://er.educause.edu/articles/2025/6/ethics-is-the-edge-the-future-of-ai-in-higher-education

El informe aborda el papel transformador de la inteligencia artificial (IA) en el ámbito universitario, señalando que su adopción ya no es el futuro, sino una realidad actual que impulsa cambios en la enseñanza, la investigación, la evaluación y los procesos institucionales

Los autores presentan un marco fundamental basado en ocho principios éticos (inspirados en los valores del Belmont Report de 1979) destinados a guiar la implementación responsable de IA en la educación superior. Este marco subraya la necesidad de gobernanza institucional, transparencia, equidad, responsabilidad y alineación con los valores académicos fundamentales

Asimismo, advierten sobre la adopción reactiva y fragmentada de tecnologías impulsada por presiones del mercado, lo que puede resultar en decisiones automatizadas sesgadas, falta de rendición de cuentas y erosión de relaciones educativas. Por eso instan a las universidades a asumir un liderazgo ético desde el diseño y no desde la mera oferta tecnológica.

Finalmente, el texto sostiene que la innovación genuina no depende únicamente de funcionalidades técnicas, sino del compromiso institucional con valores académicos, que deben reflejarse en políticas claras y estructuras de gobernanza que promuevan confianza, equidad y efectividad en el uso de la IA

Uso responsable de la IA en contextos académicos: Integración de recursos múltiples con sentido ético

MoxieLearn. “Clarifying AI Use in Academia: How to Create Use Cases That Call upon the Strengths of Multiple AI Resources.MoxieLearn Blog, publicado hace aproximadamente 1 año. https://moxielearn.ai/blog/clarifying-ai-use-in-academia-how-to-create-use-cases-that-call-upon-the‑strengths‑of‑multiple‑ai‑resources

Se ofrece una guía completa para el uso eficaz de herramientas de inteligencia artificial en contextos académicos, especialmente en investigación y escritura. El autor enfatiza que, en lugar de depender de una sola herramienta, los investigadores deberían combinar múltiples modelos de IA, aprovechando las fortalezas específicas de cada uno para enriquecer sus proyectos.

En primer lugar, se propone una metodología estructurada por fases que incluye: (1) definir claramente los objetivos académicos, (2) mapear las capacidades de diferentes plataformas de IA (por ejemplo, GPT para redacción, BERT para análisis de texto, modelos especializados para revisión de datos), y (3) construir un flujo de trabajo integrado. Este sistema permite, por ejemplo, que mientras un modelo genere borradores de literatura, otro se encargue del análisis temático y un tercero optimice la calidad lingüística del texto.

Gran parte del trabajo como adoptantes tempranos de la inteligencia artificial en el ámbito académico se enfoca en aclarar cómo puede utilizarse esta tecnología de manera ética y responsable. Una y otra vez se insiste en la importancia de desarrollar tres dimensiones fundamentales de la alfabetización en IA: funcional, crítica y retórica. Estas dimensiones constituyen los pilares sobre los que se construyen los casos de uso efectivos de la IA. El marco conceptual de alfabetización en IA de Moxie se basa en el trabajo de Selber (2004), Multiliteracies for a Digital Age.

El autor también resalta la importancia de considerar aspectos como la transparencia en el uso de IA, la ética en la investigación y el control humano en la revisión final. Enfatiza que la IA debe ser vista como una colaboradora asistida que requiere supervisión, especialmente para evitar sesgos, errores factuales o problemas de integridad académica.

Así, el enfoque planteado fomenta un uso estratégico y complementario de múltiples herramientas de IA, potenciando áreas en las que cada modelo destaca —desde generación de ideas y revisión literaria hasta análisis de datos y corrección de estilo—, lo que redunda en procesos más eficientes y robustos.

Finalmente, el autor anima a la comunidad académica a documentar sus casos de uso, compartir experiencias y definir buenas prácticas para el uso interdisciplinario de IA, con el fin de crear una cultura colaborativa y reflexiva sobre cómo estas tecnologías pueden fortalecer la investigación científica de forma responsable.

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .