Archivo de la etiqueta: ai

SocArXiv establece una política para regular el uso de inteligencia artificial en su repositorio

Cohen, Philip N. “SocArXiv Releases AI Policy.” SocOpen: Home of SocArXiv, 9 de marzo de 2026. https://socopen.org/2026/03/09/socarxiv-releases-ai-policy/

SocArXiv releases AI policy

El repositorio abierto SocArXiv, dedicado a la difusión de preprints en ciencias sociales, ha publicado una nueva política sobre el uso de inteligencia artificial (IA) con el objetivo de preservar la calidad del conocimiento académico y garantizar la fiabilidad del ecosistema de investigación. La iniciativa surge en un contexto marcado por el rápido crecimiento de herramientas generativas y por el aumento de envíos de artículos que incorporan contenido producido por modelos de lenguaje. La política pretende establecer criterios claros que permitan diferenciar entre el uso legítimo de herramientas de asistencia automatizada y la producción de trabajos generados mayoritariamente por IA que no cumplen estándares académicos.

El documento parte de una preocupación central: proteger lo que sus responsables denominan el “bien común epistémico” de la investigación científica. Según el repositorio, la proliferación de textos generados automáticamente —muchos de ellos de baja calidad o incluso fraudulentos— amenaza con diluir el valor de las publicaciones académicas. En un entorno como el de los servidores de preprints, donde los artículos se difunden sin revisión por pares formal, el riesgo es mayor, ya que estos documentos pueden adquirir apariencia de legitimidad académica al recibir identificadores persistentes o integrarse en sistemas de citación. Por ello, SocArXiv considera necesario introducir reglas que ayuden a filtrar contenidos problemáticos sin comprometer el carácter abierto de la plataforma.

La política también responde a problemas operativos derivados del aumento de envíos. El repositorio experimentó un crecimiento significativo en el número de artículos depositados, acompañado de un incremento de trabajos generados parcial o totalmente mediante sistemas de inteligencia artificial. Esta situación provocó un aumento de la carga de trabajo para los moderadores voluntarios encargados de revisar las propuestas antes de su publicación. Como medida previa a la política definitiva, en noviembre de 2025 se decidió suspender temporalmente la recepción de artículos centrados en modelos de IA o en el desarrollo técnico de estas tecnologías, con el fin de aliviar la presión sobre el sistema y elaborar una normativa clara.

El nuevo marco normativo establece que el uso de herramientas de inteligencia artificial puede ser aceptable en determinadas circunstancias, siempre que se declare de forma transparente y exista supervisión humana. Entre los usos considerados legítimos se encuentran tareas como la traducción automática, la ayuda en búsquedas bibliográficas, la organización de ideas, la corrección lingüística, el formateo de textos o ciertos procesos de análisis asistido por máquinas. En estos casos, los autores deben documentar claramente cómo se ha utilizado la herramienta y garantizar que el contenido final ha sido revisado críticamente por investigadores humanos. La transparencia en la declaración del uso de IA se convierte así en un requisito fundamental para la aceptación de los trabajos.

En contraste, la política define también usos explícitamente prohibidos. Entre ellos se incluye la generación automática de párrafos completos o secciones enteras del artículo sin supervisión adecuada, la creación de datos ficticios mediante modelos generativos, la invención de fuentes o referencias inexistentes, y la presentación de sistemas de IA como si fueran coautores humanos o interlocutores en procesos de investigación. Igualmente se rechazan los trabajos producidos íntegramente por sistemas generativos sin aportación sustancial de investigación humana. Estas prácticas son consideradas incompatibles con los estándares de integridad académica y constituyen motivo de rechazo inmediato.

Otro aspecto relevante de la política es que no pretende prohibir la inteligencia artificial en la investigación, sino establecer límites razonables para su uso. Los responsables del repositorio reconocen que los modelos de lenguaje y otras herramientas automatizadas están cada vez más integrados en los procesos de investigación, desde la traducción hasta el análisis de datos. Por ello, el objetivo no es iniciar una “carrera armamentística” para detectar automáticamente contenidos generados por IA, algo que consideran difícil de sostener técnicamente, sino crear normas simples y aplicables que fomenten comportamientos responsables por parte de los investigadores.

La política también pretende ofrecer orientación a los autores sobre dónde publicar determinados tipos de trabajos. SocArXiv se concibe principalmente como un repositorio para investigación en ciencias sociales, no como un espacio dedicado al desarrollo técnico de sistemas de inteligencia artificial. Por ello, algunos trabajos centrados en la creación o experimentación con modelos de IA pueden encontrar un encaje más adecuado en otros repositorios especializados. Esta delimitación temática busca mantener la coherencia disciplinar del repositorio y evitar que se convierta

Wiley defiende los derechos de autor frente al uso no autorizado de contenidos en la inteligencia artificial

Wiley. 2025. Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. May 7, 2025. https://www.wiley.com/en-us/position-statement-ai-scraping

En su declaración oficial, Wiley —una de las editoriales académicas más antiguas y reconocidas del mundo— reafirma su postura firme en defensa de los derechos de propiedad intelectual ante el creciente uso de contenidos protegidos en el entrenamiento de modelos de inteligencia artificial. Subraya que la innovación tecnológica debe avanzar de la mano de prácticas éticas y legales, especialmente en lo que respecta al uso de obras creadas por autores, investigadores y comunidades académicas.

Wiley comienza recordando su compromiso histórico con la creación y difusión del conocimiento, destacando que este progreso solo es posible si se respeta el trabajo intelectual de quienes generan contenidos. Reconoce el valor transformador de la inteligencia artificial para la investigación y el descubrimiento, pero advierte que dicho avance debe asentarse sobre una base de respeto a los derechos de autor, atribución adecuada y compensación justa.

En este sentido, la editorial exige que los desarrolladores de IA soliciten autorización expresa antes de utilizar materiales de su propiedad o publicados en colaboración con sus socios. Wiley deja claro que no existe ningún tipo de permiso implícito, y que todos los derechos están reservados, salvo que se obtenga una licencia formal.

Además, se insiste en que la atribución transparente y la trazabilidad del origen de los datos son principios clave del desarrollo ético de IA. Wiley ha desarrollado marcos de licenciamiento flexibles y adaptables, que permiten a los desarrolladores acceder de forma legal a contenidos protegidos, en función de sus necesidades específicas.

El comunicado también subraya que ya existen numerosos acuerdos exitosos entre editoriales científicas (STM y comerciales) y empresas de IA, incluidos acuerdos firmados por la propia Wiley. Estos pactos demuestran que el mercado de licencias de contenidos para IA no solo es viable, sino que ya está en funcionamiento.

Más allá del aspecto legal, Wiley resalta el valor de establecer colaboraciones activas con la comunidad de desarrolladores de IA para promover estándares compartidos que incluyan transparencia, citación adecuada, atribución y procedencia de los datos. Esto no solo garantiza el respeto por los creadores, sino que también contribuye a generar confianza entre los usuarios de sistemas de IA.

En conclusión, Wiley aboga por un ecosistema sostenible donde la tecnología y la creatividad humana coexistan armónicamente. La editorial invita a autores, investigadores, desarrolladores éticos de IA y otras editoriales a participar activamente en la construcción de un marco de innovación responsable, donde los derechos de los creadores sean preservados y reconocidos como base de cualquier avance significativo en el campo de la inteligencia artificial.