Archivo de la categoría: Investigación

Acelerando la investigación cualitativa con inteligencia artificial

Acelerando la investigación cualitativa con inteligencia artificial. 2024. Lima: Lidera. ´

Acceso al documento

El informe presenta la inteligencia artificial como un aliado estratégico para la investigación cualitativa, capaz de acelerar procesos, mejorar la eficiencia y abrir nuevas posibilidades analíticas. Sin embargo, insiste en que su implementación debe ser crítica, ética y consciente de sus limitaciones. La IA no sustituye la interpretación humana, sino que la potencia, siempre que el investigador mantenga el control sobre el proceso y preserve el objetivo fundamental de comprender en profundidad la complejidad de la experiencia humana.

El documento analiza el impacto de la inteligencia artificial (IA) en la investigación cualitativa, destacando su papel como herramienta transformadora que no sustituye al investigador, sino que amplifica sus capacidades. La IA permite automatizar tareas repetitivas y laboriosas, como la transcripción de entrevistas o el procesamiento inicial de datos, lo que libera tiempo para que los investigadores se concentren en la interpretación profunda y el análisis crítico. Esta complementariedad humano-máquina constituye uno de los ejes centrales del texto, subrayando que el valor de la investigación cualitativa sigue residiendo en la capacidad humana para comprender significados y contextos.

Uno de los principales aportes del informe es la identificación de áreas concretas en las que la IA acelera el proceso investigador. Entre ellas destacan la transcripción automatizada de entrevistas, el análisis de grandes volúmenes de datos textuales y la detección de patrones o temas emergentes. Estas capacidades no solo incrementan la eficiencia, sino que también permiten ampliar la escala de los estudios cualitativos, tradicionalmente limitados por el tiempo y los recursos disponibles. Además, la IA introduce nuevas perspectivas analíticas al facilitar enfoques más sistemáticos y consistentes en el tratamiento de los datos.

El texto también enfatiza los beneficios derivados del uso de la IA, como la mejora en la consistencia metodológica, el aumento del rigor analítico y la posibilidad de explorar información de manera más exhaustiva. Al automatizar procesos, se reduce el riesgo de errores humanos en tareas mecánicas y se favorece una mayor homogeneidad en el análisis. Sin embargo, estos avances no eliminan la necesidad de supervisión humana; al contrario, refuerzan la importancia del criterio investigador para validar resultados y contextualizar hallazgos.

No obstante, el documento advierte sobre una serie de desafíos y consideraciones éticas asociados al uso de la IA. Entre ellos se encuentran el sesgo algorítmico, que puede reproducir o amplificar prejuicios presentes en los datos; la posible pérdida de matices en la interpretación; y los riesgos relacionados con la privacidad y la seguridad de la información. Asimismo, se señala el peligro de una dependencia excesiva de estas herramientas, lo que podría debilitar la capacidad crítica del investigador si no se mantiene un uso reflexivo y controlado.

Introducción al análisis de datos cualitativos con inteligencia artificial: guía práctica para usar ChatGPT en la investigación social y educativa

Manuel Etesse. Introducción al análisis de datos cualitativos con inteligencia artificial: guía práctica para usar ChatGPT en la investigación social y educativa. Lima: Pontificia Universidad Católica del Perú, 2024.

Texto completo

La obra constituye una guía práctica orientada a investigadores del ámbito social y educativo que desean incorporar herramientas de inteligencia artificial, especialmente ChatGPT, en el análisis de datos cualitativos.

El texto parte de una premisa clara: la IA no sustituye el trabajo del investigador, sino que actúa como un apoyo técnico que permite optimizar tareas complejas como la organización, codificación e interpretación de grandes volúmenes de información textual. En este sentido, el manual combina fundamentos metodológicos con aplicaciones concretas, facilitando la integración de estas tecnologías en procesos de investigación rigurosos.

Uno de los ejes centrales del libro es la propuesta de un marco metodológico estructurado que organiza el análisis cualitativo en fases como la anotación, exploración y codificación de datos. A través de estrategias como el modelo AEXCO, el autor muestra cómo utilizar la IA para identificar patrones, extraer citas relevantes de entrevistas y sintetizar información compleja. Además, introduce procedimientos específicos —como el entrenamiento “cori-f”— que permiten configurar el comportamiento de la herramienta para obtener respuestas alineadas con los objetivos de investigación, destacando la importancia de diseñar instrucciones precisas (prompts) para mejorar la calidad del análisis.

El libro también subraya el valor de la IA en la eficiencia del proceso investigador. Gracias a estas herramientas, es posible reducir significativamente el tiempo dedicado a tareas como la transcripción, clasificación y organización de datos, especialmente en estudios con gran cantidad de material cualitativo. Sin embargo, el autor insiste en que estos beneficios deben ir acompañados de una supervisión constante por parte del investigador, quien mantiene la responsabilidad sobre la interpretación final y la validez de los resultados.

Un aspecto especialmente relevante es la dimensión ética del uso de la inteligencia artificial. La guía propone un protocolo que incluye la anonimización de los տվյալos, la protección de la privacidad de los participantes y el uso de sistemas en entornos controlados para evitar la exposición de información sensible. Este enfoque refuerza la idea de que la incorporación de la IA en la investigación no solo es una cuestión técnica, sino también metodológica y deontológica.

En conjunto, el libro de Manuel Etesse se presenta como una herramienta accesible —sin requerir conocimientos avanzados de programación— que democratiza el uso de la inteligencia artificial en la investigación cualitativa. Su principal aportación radica en ofrecer un equilibrio entre innovación tecnológica y rigor científico, mostrando cómo la IA puede integrarse de forma crítica y responsable en las prácticas investigadoras contemporáneas.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG). Planeta biblioteca 2026/04/09.

Integridad académica en la era de la Inteligencia Artificial Generativa (IAG)

Planeta biblioteca 2026/04/09.

ESUCHAR

Descargar

En esta ocasión, Julio Alonso Arévalo analiza el impacto de la inteligencia artificial generativa en la integridad académica, destacando su rápida adopción y su utilidad en la investigación y la escritura. Señala que estas herramientas plantean riesgos como el plagio, la falta de originalidad, la generación de información falsa (alucinaciones) y el uso no declarado en publicaciones científicas. Asimismo, expone evidencias del aumento de textos académicos asistidos por IA y de problemas reales derivados de su uso indebido. Aborda también las limitaciones de los detectores de contenido generado por IA, subrayando su falta de fiabilidad y sus sesgos. Propone, además, medidas como el desarrollo de políticas claras, el uso de herramientas tecnológicas de detección y la alfabetización en IA para fomentar un uso ético y crítico. Concluye que la IA es una herramienta valiosa, pero no sustituye el pensamiento humano, siendo fundamentales la transparencia, la formación y la responsabilidad en su uso.

El uso ilícito de la inteligencia artificial en la revisión por pares desata una crisis de integridad científica

Gibney, Elizabeth. “Major conference catches illicit AI use — and rejects hundreds of papers.” Nature, 2026. https://doi.org/10.1038/d41586-026-00893-2

Se aborda un caso reciente que pone de manifiesto los desafíos éticos y metodológicos derivados del uso de la inteligencia artificial en la comunicación científica, en particular en el proceso de revisión por pares. Una importante conferencia internacional en el ámbito de la inteligencia artificial detectó el uso indebido de herramientas de IA por parte de revisores que evaluaban artículos científicos. Como consecuencia, los organizadores decidieron rechazar cerca de 500 trabajos —aproximadamente un 2% del total de envíos— al considerar que se habían vulnerado las normas establecidas sobre el uso de estas tecnologías en el proceso de evaluación.

El núcleo del problema reside en que algunos revisores emplearon modelos de lenguaje para generar o asistir en la redacción de sus informes de evaluación sin declararlo, lo que contraviene las políticas de muchas conferencias y revistas científicas. Estas normas suelen prohibir o restringir el uso de IA en la revisión por pares debido a riesgos relacionados con la confidencialidad de los manuscritos, la posible filtración de datos inéditos y la falta de transparencia en los criterios de evaluación. En este caso concreto, los organizadores pudieron identificar el uso de IA gracias a la presencia de marcas de agua (watermarks) en los textos generados por estas herramientas, lo que evidencia tanto el avance tecnológico en la detección como la creciente sofisticación de estos sistemas.

El artículo subraya que este episodio no es aislado, sino representativo de una tendencia más amplia en la que la inteligencia artificial está transformando profundamente los procesos académicos tradicionales. La revisión por pares, considerada durante décadas como un pilar de la calidad científica, se enfrenta ahora a nuevas tensiones derivadas de la automatización parcial de tareas intelectuales. La utilización de IA puede, en principio, agilizar procesos y mejorar la eficiencia, pero también introduce interrogantes sobre la autoría, la responsabilidad y la fiabilidad de las evaluaciones. En este contexto, se hace evidente la necesidad de redefinir las normas éticas y los protocolos de actuación en la comunidad científica.

Asimismo, el caso pone de relieve la dificultad de equilibrar innovación tecnológica e integridad académica. Por un lado, la IA ofrece herramientas poderosas para la redacción, el análisis y la síntesis de información; por otro, su uso no regulado puede comprometer principios fundamentales como la originalidad, la confidencialidad y la imparcialidad. El artículo sugiere que las instituciones científicas deberán adaptarse rápidamente, estableciendo políticas claras y mecanismos de supervisión eficaces para evitar abusos sin frenar el potencial transformador de estas tecnologías.

El texto presenta este incidente como una señal de alerta para la comunidad científica global. La irrupción de la inteligencia artificial en los procesos de evaluación no solo obliga a replantear las normas existentes, sino que también invita a una reflexión más profunda sobre el futuro de la ciencia, la confianza en sus mecanismos de validación y el papel de los investigadores en un entorno cada vez más mediado por tecnologías inteligentes.

Potencialidades de la inteligencia artificial en la difusión de la ciencia a través de repositorios institucionales

Caldera Serrano, Jorge. “Potencialidades de la inteligencia artificial en la difusión de la ciencia a través de repositorios institucionales.” Métodos de Información 16, no. 31 (2025): 26–46. https://doi.org/10.5557/IIMEI16-N31-026046

El artículo analiza en profundidad el papel emergente de la inteligencia artificial (IA) en la transformación de los procesos de difusión del conocimiento científico, poniendo el foco en los repositorios institucionales como infraestructuras clave del acceso abierto.

El autor parte de la premisa de que, en el contexto actual de sobreabundancia informativa, los sistemas tradicionales de organización, recuperación y visibilidad de la producción científica resultan insuficientes, lo que abre la puerta a la incorporación de tecnologías inteligentes capaces de optimizar estos procesos. En este sentido, la IA se presenta como una herramienta estratégica que permite no solo gestionar grandes volúmenes de información, sino también mejorar la accesibilidad, la relevancia y la personalización de los contenidos científicos.

A lo largo del trabajo se describen diversas aplicaciones concretas de la inteligencia artificial en los repositorios institucionales. Entre ellas destacan los algoritmos de recomendación, que facilitan la localización de documentos relevantes para los usuarios; las técnicas de procesamiento del lenguaje natural, que permiten enriquecer los metadatos y mejorar la indexación; y los sistemas de análisis automatizado que contribuyen a identificar tendencias, patrones de uso y áreas emergentes de investigación. Estas funcionalidades no solo incrementan la visibilidad de la producción científica, sino que también favorecen una circulación más eficiente del conocimiento dentro de la comunidad académica y hacia la sociedad en general.

El autor también reflexiona sobre el impacto que estas tecnologías pueden tener en la democratización del acceso a la ciencia. La IA, aplicada de manera adecuada, puede reducir barreras de acceso, facilitar la reutilización de la información y contribuir a una mayor equidad en la difusión del conocimiento. Sin embargo, el artículo no adopta una postura exclusivamente optimista, sino que incorpora una mirada crítica sobre los desafíos que conlleva la implementación de estas herramientas. Entre los principales riesgos se mencionan la opacidad de los algoritmos, los posibles sesgos en la selección y recomendación de contenidos, así como las implicaciones éticas relacionadas con la privacidad de los datos y la gobernanza de la información.

Asimismo, se subraya la necesidad de que los profesionales de la información —bibliotecarios, documentalistas y gestores de repositorios— adquieran nuevas competencias tecnológicas que les permitan integrar y supervisar estos sistemas de inteligencia artificial. La formación continua y la colaboración interdisciplinar se presentan como elementos esenciales para garantizar una implementación responsable y eficaz de la IA en el ámbito de la comunicación científica. En este contexto, los repositorios institucionales no solo evolucionan como herramientas técnicas, sino como espacios estratégicos donde se redefine el papel de la mediación informativa.

En conclusión, el artículo plantea que la inteligencia artificial tiene un enorme potencial para revolucionar la difusión de la ciencia, siempre que su desarrollo e implementación se realicen desde una perspectiva ética, transparente y centrada en el usuario. Lejos de sustituir a los profesionales de la información, la IA se configura como un complemento que amplifica sus capacidades, permitiendo avanzar hacia un ecosistema científico más accesible, eficiente e inclusivo.

Gestión de la comunicación científica: 25 ideas para mejorar tu investigación

Noguera-Vivo, J.M. [José Manuel]. (2022). Gestión de la comunicación científica: 25 ideas para mejorar tu investigación. Editorial UOC. https://hdl.handle.net/10609/154642

Texto completo

Comunicar con éxito no es un talento reservado para unos pocos, sino una destreza que se aprende. Y la comunicación es una parte inherente a cualquier investigación, sea cual sea la fase en la que se encuentre el autor (grado, máster, doctorando o investigador consolidado). Comunicar correctamente un trabajo científico influye en su credibilidad, su alcance o sus posibilidades de obtener financiación, ya que determinará el grado de percepción de su utilidad. En este libro, el autor comparte consejos prácticos para que lleves a otro nivel tu investigación gracias a una comunicación óptima.

Evaluación de las ventajas del acceso abierto para las citas y las altmetrías

Taylor, Michael. Evaluating Open Access Advantages for Citations and Altmetrics (2011–2021): A Dynamic and Evolving Relationship. Quantitative Science Studies. MIT Press, 2024. https://doi.org/10.1162/QSS.a.470

El artículo analiza de manera exhaustiva el denominado “Open Access Advantage” (OAA), es decir, la supuesta ventaja en términos de citas y visibilidad que obtienen los artículos científicos publicados en acceso abierto frente a aquellos restringidos por suscripción. A diferencia de estudios anteriores más limitados, este trabajo se basa en un análisis a gran escala que abarca 38,7 millones de artículos publicados entre 2011 y 2021, incorporando tanto indicadores tradicionales de citación como diversas métricas alternativas (altmetrics), lo que permite una visión más amplia y matizada del impacto científico.

Uno de los hallazgos principales es que no existe una ventaja universal del acceso abierto. Aunque en ciertos campos —especialmente en las ciencias de la salud, las ciencias de la vida y algunas áreas de humanidades— los artículos en acceso abierto tienden a recibir más citas, esta ventaja no es constante ni homogénea entre disciplinas. De hecho, el estudio demuestra que el impacto del acceso abierto varía considerablemente según el área del conocimiento, lo que cuestiona la idea simplista de que publicar en abierto garantiza automáticamente mayor visibilidad o reconocimiento académico.

El estudio analiza más de 33 millones de artículos (2011–2021) y muestra que el acceso abierto crece del 32% al 55%, consolidándose como modelo dominante. La ventaja en citas disminuye claramente: pasa de 1,62 a 1,08, prácticamente desapareciendo en los trabajos recientes. En cambio, las altmetrics presentan ventajas fuertes y estables, especialmente en noticias. En conjunto, el OA ya no garantiza más citas, pero sí una mayor visibilidad y alcance social sostenido

Además, el análisis longitudinal revela un aspecto especialmente relevante: la ventaja en citas del acceso abierto tiende a disminuir en los trabajos más recientes. Este fenómeno puede interpretarse como un efecto de normalización del acceso abierto dentro del sistema científico, donde su creciente adopción reduce las diferencias respecto a la literatura tradicional. En otras palabras, a medida que el acceso abierto se convierte en una práctica más extendida, su capacidad diferencial para generar impacto en citas se atenúa.

En contraste, el estudio sí identifica una ventaja más consistente en términos de altmetrics, especialmente en indicadores como menciones en redes sociales, blogs o medios de comunicación. Estos resultados sugieren que el acceso abierto facilita la difusión y el alcance social del conocimiento científico, incluso cuando su impacto en citas académicas no es uniforme. Sin embargo, otros indicadores —como citas en patentes, documentos políticos o Wikipedia— presentan patrones más complejos y variables, lo que indica que el impacto del acceso abierto depende también del tipo de uso del conocimiento.


Otro aspecto clave del trabajo es su énfasis en la naturaleza multifactorial del impacto científico. El artículo subraya que las diferencias observadas entre publicaciones en acceso abierto y no abierto no pueden atribuirse exclusivamente al modelo de acceso. Factores como la disciplina, el año de publicación, las prácticas de difusión, la financiación o la visibilidad previa de los autores influyen significativamente en los resultados. Esto implica que el OAA no es un fenómeno causal simple, sino el resultado de múltiples variables interrelacionadas.


En conclusión, el estudio ofrece una visión crítica y matizada del acceso abierto, alejándose de posturas deterministas. Si bien confirma que el acceso abierto puede favorecer la visibilidad y, en ciertos contextos, las citas, también demuestra que su impacto es dinámico, desigual y dependiente del contexto. Por tanto, las políticas científicas y editoriales deben considerar esta complejidad, evitando asumir beneficios universales y promoviendo análisis más específicos por disciplinas y tipos de impacto.

La IA en la revisión por pares

Christensen, Neil Blair y Angela Cochran. “AI in Peer Review: Revisiting an 8‑Year‑Old Debate.” The Scholarly Kitchen (Society for Scholarly Publishing), 16 de marzo de 2026. https://scholarlykitchen.sspnet.org/2026/03/16/ai-in-peer-review-revisiting-an-8-year-old-debate/

En septiembre de 2018 se celebró en Oxford un debate organizado por SSP (Society for Scholarly Publishing) sobre el uso de la inteligencia artificial (IA) en el proceso de revisión por pares, con Angela Cochran defendiendo una postura escéptica y Neil Blair Christensen una más optimista. Ocho años después, ambos revisitan ese debate inicial para reflexionar sobre cómo han evolucionado sus posiciones y la presencia de la IA en la revisión académica, y para explorar hacia dónde podría dirigirse este campo en el futuro.

Angela Cochran, que en 2018 expresaba preocupaciones sobre la incapacidad de la IA para realizar análisis profundos y originales, reconoce que su comprensión del tema ha evolucionado con el avance tecnológico, pero mantiene la idea de que la IA por sí sola no resolverá los problemas fundamentales del sistema de revisión por pares. Señala que la mayoría de las herramientas actuales de IA se centran en tareas relacionadas con la integridad (detección de plagio, comprobaciones automáticas, etc.) en lugar de mejorar realmente la calidad global del proceso de revisión o aliviar la carga de trabajo de los revisores humanos. Aboga por que la IA se utilice para apoyar las tareas que sí pueden automatizarse, como ayudar a redactar la retroalimentación o liberar barreras lingüísticas para los revisores, más que para reemplazar el juicio humano.

Por su parte, Neil Blair Christensen reconoce que en 2018 subestimó la fuerza de las estructuras y culturas académicas existentes que determinan cómo se adopta la tecnología. Christensen subraya que, aunque la IA ha avanzado enormemente (con sistemas de lenguaje avanzado alimentando herramientas sofisticadas), los mismos retos que existían en 2018 persisten hoy: una enorme carga de trabajo para revisores voluntarios, un sistema de incentivos que valora publicaciones sobre evaluación crítica y una cultura editorial que apenas ha cambiado. Según él, la IA puede ayudar a “ejecutar” procesos (automatizando tareas repetitivas o analíticas), pero no puede por sí sola transformar los factores sistémicos que generan los problemas de revisión por pares, como los incentivos académicos y la escala de publicaciones.

Ambos autores coinciden en que la integración de la IA en la revisión por pares no debería ser una cuestión de “a favor o en contra”, sino de cómo implementar herramientas que efectivamente alivien la carga humana sin sacrificar rigor, creatividad o equidad. A pesar de los avances tecnológicos, múltiples desafíos éticos, culturales y prácticos permanecen, y tanto Cochran como Christensen creen que la IA debe utilizarse para facilitar el trabajo humano, ampliar la participación (por ejemplo, eliminando barreras lingüísticas) y ayudar a construir procesos más eficientes, no para sustituir las funciones centrales de evaluación crítica que solo los expertos humanos pueden hacer con confianza.

SocArXiv establece una política para regular el uso de inteligencia artificial en su repositorio

Cohen, Philip N. “SocArXiv Releases AI Policy.” SocOpen: Home of SocArXiv, 9 de marzo de 2026. https://socopen.org/2026/03/09/socarxiv-releases-ai-policy/

SocArXiv releases AI policy

El repositorio abierto SocArXiv, dedicado a la difusión de preprints en ciencias sociales, ha publicado una nueva política sobre el uso de inteligencia artificial (IA) con el objetivo de preservar la calidad del conocimiento académico y garantizar la fiabilidad del ecosistema de investigación. La iniciativa surge en un contexto marcado por el rápido crecimiento de herramientas generativas y por el aumento de envíos de artículos que incorporan contenido producido por modelos de lenguaje. La política pretende establecer criterios claros que permitan diferenciar entre el uso legítimo de herramientas de asistencia automatizada y la producción de trabajos generados mayoritariamente por IA que no cumplen estándares académicos.

El documento parte de una preocupación central: proteger lo que sus responsables denominan el “bien común epistémico” de la investigación científica. Según el repositorio, la proliferación de textos generados automáticamente —muchos de ellos de baja calidad o incluso fraudulentos— amenaza con diluir el valor de las publicaciones académicas. En un entorno como el de los servidores de preprints, donde los artículos se difunden sin revisión por pares formal, el riesgo es mayor, ya que estos documentos pueden adquirir apariencia de legitimidad académica al recibir identificadores persistentes o integrarse en sistemas de citación. Por ello, SocArXiv considera necesario introducir reglas que ayuden a filtrar contenidos problemáticos sin comprometer el carácter abierto de la plataforma.

La política también responde a problemas operativos derivados del aumento de envíos. El repositorio experimentó un crecimiento significativo en el número de artículos depositados, acompañado de un incremento de trabajos generados parcial o totalmente mediante sistemas de inteligencia artificial. Esta situación provocó un aumento de la carga de trabajo para los moderadores voluntarios encargados de revisar las propuestas antes de su publicación. Como medida previa a la política definitiva, en noviembre de 2025 se decidió suspender temporalmente la recepción de artículos centrados en modelos de IA o en el desarrollo técnico de estas tecnologías, con el fin de aliviar la presión sobre el sistema y elaborar una normativa clara.

El nuevo marco normativo establece que el uso de herramientas de inteligencia artificial puede ser aceptable en determinadas circunstancias, siempre que se declare de forma transparente y exista supervisión humana. Entre los usos considerados legítimos se encuentran tareas como la traducción automática, la ayuda en búsquedas bibliográficas, la organización de ideas, la corrección lingüística, el formateo de textos o ciertos procesos de análisis asistido por máquinas. En estos casos, los autores deben documentar claramente cómo se ha utilizado la herramienta y garantizar que el contenido final ha sido revisado críticamente por investigadores humanos. La transparencia en la declaración del uso de IA se convierte así en un requisito fundamental para la aceptación de los trabajos.

En contraste, la política define también usos explícitamente prohibidos. Entre ellos se incluye la generación automática de párrafos completos o secciones enteras del artículo sin supervisión adecuada, la creación de datos ficticios mediante modelos generativos, la invención de fuentes o referencias inexistentes, y la presentación de sistemas de IA como si fueran coautores humanos o interlocutores en procesos de investigación. Igualmente se rechazan los trabajos producidos íntegramente por sistemas generativos sin aportación sustancial de investigación humana. Estas prácticas son consideradas incompatibles con los estándares de integridad académica y constituyen motivo de rechazo inmediato.

Otro aspecto relevante de la política es que no pretende prohibir la inteligencia artificial en la investigación, sino establecer límites razonables para su uso. Los responsables del repositorio reconocen que los modelos de lenguaje y otras herramientas automatizadas están cada vez más integrados en los procesos de investigación, desde la traducción hasta el análisis de datos. Por ello, el objetivo no es iniciar una “carrera armamentística” para detectar automáticamente contenidos generados por IA, algo que consideran difícil de sostener técnicamente, sino crear normas simples y aplicables que fomenten comportamientos responsables por parte de los investigadores.

La política también pretende ofrecer orientación a los autores sobre dónde publicar determinados tipos de trabajos. SocArXiv se concibe principalmente como un repositorio para investigación en ciencias sociales, no como un espacio dedicado al desarrollo técnico de sistemas de inteligencia artificial. Por ello, algunos trabajos centrados en la creación o experimentación con modelos de IA pueden encontrar un encaje más adecuado en otros repositorios especializados. Esta delimitación temática busca mantener la coherencia disciplinar del repositorio y evitar que se convierta

¿Existe consenso entre los investigadores sobre en que revistas publicar sus trabajos?

Van Buskirk, Ian, Marilena Hohmann, Ekaterina Landgren, Johan Ugander, Aaron Clauset y Daniel B. Larremore. Consensus and Fragmentation in Academic Publication Preferences. arXiv:2603.00807v1 [cs.DL], 28 de febrero de 2026

Este trabajo analiza cómo los investigadores toman decisiones sobre dónde publicar sus trabajos científicos y hasta qué punto existen patrones de consenso o, por el contrario, fragmentación dentro de las comunidades académicas.

Los autores parten de la premisa de que la elección de la revista o del canal de publicación no es un proceso puramente individual, sino que refleja dinámicas colectivas dentro de cada disciplina científica. Estas decisiones están influenciadas por múltiples factores —prestigio de las revistas, redes académicas, incentivos institucionales o visibilidad— y, en conjunto, configuran un sistema complejo de preferencias compartidas que puede ser estudiado mediante herramientas de análisis de redes y ciencia de datos. El objetivo central del artículo es identificar si las comunidades científicas muestran patrones claros de acuerdo sobre qué revistas son más relevantes o si, por el contrario, el sistema editorial está caracterizado por una pluralidad de preferencias que fragmenta el espacio de publicación.

Para abordar esta cuestión, los autores desarrollan un enfoque cuantitativo que combina datos de publicaciones académicas con modelos de redes y análisis estadístico. A partir de estos datos reconstruyen un mapa de las preferencias de publicación de los investigadores, observando cómo los científicos de distintas áreas tienden a concentrar sus envíos en determinados grupos de revistas. Este enfoque permite detectar estructuras emergentes en el sistema editorial: por un lado, núcleos de consenso donde muchos investigadores convergen en un pequeño conjunto de revistas consideradas centrales; y por otro, regiones de fragmentación en las que las preferencias se dispersan entre múltiples opciones. El análisis muestra que estas estructuras no son uniformes en todas las disciplinas: algunas comunidades presentan jerarquías editoriales muy claras, mientras que otras exhiben una distribución más diversificada de canales de publicación.

Uno de los hallazgos más relevantes del estudio es que el sistema de publicación científica funciona como una red de coordinación social. Las decisiones individuales de los investigadores están influidas por lo que hacen sus pares, lo que genera dinámicas colectivas de imitación, reputación y señalización. Publicar en determinadas revistas actúa como una señal de calidad y legitimidad dentro de la comunidad científica, lo que refuerza la concentración de envíos en ciertos títulos. Sin embargo, esta dinámica también puede producir fragmentación cuando diferentes subcomunidades científicas desarrollan sus propios circuitos editoriales o cuando emergen nuevas revistas y plataformas que compiten con las tradicionales. De este modo, el sistema editorial no es completamente centralizado ni completamente disperso, sino que presenta una estructura híbrida caracterizada por clusters o comunidades de publicación.

El artículo también examina las implicaciones de estos patrones para la evaluación científica y la difusión del conocimiento. Cuando existe un fuerte consenso en torno a unas pocas revistas, estas adquieren un poder simbólico considerable, lo que puede reforzar desigualdades en la visibilidad de la investigación y consolidar jerarquías académicas. Por el contrario, una mayor fragmentación puede favorecer la diversidad de enfoques y la aparición de nuevos espacios de comunicación científica, aunque también puede dificultar la identificación de estándares comunes de calidad. En este sentido, el estudio sugiere que comprender la estructura de preferencias de publicación es fundamental para analizar fenómenos como la concentración editorial, la influencia de los rankings de revistas o el impacto de políticas de ciencia abierta.

Finalmente, los autores destacan que su enfoque ofrece una nueva perspectiva cuantitativa para estudiar el ecosistema de la publicación científica, integrando métodos de análisis de redes, ciencia computacional y sociología de la ciencia. Este tipo de análisis permite comprender mejor cómo se forman los consensos en torno a determinadas revistas, cómo surgen nichos editoriales especializados y cómo evolucionan las comunidades científicas a lo largo del tiempo. En última instancia, el estudio aporta evidencia empírica sobre las dinámicas colectivas que subyacen a la comunicación académica y abre nuevas líneas de investigación sobre la gobernanza del sistema de publicación científica, especialmente en un contexto marcado por la expansión del acceso abierto, la proliferación de nuevas revistas y los cambios en los mecanismos de evaluación de la investigación.