Archivo de la etiqueta: Investigación

Cuantificación de la ciencia ciudadana en línea: dinámica y demografía de la participación pública en la ciencia

Strasser BJ, Tancoigne E, Baudry J, Piguet S, Spiers H, Luis-Fernandez Marquez J, et al. (2023) Quantifying online citizen science: Dynamics and demographics of public participation in science. PLoS ONE 18(11): e0293289. https://doi.org/10.1371/journal.pone.0293289

Científicos ciudadanos de todo el mundo recopilan datos con sus teléfonos inteligentes, realizan cálculos científicos en sus ordenadores domésticos y analizan imágenes en plataformas en línea. Estos proyectos de ciencia ciudadana en línea suelen recibir elogios por su potencial para revolucionar el alcance y la escala de la recopilación y el análisis de datos, mejorar la alfabetización científica y democratizar la ciencia. Sin embargo, a pesar de la atención que ha suscitado la ciencia ciudadana en línea, sigue sin estar claro hasta qué punto está extendida la participación pública, cómo ha cambiado con el tiempo y cómo se distribuye geográficamente. Y lo que es más importante, sigue siendo incierto el perfil demográfico de los participantes en la ciencia ciudadana y, por tanto, hasta qué punto sus contribuciones contribuyen a democratizar la ciencia.

Aquí se presenta el mayor estudio cuantitativo sobre la participación en la ciencia ciudadana, basado en las cuentas en línea de más de 14 millones de participantes a lo largo de dos décadas. Se ha observado que la tendencia de rápido crecimiento de la participación en la ciencia ciudadana en línea observada a principios de la década de 2000 ha variado desde entonces según el modo de participación, con un crecimiento constante observado en la detección de la naturaleza, pero un descenso en el crowdsourcing y la informática distribuida. En la mayoría de los proyectos de ciencia ciudadana, salvo en los de observación de la naturaleza, predominan los hombres, y la gran mayoría de los participantes, hombres y mujeres, tienen formación científica.

El análisis proporciona, por primera vez, una sólida «línea de base» para describir las tendencias globales en la participación de la ciencia ciudadana en línea. Estos resultados ponen de relieve los retos actuales y el potencial futuro de la ciencia ciudadana. Además de presentar nuestro análisis de los datos cotejados, nuestro trabajo identifica múltiples métricas para un examen sólido de la participación pública en la ciencia y, más en general, de las multitudes en línea. También señala los límites de los estudios cuantitativos a la hora de captar la importancia personal, social e histórica de la ciencia ciudadana.

IOP Publishing (IOPP) proporciona comentarios a los revisores sobre sus informes de revisión para mejorar la calidad de la revisión por pares y fortalecer las mejores prácticas

Cullen, Cait. «IOP Publishing Unveils Industry-Leading Feedback System for Reviewers». IOP Publishing, 14 de noviembre de 2023. https://ioppublishing.org/news/iop-publishing-unveils-industry-leading-feedback-system-for-reviewers/


IOP Publishing (IOPP) ahora ofrece retroalimentación a los revisores sobre sus informes de revisión para mejorar la calidad de la revisión por pares y fortalecer las mejores prácticas en las ciencias físicas.

IOPP ha implementado el nuevo programa de manera voluntaria en todas sus revistas propietarias. Cuando los revisores optan por recibir comentarios sobre su informe, IOPP compartirá una evaluación numérica de qué tan útil fue el informe para los editores internos en una escala del 1 al 5, siendo 5 excepcional y 1 indicando que el informe no es adecuado para tomar una decisión. Luego, los revisores pueden ver información constructiva sobre la estructura y utilidad de los informes que explica la evaluación.

Una encuesta que incluyó a más de 1.200 investigadores que han revisado o sido invitados a revisar con IOPP muestra que recibir comentarios sobre sus informes de revisión mejoraría su experiencia en la revisión por pares, ya sea ser notificados sobre la decisión final sobre el artículo o recibir información sobre la calidad de su informe. En particular, los resultados muestran que los comentarios sobre la calidad de los informes son más valorados por los investigadores en etapas tempranas de sus carreras, donde estos comentarios pueden ser invaluables para desarrollar sus habilidades de investigación.

El lanzamiento sigue a una prueba exitosa del programa en tres revistas de IOP Publishing, incluyendo Engineering Research Express, Environmental Research Letters y Plasma Physics and Controlled Fusion. Más del 85% de los revisores involucrados en la prueba indicaron que recibir comentarios sobre su informe fue útil o muy útil. Desde que IOPP extendió el programa a todas sus revistas propietarias en septiembre, más de 2,700 revisores ya han optado por recibir comentarios sobre sus informes.

Laura Feetham, Gerente de Compromiso de Revisores en IOPP, dice: «El trabajo de nuestros expertos en revisión por pares es crucial para el avance de la ciencia, y sin embargo, los revisores rara vez (si es que alguna vez) reciben comentarios de los editores sobre la calidad de sus informes y en qué medida influyeron en la decisión editorial. Queríamos cambiar esto en nombre de nuestras comunidades de revisión por pares. Ahora, nuestros revisores pueden optar por recibir una evaluación honesta de su informe, directamente del editor. Nuestra esperanza es que esto mejore la transparencia en el sistema de revisión por pares y ayude a los investigadores en etapas tempranas de sus carreras a construir sus habilidades de revisión por pares».

La introducción de la retroalimentación a los revisores es la última de una serie de innovaciones en la revisión por pares en IOPP, que incluye una nueva política de co-revisión y el programa Peer Review Excellence.

Panorama global de la excelencia científica: análisis de los investigadores altamente citados 2023 y el cambio en las dinámicas globales de investigación

Highly Cited Researchers

La distribución de estas designaciones muestra una concentración destacada en ciertos campos. Los Investigadores Altamente Citados provienen de 67 países/regiones, pero el 83.8% procede de solo 10, y el 72.7% de los cinco primeros, evidenciando una concentración significativa de talentos. Estados Unidos lidera con 2,669 investigadores, aunque su cuota mundial ha disminuido desde 2018, a diferencia de China continental, que ha experimentado un aumento del 10%.


Clarivate™ ha anunciado este año 7,125 designaciones de Highly Cited Researchers para 6,849 individuos. El número de designaciones supera al de individuos debido a que algunos investigadores reciben reconocimiento en más de un campo de Essential Science Indicators™ (ESI). Estas designaciones se distribuyen de manera desigual por campos, reflejando el tamaño de cada uno.

Los Investigadores Altamente Citados de 2023 provienen de unos 67 países/regiones, pero el 83.8% proviene de solo 10, y el 72.7% de los cinco primeros, lo que destaca una concentración significativa de talentos.

Estados Unidos sigue teniendo la mayor concentración de investigadores muy citados, con 2,669 en 2023, representando el 37.5% del grupo. China continental mantiene la segunda posición con 1,275 investigadores (17.9%). El Reino Unido ocupa el tercer lugar con 574 investigadores (8.1%). Otros países en el top 10 son Alemania, Australia, Canadá, Países Bajos, Francia, Hong Kong e Italia.

Se destaca el aumento significativo de la proporción de investigadores muy citados en China continental en los últimos años, mientras que Estados Unidos ha experimentado una pérdida de cuota. En 2023, China continental ha aumentado su cuota mundial en un 10% desde 2018, mientras que Estados Unidos ha experimentado una disminución del 5.9%.

En cuanto a las instituciones, Harvard lidera la lista con 237 investigadores muy citados, seguida por la Universidad de Stanford. La Academia China de Ciencias encabeza la lista de instituciones con 270 investigadores muy citados, seguida por los Institutos Nacionales de Salud de EE.UU., la Sociedad Max Planck, el Memorial Sloan Kettering Cancer Center y el Broad Institute.

Cuando los autores declaran más de una filiación deben poner en primer lugar la universidad en la que trabajan


Press, Europa. «Comité de Ética en Investigación pone orden: los autores deben poner primero la principal Universidad en la que trabajan». Europa Press, 3 de noviembre de 2023.

Texto completo

El Comité Español de Ética de la Investigación ha señalado que, cuando los autores declaran más de una afiliación, «es importante el orden o prioridad con el que se declaran dichas afiliaciones, que debe corresponderse con la relación contractual del autor».

En abril del año pasado, un informe de la consultora Siris reveló que varios investigadores españoles que figuraban en la lista de Highly Cited Researchers de Clarivate con afiliación principal en instituciones españolas cambiaron su afiliación principal a universidades de Arabia Saudita. Este cambio, destacado en el informe, tiene implicaciones significativas, ya que contar con investigadores altamente citados es crucial para la reputación de las universidades y su posición en el Ranking Académico de Shanghai. En este contexto, la investigación destacó que un solo investigador altamente citado puede permitir que una universidad suba hasta 200 lugares en el Ranking de Shanghái. Además, el informe subraya la importancia de clarificar los detalles de afiliación, así como el derecho de las entidades a preservar la afiliación en el caso de autores que cambian de institución, sugiriendo la necesidad de códigos éticos que aborden estos aspectos.

Así, el informe del comité, encargado por el Ministerio de Ciencia e Innovación, establece que la autoría científica debe estar vinculada a la afiliación y que ambas informaciones son inseparables en la producción científica. Se reconoce que los autores pueden tener varias afiliaciones, pero se destaca que la entidad principal, que corresponde a la entidad empleadora principal, debe ser declarada primero. Además, se señala que los cambios en la afiliación deben reflejar adecuadamente el período de la investigación y que los códigos éticos de las instituciones deben destacar la importancia de la afiliación en la autoría. El Comité Español de Ética en la Investigación es un órgano independiente que vela por la integridad y la ética en la investigación científica y técnica en España, y ha sido establecido en conformidad con la nueva Ley de la Ciencia, la Tecnología y la Innovación.

Así se refleja en el primer informe del órgano consultivo sobre autoría y filiaciones en trabajos científicos y técnicos, recogido por Europa Press, a raíz de un encargo del Ministerio de Ciencia e Innovación.

El informe explica que la autoría científica se indica siempre junto con la afiliación y subraya que ambos datos son inseparables y deben figurar en todo tipo de producción científica (publicaciones, presentaciones en congresos, etc.).

La afiliación, añade el documento, indica las entidades, instituciones o empresas a las que está asociado cada uno de los autores de una publicación científica.

En este sentido, el Comité de Ética de la Investigación destaca que es habitual que los autores tengan múltiples afiliaciones. Por ejemplo, en el ámbito de las ciencias de la salud, muchos autores indican simultáneamente su afiliación hospitalaria y universitaria porque la vinculación (y el espacio de trabajo) de ambos cargos suele ser compartida.

En cualquier caso, advierte de que la afiliación primaria distingue a la entidad principal, que corresponde a la entidad empleadora primaria, de las afiliaciones secundarias. «Cuando los autores tienen afiliaciones secundarias con segundas y terceras entidades, es natural declarar esta conexión cuando sea pertinente», especifica la organización.


Los editores de revistas publican unas orientaciones sobre el uso de la IA en la publicación científica

Kaebnick, Gregory E., David Christopher Magnus, Audiey Kao, Mohammad Hosseini, David Resnik, Veljko Dubljević, Christy Rentmeester, Bert Gordijn, y Mark J. Cherry. «Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing». Hastings Center Report n/a, n.o n/a. Accedido 2 de noviembre de 2023. https://doi.org/10.1002/hast.1507.

Los editores de siete revistas académicas publicaron recomendaciones sobre el uso responsable de herramientas de inteligencia artificial generativa por parte de autores, revisores y editores. Las recomendaciones prohíben que las herramientas de IA generativa sean consideradas como autores, pero permiten su uso para generar texto e ilustraciones.

«Estas restricciones son necesarias en parte para proteger la calidad académica, como han señalado otras declaraciones, pero también son vitales por razones sociales más amplias», afirmó Gregory E. Kaebnick, autor principal de las recomendaciones y editor del Informe del Hastings Center.

Estas herramientas «tienen el potencial de transformar la publicación académica de maneras que pueden ser perjudiciales pero también valiosas», dice la declaración, que fue publicada en varias de las revistas de bioética y humanidades editadas por los autores y firmantes. Entre los firmantes se encuentran Karen J. Maschke, editora de la revista Ética e Investigación Humana del Hastings Center, y Laura Haupt, editora jefe del Informe del Hastings Center y Ética e Investigación Humana. Seis editores adicionales también son firmantes.

Las cinco recomendaciones son las siguientes:

  1. Las LLMs [modelos de lenguaje grandes] u otras herramientas de IA generativa no deben figurar como autores en los artículos.
  2. Los autores deben ser transparentes sobre su uso de la IA generativa, y los editores deben tener acceso a herramientas y estrategias para garantizar la transparencia de los autores.
  3. Los editores y revisores no deben depender únicamente de la IA generativa para revisar los artículos enviados.
  4. Los editores tienen la responsabilidad final de seleccionar revisores y deben ejercer una supervisión activa de esa tarea.
  5. La responsabilidad final de la edición de un artículo recae en los autores y editores humanos.

Si bien estas recomendaciones son coherentes con las tomadas por el Comité de Ética en Publicación y muchos editores de revistas, difieren en algunos aspectos. Por un lado, abordan las responsabilidades de los revisores hacia los autores. Además, la nueva declaración toma una posición diferente a la de la revista Science, que sostiene que no solo una herramienta de IA generativa no puede ser considerada autora, sino que «el texto generado por ChatGPT (u otras herramientas de IA) no puede ser utilizado en el trabajo, ni pueden los gráficos, imágenes o ilustraciones ser producto de tales herramientas».

«Una prohibición así es demasiado amplia y puede ser imposible de hacer cumplir, en nuestra opinión», afirma la nueva declaración.

Las recomendaciones son preliminares. «No pretendemos haber resuelto las numerosas cuestiones sociales que creemos que la IA generativa plantea para la publicación académica, pero en aras de fomentar una conversación más amplia sobre estas cuestiones, hemos desarrollado un conjunto preliminar de recomendaciones sobre la IA generativa en la publicación académica», señala la declaración. «Esperamos que las recomendaciones y argumentos aquí establecidos ayuden a la comunidad académica a avanzar hacia una comprensión más profunda de las fortalezas, limitaciones y desafíos de la IA para el trabajo académico responsable».

Perspectivas de las Humanidades sobre la Inteligencia Artificial

Humanities Perspectives on Artificial Intelligence (AI), National Endowment For the Humanities (NEH), 2023

Acceder a la noticia

National Endowment For the Humanities (NEH) anuncia hoy una nueva e importante iniciativa de investigación, Humanities Perspectives on Artificial Intelligence (Perspectivas de las Humanidades sobre la Inteligencia Artificial). En el marco de esta iniciativa, la NEH apoyará proyectos de investigación que traten de comprender y abordar las implicaciones éticas, jurídicas y sociales de la inteligencia artificial (IA). El NEH está especialmente interesado en proyectos que exploren el impacto de las tecnologías relacionadas con la IA en la verdad, la confianza y la democracia; la seguridad y la protección; y la privacidad, los derechos civiles y las libertades civiles.

La IA es una de las tecnologías más potentes de nuestro tiempo. Las cuestiones sobre las implicaciones éticas, jurídicas y sociales de la IA están fundamentalmente enraizadas en las humanidades, que incluyen la ética, el derecho, la historia, la filosofía, la antropología, la sociología, el estudio de los medios de comunicación y los estudios culturales. De hecho, la legislación fundacional del NEH encomienda a la agencia hacer que el pueblo estadounidense sea «dueño de su tecnología y no su sirviente irreflexivo».

La iniciativa Perspectivas Humanas de la Inteligencia Artificial del NEH responde a la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence del Presidente Biden, que establece nuevas normas para la seguridad de la IA, protege la privacidad de los estadounidenses y fomenta la equidad y los derechos civiles. La inversión del NEH en la investigación de la IA también está en consonancia con las prioridades de la Administración Biden-Harris en materia de investigación y desarrollo (I+D) sobre IA, tal y como se recoge en el National AI R&D Strategic Plan de la Casa Blanca publicado a principios de este año.

«El rápido desarrollo de la inteligencia artificial tiene consecuencias de gran alcance para la sociedad, la cultura y la democracia estadounidenses», declaró la Presidenta del NEH, Shelly C. Lowe (Navajo). «Las humanidades proporcionan la brújula ética y el contexto histórico para ayudarnos a comprender todas las implicaciones de las tecnologías de IA, dando tanto a los creadores como a los usuarios de la IA las herramientas necesarias para navegar por sus riesgos y recompensas de manera responsable, crítica y deliberada.»

La iniciativa Humanities Perspectives on Artificial Intelligence del NEH apoyará numerosos proyectos de humanidades relacionados con la IA a través de las siguientes oportunidades de financiación:

  • Las universidades u organizaciones de investigación independientes que estén considerando establecer un centro de investigación centrado en la investigación humanística de la IA deberían considerar el programa de subvenciones más reciente del NEH,  Humanities Research Centers on Artificial Intelligence. Esta oportunidad de financiación ofrece hasta 750.000 dólares para apoyar la creación de centros de investigación en humanidades centrados en las implicaciones éticas, jurídicas o sociales de la inteligencia artificial.
  • Los académicos individuales o los equipos académicos con sede en una institución (por ejemplo, colegios y universidades) pueden considerar Peligros y oportunidades de la tecnología: Perspectivas desde las Humanidades. Los investigadores independientes o afiliados a una institución pueden solicitar becas, premios para profesores de HBCU, HSI y TCU, estipendios de verano o becas públicas.
  • Los equipos de colaboración interesados en planificar un proyecto internacional de investigación sobre IA o en organizar una reunión académica sobre IA deben considerar la investigación en colaboración.
  • Las instituciones interesadas en acoger programas de desarrollo profesional sobre las últimas investigaciones relacionadas con la IA humanística deben considerar los Institutos de Temas Avanzados en Humanidades Digitales.

Política, gestión y evaluación de la investigación y la vinculación en América Latina y el Caribe

Política, gestión y evaluación de la investigación y la vinculación en América Latina y el Caribe / Diego Aguiar… [et al.] ; editado por Liliana Córdoba ; Laura Rovelli ; Pablo A. Vommaro ; prólogo de Liliana Córdoba ; Laura Rovelli ; Pablo A. Vommaro. – 1a ed. – Ciudad Autónoma de Buenos Aires : CLACSO, 2021

Texto completo

Construir conocimientos con perspectiva crítica es un sentido fundante que orienta a la Facultad de Ciencias Sociales de la Universidad Nacional de Córdoba y al Consejo Latinoamericano de Ciencias Sociales. Actualizar lo que entendemos por perspectivas críticas es una tarea permanente del pensamiento emancipatorio y este libro pretende ser un aporte más en ese esfuerzo colectivo.

Por ello, nos proponemos desnaturalizar, cuestionar y deconstruir el conocimiento perezoso, el autorreferenciado, el “superior”, el inalcanzable, el incomprensible para otros, el dogmático en tanto legitima solo lo igual a sí mismo, el que impone un espacio y un tiempo, el que prioriza las causas e ignora las consecuencias, el que no se deja conmover, el que promueve la neutralidad.

Aspiramos a construir un conocimiento científico público, abierto, que circule, se mueva, que dialogue con otr0s, que sea comprendido por otros y que comprenda a otr0s, que reconozca y se interese por espacios y tiempos diversos, el situado, el que considere siempre las consecuencias, el que se conmueve.

Número de artículos académicos publicados por año en todo el mundo

«Number of Academic Papers Published Per Year – WordsRated», 1 de junio de 2023. https://wordsrated.com/number-of-academic-papers-published-per-year/.

Hasta el año 2022, el número de artículos académicos publicados por año se estima de la siguiente manera:

  • En 2022, se publicaron 5.14 millones de artículos académicos.
  • En 2021, se publicaron 5.03 millones de artículos académicos, lo que representa un aumento del 7.62% con respecto al año anterior.
  • En 2020, se publicaron 4.68 millones de artículos académicos.
  • En 2019, se publicaron 4.43 millones de artículos académicos.
  • En 2018, se publicaron 4.18 millones de artículos académicos.
  • En los últimos cinco años, ha habido un aumento del 22.78% en el número de artículos publicados.

El país que publica la mayor cantidad de artículos académicos en 2022 es China, con más de 1.009 millones de artículos, lo que representa el 19.67% de todos los documentos académicos publicados en un año. Le sigue de cerca Estados Unidos, con 702,840 artículos, lo que representa el 17.04% del total global. Otros países en el top 10 incluyen India, el Reino Unido, Alemania, Italia, Japón, Canadá, Australia y Francia.

Hasta 2020, hay 46,736 revistas académicas publicando papers en todo el mundo. El número de revistas académicas ha ido aumentando constantemente a lo largo de los años, con una tasa de crecimiento anual promedio del 2.56% en la última década. La mayoría de estas revistas, aproximadamente el 75.04%, publican en inglés, con 35,070 revistas en inglés en 2020. Las revistas en otros idiomas han experimentado un crecimiento más lento, con una ligera disminución del 0.42% en 2020.

El país que publica la mayor cantidad de revistas académicas es el Reino Unido, con 5,856 revistas publicadas anualmente, lo que representa el 12.53% de la producción global. Estados Unidos es el segundo productor más grande de revistas académicas, con alrededor de 5,712 revistas, lo que representa el 12.22% de la producción global. Los Países Bajos y Alemania son los únicos otros países que publican más de 1,000 revistas académicas al año. China, a pesar de ser un importante productor de artículos académicos, representa solo el 1.36% de las revistas publicadas por año.

Los investigadores que aceptan manipular las citas tienen más probabilidades de que se publiquen sus trabajos

Singh Chawla, Dalmeet. «Researchers Who Agree to Manipulate Citations Are More Likely to Get Their Papers Published». Nature, 3 de mayo de 2023. https://doi.org/10.1038/d41586-023-01532-w.


Un estudio publicado en la revista Research Policy revela que los investigadores que son presionados por los editores para agregar citas superfluas en sus manuscritos tienen más probabilidades de tener éxito en la publicación de sus artículos que aquellos que se resisten.

El estudio se basa en una encuesta realizada en 2012 a 1.169 académicos que informaron haber sido solicitados para agregar citas innecesarias, de los cuales 1.043 cumplieron con la solicitud y agregaron al menos una cita.

Cuando los científicos son presionados para inflar sus trabajos con citas, el editor de la revista puede estar buscando aumentar el recuento de citas de su propia revista o el suyo propio. En otros casos, los revisores por pares pueden tratar de persuadir a los autores para que citen su trabajo. Los «anillos de citas», en los que varios académicos o revistas acuerdan citarse excesivamente entre sí, pueden ser más difíciles de detectar, ya que involucran a varias partes interesadas en lugar de solo dos académicos citándose desproporcionadamente.

Aunque los datos de la encuesta se recopilaron hace una década, los hallazgos siguen siendo relevantes hoy y la situación es poco probable que haya cambiado significativamente, según el autor del estudio, Eric Fong, de la Universidad de Alabama en Huntsville.

El estudio también encontró que los investigadores que cumplían plenamente con las solicitudes coercitivas de los editores tenían una tasa de aceptación del 85%, en comparación con el 77% para aquellos que cumplían parcialmente y el 39% para aquellos que se negaban a cumplir.

Para abordar este problema, Fong sugiere que las autocitas de las revistas deben excluirse de métricas como el factor de impacto de la revista, lo que reduciría la razón para solicitar más citas a otros trabajos publicados en la misma revista.

El director de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido y miembro del Consejo de Ética de Publicación (COPE), Matt Hodgkinson, está de acuerdo y afirma que es necesario eliminar el incentivo para realizar estas prácticas distorsionadoras.

Los editores que toman decisiones basadas en la coerción están distorsionando la literatura, y la educación de los editores individuales es una tarea pendiente. Los editores y revistas deben monitorear activamente las solicitudes de citas por parte de revisores y editores.

En febrero, una revista de la editorial holandesa Elsevier generó controversia al afirmar en una carta de rechazo a un autor que una de las razones para rechazar su artículo era la falta de citas a trabajos publicados en la misma revista. Elsevier aclaró que tenía una política clara contra la manipulación de citas y que los editores no deben intentar aumentar la clasificación de la revista inflando artificialmente las métricas.

El desarrollo de herramientas para detectar y señalar el exceso de referencias entre revistas y personas podría ser una solución para combatir estas prácticas.

IA generativa: el último chivo expiatorio de la evaluación de la investigación

Danny Kingsley. «Generative AI – the Latest Scapegoat for Research Assessment», LSE, 13 de octubre de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/10/13/generative-ai-the-latest-scapegoat-for-research-assessment/.

Reflexionando sobre el debate en torno a la inteligencia artificial generativa y su impacto en la comunicación académica, Danny Kingsley argumenta que, al igual que el acceso abierto hace veinte años, la IA refleja las deficiencias duraderas en la publicación y evaluación de la investigación.

Ha sido interesante observar la explosión de discusión en torno a ChatGPT y la IA generativa. Los comentarios oscilan entre el gran potencial que ofrece (en términos de eficiencia) y las preocupaciones sobre el daño que causará a sistemas de confianza de larga data. Uno de esos sistemas es la publicación académica.

A pesar de los desafíos planteados, ChatGPT simplemente refleja los problemas que ya aquejan al sistema de publicación académica actual. De hecho, de la misma manera en que hace una década, el acceso abierto fue un chivo expiatorio de la comunicación académica, ahora la IA generativa es un chivo expiatorio del sistema de publicación académica. Estas preocupaciones parten de una suposición subyacente: que el sistema actual está funcionando. Debemos preguntarnos: ¿es así?

No hay espacio aquí para una lista exhaustiva de los muchos y variados problemas del ecosistema actual de publicación académica. A modo de muestra, hay que tener en cuenta que por ejemplo las revistas depredadoras lamentablemente están aquí para quedarse, la preocupante cantidad de fraude en la investigación médica y que los investigadores que aceptan manipular citas tienen más probabilidades de que se publiquen sus artículos.

Dos estudios recientes, uno en Europa y otro en Australia, revelan el nivel de presión al que se ven sometidos los doctorandos y los investigadores en sus primeros años para proporcionar autoría regalada. También se han revelado alarmantes detalles sobre el intercambio de dinero por autoría, con precios que dependen de dónde se publicará el trabajo y el área de investigación. Las investigaciones sobre esto están llevando a una serie de retractaciones. Incluso la «naturaleza autocorrectiva» del sistema no funciona, con la revelación de un gran número de citas a artículos que habían sido retractados, y más de una cuarta parte de estas citas ocurrieron después de la retractación.

Consideremos algunas de las preocupaciones planteadas sobre la IA y la publicación académica. La incapacidad actual de la IA para documentar el origen de sus fuentes de datos a través de citas, y la falta de identificadores de esas fuentes de datos, significa que no hay capacidad para replicar los «hallazgos» generados por la IA. Esto ha llevado a llamados para el desarrollo de una especificación o estándar formal para la documentación de la IA respaldado por un modelo de datos sólido. Nuestro entorno actual de publicación no prioriza la reproducibilidad, con el intercambio de código como algo opcional y una adopción lenta de requisitos para compartir datos. En este entorno, la generación de datos falsos es motivo de preocupación. Sin embargo, ChatGPT «no es el creador de estos problemas; en cambio, permite que este problema exista en una escala mucho mayor».

A pesar de toda la preocupación, la IA generativa ofrece una forma de abordar las desigualdades en el sistema académico de publicación actual. Por ejemplo, escribir artículos en inglés cuando no es el primer idioma del autor puede ser una barrera significativa para participar en el discurso de investigación. La IA generativa ofrece una solución potencial para estos autores, argumentada en el contexto de la publicación médica. Otro argumento es que las reacciones impulsivas de los editores al uso de ChatGPT en artículos significa que estamos perdiendo la oportunidad de nivelar el campo de juego para los autores que tienen el inglés como segundo idioma (ESL).

Después de todo, la práctica de recibir asistencia en la redacción de artículos no es algo nuevo. Un estudio que investiga a autores prolíficos en revistas científicas de alto impacto que no eran investigadores encontró un sorprendente nivel de publicación en múltiples áreas de investigación. Estos autores son humanos (en su mayoría con títulos en periodismo), no IA.

Hablando de autoría, recientemente se informó que un radiólogo utilizó ChatGPT para escribir artículos y los publicó con éxito en áreas que estaban muy alejadas de su experiencia, incluyendo agricultura, seguros, derecho y microbiología. Esto es una representación excelente de las preocupaciones que muchos han expresado sobre la producción excesiva de artículos «escritos» por la IA generativa. Aunque las acciones del radiólogo son impactantes, este tipo de comportamiento no se limita al uso de la IA, como lo demuestra la admisión de un experto en carne español que había publicado 176 artículos en un año en múltiples áreas a través de asociaciones cuestionables.

El único impulsor de casi todas las prácticas de investigación cuestionables es la actual importancia del artículo publicado como la única producción que cuenta. El rabo está moviendo al perro.

Si un exceso de revistas y artículos de revista ya está alimentando las «fábricas de artículos» (que a su vez pueden generarse mediante IA), es posible que todo el ecosistema de publicación académica esté a punto de colapsar. Un comentario ha preguntado si el uso de la IA para ayudar a escribir artículos aumentará aún más la presión para publicar, dado que los niveles de publicación han aumentado drásticamente en la última década.

Estamos haciendo las preguntas equivocadas. Un buen ejemplo es este artículo que pregunta si los editores deberían preocuparse de que ChatGPT haya escrito un artículo sobre sí mismo. El artículo continúa discutiendo «otras preocupaciones éticas y morales» y pregunta: «¿Es correcto usar la IA para escribir artículos cuando la publicación de artículos se utiliza como un barómetro de la competencia, la permanencia y la promoción de los investigadores?».

Reformularía la pregunta como: «¿Es correcto que la publicación de artículos se utilice como la principal herramienta de evaluación de los investigadores?» El único impulsor de casi todas las prácticas de investigación cuestionables es la importancia actual del artículo publicado como la única producción que cuenta. El rabo está moviendo al perro.