ChatGPT en la ciencia: su uso es mayor en países donde está prohibido

Bao, Honglin, Mengyi Sun, y Misha Teplitskiy. 2025. “Where There’s a Will There’s a Way: ChatGPT Is Used More for Science in Countries Where It Is Prohibited.” Quantitative Science Studies, 1–23. https://doi.org/10.1162/qss_a_00368.

El estudio demuestra que las prohibiciones geográficas no están logrando limitar el uso de ChatGPT en la producción científica. Las herramientas de inteligencia artificial están siendo ampliamente utilizadas incluso en contextos donde su uso está regulado o restringido, lo que plantea importantes desafíos para el diseño de políticas eficaces en el ámbito de la gobernanza tecnológica global. Además, pone de relieve la creciente dependencia de los investigadores en estas tecnologías para la redacción y difusión de su trabajo.

Se analiza críticamente la eficacia de las restricciones geográficas impuestas al acceso de modelos de inteligencia artificial como ChatGPT en el ámbito científico. El caso de estudio se centra en países donde el acceso a ChatGPT está oficialmente bloqueado, como China, Rusia, Irán y otros.

El estudio parte de una pregunta clave: si estas restricciones fueran realmente efectivas, ¿se detectaría un menor uso de ChatGPT en la producción científica de dichos países? Para responder a esta cuestión, los autores desarrollaron un sofisticado clasificador capaz de identificar textos redactados con asistencia de ChatGPT, utilizando como base ciertas elecciones lingüísticas características de sus primeras versiones, como el uso de palabras específicas (“delve”, “remarkably”, entre otras).

Este clasificador, entrenado con resúmenes de artículos científicos anteriores y posteriores a la aparición de ChatGPT, demostró ser más preciso que herramientas populares como GPTZero y ZeroGPT, e incluso fue validado con artículos en los que los autores habían declarado explícitamente el uso de IA.

Al aplicar este modelo a más de 170.000 preprints de plataformas de investigación como ArXiv, BioRxiv y MedRxiv, los investigadores encontraron que, para agosto de 2023, aproximadamente el 12,6% de los artículos científicos presentaban indicios de uso de ChatGPT. Sorprendentemente, el uso fue un 7,7% más alto en los países donde la herramienta estaba oficialmente restringida. Esta diferencia se produjo antes de que estuviera disponible en el mercado el primer modelo de lenguaje de gran escala desarrollado en China, lo que sugiere que los investigadores de estos países estaban utilizando métodos alternativos (como VPNs) para acceder a ChatGPT.

Además, los autores exploraron la hipótesis de si esta alta demanda de herramientas de IA en ciencia —especialmente en países asiáticos donde el inglés no es lengua oficial— podría haber impulsado un uso aún mayor en ausencia de restricciones. Los resultados confirmaron que el uso de ChatGPT era más elevado precisamente en aquellos países donde el acceso estaba prohibido, lo que refuerza la idea de que las restricciones no son efectivas y que los científicos están dispuestos a sortear los obstáculos para beneficiarse de estas herramientas.

Otro hallazgo interesante fue que el uso de ChatGPT correlacionaba con un mayor número de visualizaciones y descargas de los artículos, lo cual sugiere que podría estar influyendo en la claridad, presentación o atractivo del contenido. Sin embargo, este uso no mostró correlación con un mayor número de citas ni con una mejor colocación en revistas académicas de alto impacto.

ERIC en peligro: la mas importante base de datos de investigación educativa podría dejar de actualizarse esta semana

​Barshay, Jill. «Proof Points: A Treasure Trove of Education Reports and Studies Is Under Threat.» The Hechinger Report, April 21, 2025. https://hechingerreport.org/proof-points-eric-under-threat/

El centro de recursos educativos ERIC (Education Resources Information Center), una biblioteca pública digital con 2,1 millones de documentos educativos, podría dejar de actualizarse esta semana por falta de financiación. A pesar de tener un contrato vigente hasta 2028 y fondos ya autorizados por el Congreso, el Departamento de Eficiencia Gubernamental (DOGE) se ha negado a liberar el dinero necesario para su operación. ERIC, gestionado por el Departamento de Educación de EE.UU., es una herramienta esencial para investigadores, docentes y responsables de políticas educativas, comparable a PubMed en el campo de la salud.

Erin Pollard Young, la única empleada del Departamento de Educación dedicada a ERIC, fue despedida en marzo junto con otros 1.300 trabajadores. Antes de su salida, intentó recortar el presupuesto de ERIC a la mitad, como exigía DOGE, pero incluso esa propuesta fue rechazada. El contrato podría expirar el 23 de abril, lo que significaría que ya no se añadirían nuevos documentos al repositorio.

ERIC contiene artículos de revistas académicas, libros, informes gubernamentales y tesis doctorales, incluyendo una gran cantidad de «literatura gris» (estudios no publicados ni catalogados en bases privadas como EBSCO), lo que lo hace insustituible por herramientas como Google o IA.

Desde el Departamento de Educación han justificado los recortes con la necesidad de reestructurar el Instituto de Ciencias de la Educación (IES), del cual depende ERIC, acusándolo de ineficacia en la mejora de resultados educativos.

Pollard Young ha decidido hablar públicamente sobre la situación, a pesar del riesgo de represalias, para intentar salvar un recurso que ha sido clave para la investigación educativa durante más de 60 años.

Entrevista al músico ecuatoriano Jaime Martínez. Viviendo en la era pop 2025/04/18

Entrevista al músico ecuatoriano Jaime Martínez.

Viviendo en la era pop 2025/04/18

ESCUCHAR

Descargar

Jaime Martínez es un reconocido músico ecuatoriano cuya trayectoria abarca una amplia y prolífica discografía. Apasionado del arte y la literatura, ha dejado huella en la escena musical por su capacidad para reinventarse constantemente y explorar nuevas sonoridades. Su recorrido incluye la participación en numerosas bandas y proyectos, entre ellos Zuchos del Vado, El Funambulista Irrompible, Los Animales Lisérgicos, Los Reciénmuertitos, entre otros, moviéndose con soltura entre el rock, el punk y territorios más experimentales.

La mayoría de los libros prohibidos en Estados Unidos presentan a personas de color y personas LGBTQ+

Oladipo, Gloria. «Most Banned Books Feature People of Color and LGBTQ+ People, Report Finds.» The Guardian, February 27, 2025. https://www.theguardian.com/us-news/2025/feb/27/banned-books-people-of-color-lgbtq

Un estudio de PEN America ha revelado que la mayoría de los libros prohibidos en las escuelas públicas de EE. UU. durante el año escolar 2023-2024 trataban sobre personas de color, personas LGBTQ+ y otras demografías. El informe también refuta las afirmaciones de legisladores conservadores de que los libros prohibidos eran explícitamente sexuales, argumentando que, en realidad, el foco principal de la censura fue la representación de identidades marginadas.

Hubo más de 10.000 casos de libros prohibidos en el año escolar 2023-24, según PEN America, un aumento considerable respecto al año anterior, ya que los estados dirigidos por republicanos implementaron nuevas leyes de censura.

De los 4.218 títulos de libros prohibidos, 1.534, o el 36%, presentaban a personas de color, el grupo más censurado en las prohibiciones de libros. Algunos de los títulos retirados incluían la obra Fences, ganadora del Pulitzer de August Wilson, y el libro infantil A is for Activist de Innosanto Nagara, que trata sobre problemas sociales.

El informe encontró que los libros que presentaban a personas de color fueron desproporcionadamente atacados en todas las categorías de libros prohibidos, especialmente en los títulos históricos y biográficos eliminados. De esos libros prohibidos, el 44% incluían a personas de color; más de una cuarta parte, o el 26%, de esos libros presentaban a personas negras.

Los defensores de PEN America señalaron que, al mismo tiempo que se multiplicaban las prohibiciones de libros, más del 50% de los jóvenes en EE. UU. son niños de color, según datos de 2021 de la Children’s Defense Fund.

«Esta censura dirigida equivale a un ataque dañino a las poblaciones históricamente marginadas y subrepresentadas, un esfuerzo peligroso por borrar sus historias, logros e historia de las escuelas», dijo Sabrina Baêta, gerente senior del programa Freedom to Read de PEN America, en un comunicado de prensa sobre el informe. «Cuando despojamos a las estanterías de las bibliotecas de libros sobre ciertos grupos, estamos derrotando el propósito de una colección bibliográfica que debe reflejar la vida de todas las personas. Las consecuencias dañinas para los jóvenes son reales».

Los títulos que presentaban personajes LGBTQ+ también representaron una proporción considerable de las prohibiciones de libros: 1,066 libros, o el 25% de todos los títulos prohibidos, incluían personas LGBTQ+. Los personajes transgénero o genderqueer fueron específicamente atacados en estas prohibiciones de libros, ya que el 28% de los libros retirados que presentaban personajes LGBTQ+ incluían a esa demografía.

Más allá de las personas de color y las personas LGBTQ+, los libros que incluían personas con discapacidades también fueron afectados por las prohibiciones a nivel nacional. Aproximadamente el 10% de todos los títulos retirados incluían personajes con discapacidades físicas, de aprendizaje o del desarrollo, o que eran neurodivergentes. Varios de los libros afectados con personajes discapacitados se centraron en temas como «confianza, autoestima o experiencias con el capacitismo», según informó PEN America.

Mientras tanto, solo el 13% de los títulos eliminados incluían experiencias sexuales «en la página». Las experiencias sexuales implícitas o «fuera de la página» fueron mencionadas en el 31% de los libros prohibidos.

La gran mayoría de los libros prohibidos (85%) eran ficción, con un 14% de no ficción y un 1% de poesía. Aproximadamente el 67% de los libros eliminados eran para audiencias más jóvenes, según el informe de PEN America.

La continua prohibición de libros ocurre en un contexto en el que la administración Trump ha intensificado la represión de los esfuerzos de diversidad, equidad e inclusión (DEI) en las escuelas y universidades públicas de EE. UU. En un memorándum de la semana pasada, Trump amenazó con retener fondos federales de cualquier escuela que se negara a eliminar iniciativas de diversidad, como becas para estudiantes de ciertos grupos de identidad y programas escolares.

Un grupo de autores demandan a Meta por uso no autorizado de sus e-books en entrenamiento de IA

Wiggers, Kyle. «Law Professors Side with Authors Battling Meta in AI Copyright Case.» TechCrunch, April 11, 2025. https://techcrunch.com/2025/04/11/law-professors-side-with-authors-battling-meta-in-ai-copyright-case/

Un grupo de profesores especializados en derecho de autor ha presentado un informe amicus curiae en apoyo de los autores que están demandando a Meta, acusando a la empresa de entrenar sus modelos de inteligencia artificial Llama con libros electrónicos sin permiso.

El informe, presentado el viernes en el Tribunal de Distrito de los EE.UU. para el Distrito Norte de California, sostiene que la defensa de «uso legítimo» de Meta representa una solicitud exagerada de privilegios legales que nunca se han otorgado a los autores humanos.

Según el informe, el uso de obras con derechos de autor para entrenar modelos generativos no es «transformador», ya que no se diferencia de usar las obras para educar a autores humanos, que es uno de los propósitos originales de esas obras. Además, se argumenta que el uso tiene un propósito comercial, ya que permite la creación de trabajos que compiten directamente con las obras originales.

La Asociación Internacional de Editores Científicos, Técnicos y Médicos, junto con la Copyright Alliance y Association of American Publishers., también presentaron informes de apoyo a los autores.

En el caso Kadrey v. Meta, los autores Richard Kadrey, Sarah Silverman y Ta-Nehisi Coates acusan a Meta de violar sus derechos de propiedad intelectual al utilizar sus libros electrónicos para entrenar modelos y eliminar la información de derechos de autor para ocultar la infracción. Meta, por su parte, argumenta que su uso es legítimo y que el caso debe ser desestimado por falta de legitimación activa de los autores.

El juez del Tribunal de Distrito de EE. UU. Vince Chhabria permitió que el caso siguiera adelante, aunque desestimó parte de la demanda, señalando que la alegación de infracción de derechos de autor es suficiente para que los autores tengan legitimación para demandar.

Los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba

METR. «Measuring AI Ability to Complete Long TasksMETR, March 19, 2025. https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/?utm_source=superhuman&utm_medium=newsletter&utm_campaign=claude-finally-gets-search&_bhlid=a3d8e301d66bd7aba2dd5de5253b42c092fb3f57

Este enfoque destaca la necesidad de medir la capacidad de la IA no solo en términos de sus habilidades de predicción o conocimiento, sino también en la capacidad para realizar tareas complejas a lo largo del tiempo. Los resultados de este estudio tienen implicaciones significativas tanto para las predicciones sobre el futuro de la IA como para la gestión de riesgos asociados a su adopción.

Un estudio reciente ha revelado que los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba. El grupo de investigación METR ha descubierto que el tiempo que los Modelos de Lenguaje Grande (LLMs) pueden abordar tareas parece duplicarse cada siete meses, lo que es incluso más rápido que la Ley de Moore, que establece que la capacidad de los chips se duplica aproximadamente cada dos años.

Para ponerlo en perspectiva, el modelo Claude Sonnet 3.7 ahora puede realizar tareas que a los humanos les tomarían una hora, mientras que modelos como el GPT-4 de 2023 solo podían realizar tareas de cinco minutos, como buscar un hecho específico en la web. Modelos anteriores como el GPT-3.5 de 2022 solo podían hacer tareas que nos tomarían menos de un minuto, como recordar algo previamente conocido.

Si esta tendencia continúa, en uno o dos años los modelos de IA podrían ser capaces de realizar tareas de cuatro horas. Se espera que para 2029 la IA sea capaz de realizar tareas que le tomarían a los humanos un mes entero, como iniciar un negocio o hacer un nuevo descubrimiento científico. Sin embargo, dado que los LLMs son relativamente nuevos, solo se dispone de cuatro o cinco años de datos, por lo que estos resultados deben tomarse con cautela.

Repensar la forma de publicar para apoyar la ciencia abierta

Kiermer, Véronique, Alison Mudditt, and Niamh O’Connor. «Rethinking How We Publish to Support Open ScienceLeap: The Journal of Open Science 1, no. 1 (2025): 1-15. https://doi.org/10.1002/leap.2006

Se analiza cómo las publicaciones científicas pueden avanzar hacia un modelo que apoye la ciencia abierta. La clave de este cambio radica en ampliar la gama de contribuciones a la investigación que se muestran y reutilizan, lo cual permitirá una mayor diversidad de participantes y perspectivas, esenciales para una investigación confiable.

La llegada de la era digital ha transformado la manera en que creamos y consumimos información. En el ámbito de la investigación, este cambio abre nuevas oportunidades para practicar la ciencia abierta, permitiendo que una gama más amplia de contribuciones sea visibilizada y reutilizada. Aunque este avance se predijo cuando los primeros diarios aparecieron en línea, ha tardado más de lo esperado en materializarse. Los flujos de trabajo de la investigación han cambiado significativamente en las últimas décadas gracias a la capacidad de recopilar grandes cantidades de datos, analizarlos con más potencia computacional y colaborar en línea. Sin embargo, la publicación científica ha quedado rezagada. Aunque los artículos se procesan y distribuyen mayoritariamente de forma digital, los flujos de trabajo y conceptos fundamentales de la publicación siguen siendo vestigios de la era de la impresión.

Este estancamiento debe cambiar, ya que las revistas han servido históricamente como garantes de la calidad mediante la supervisión editorial y la revisión por pares. Sin embargo, las normas del siglo XX se basaban en un modelo que solo permitía la publicación de aquellos autores con credenciales conocidas. Este enfoque es obsoleto, y comunicar la investigación en la actualidad requiere una ampliación de esta visión. Es necesario repensar cómo evaluamos, compartimos y descubrimos la investigación, todo ello dentro de un ecosistema de ciencia abierta.

La importancia de la ciencia abierta

La ciencia abierta no se trata solo de hacer que un artículo sea accesible, sino de proporcionar el contexto necesario para comprenderlo, los recursos para replicar el trabajo y las herramientas para colaborar y mejorar la ciencia. Uno de los aspectos esenciales de la ciencia abierta es la ampliación de la participación en la creación, difusión y reutilización del conocimiento. Este modelo permite que más investigadores y otras partes interesadas se beneficien de la creación de conocimiento, algo que se alinea con el informe de la Academia Nacional de Ciencias de EE.UU., el cual señala que la ciencia realizada de manera abierta y transparente tiene más probabilidades de producir conocimientos confiables. La transparencia y la apertura son cruciales para garantizar que la investigación resista el escrutinio, así como para permitir que los mecanismos autocorrectivos de la ciencia funcionen eficazmente.

El informe de la UNESCO sobre Ciencia Abierta también refuerza este enfoque, al destacar la necesidad de diversidad en la participación, lo cual contribuye a una creación de conocimiento más confiable y efectiva. Para lograr una ciencia abierta efectiva, se deben abrir las puertas a una mayor variedad de perspectivas, tal como lo sugieren investigadores como Naomi Oreskes, quien defiende que la diversidad de comunidades de búsqueda de conocimiento es fundamental para alcanzar un conocimiento objetivo.

Obstáculos para la ciencia abierta

A pesar de los avances en el acceso abierto y las políticas de ciencia abierta, todavía existen importantes obstáculos. Uno de ellos radica en el hecho de que la publicación sigue centrada en los artículos, un vestigio del paradigma impreso que no valora de igual manera otros tipos de resultados de investigación, como los datos, los códigos y los protocolos. A pesar de que el porcentaje de artículos con declaraciones de disponibilidad de datos ha aumentado, la mayoría de los datos aún están disponibles solo «a solicitud» o a través de archivos de información adicional asociados a los artículos. El principal impedimento para compartir datos abiertos es la falta de reconocimiento y crédito para los investigadores que hacen estos datos accesibles. Para que la ciencia abierta se adopte de manera generalizada, es necesario que los diferentes tipos de resultados de investigación sean reconocidos, accesibles y acreditados adecuadamente.

Otro obstáculo importante es el modelo de negocio basado en las tarifas por publicación (APCs), que aunque ha facilitado el acceso abierto, excluye a muchos investigadores e instituciones que no pueden permitirse estos costos. A pesar de que se han implementado modelos no basados en APC, como el modelo de Publicación de Acción Comunitaria de PLOS, estos no son fácilmente escalables. Además, el modelo de APC sigue siendo dominante y muchas veces favorece a las grandes editoriales, perpetuando las desigualdades en el acceso al conocimiento.

El rol de los editores en la investigación

Los editores desempeñan un papel crucial en el ecosistema de la investigación, contribuyendo a la creación de conocimiento e innovación en varias etapas clave, como el financiamiento, la actividad investigadora, la difusión de los resultados y la innovación. A lo largo del ciclo de investigación, los editores facilitan la colaboración, el debate, la evaluación de calidad y la preservación de los resultados. Aunque el sistema de evaluación tradicional mediante revisión por pares sigue siendo importante, los editores deben adaptarse a nuevos modelos que respalden una ciencia abierta, permitiendo la vinculación y el descubrimiento de una variedad de contribuciones más allá de los artículos tradicionales.

Catalizando el cambio desde dentro de la publicación

El cambio hacia un modelo de ciencia abierta es un desafío complejo que requiere la colaboración de múltiples actores. PLOS, una organización pionera en este campo, ha comenzado un proyecto de Investigación y Diseño para definir los elementos clave de un nuevo modelo de publicación que se base en los principios de la ciencia abierta, con un modelo de negocio sostenible. Este proyecto incluye una consulta con diversos actores del ecosistema de investigación para garantizar que las soluciones propuestas sean inclusivas y accesibles para una amplia gama de investigadores e instituciones, especialmente en el contexto de las disparidades globales.

A través de esta iniciativa, PLOS espera catalizar un cambio sistémico en la publicación científica, promoviendo un modelo más inclusivo y accesible que permita la participación activa de más comunidades en la creación y difusión del conocimiento.

Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.

Los «golden oldies» de la ciencia: los trabajos de investigación de hace décadas que siguen siendo muy citados hoy

Van Noorden, Richard. «Science’s Golden Oldies: The Decades-Old Research Papers Still Heavily Cited TodayNature, April 15, 2025. https://doi.org/10.1038/d41586-025-01126-8

Supplementary information.

Se analiza cómo ciertos trabajos clave han mantenido su relevancia a lo largo del tiempo, destacando especialmente los más citados en los artículos publicados en 2023.

El análisis revela que, aunque muchas publicaciones recientes sobre inteligencia artificial (IA), software científico y métodos para mejorar la calidad de la investigación dominan hoy las listas de referencias, algunos estudios más antiguos continúan siendo referenciados con frecuencia. Entre ellos, se incluyen trabajos de los años 90, como el que describe una arquitectura temprana de redes neuronales llamada long short-term memory (LSTM) de 1997, que sigue siendo citado con frecuencia debido a su eficiencia en el procesamiento de datos.

También se destacan investigaciones sobre materiales publicadas en 1996 que, gracias a su innovador enfoque para calcular interacciones electrónicas en materiales, siguen siendo citadas en una proporción significativa. Un cuarto de las citas de este trabajo se han dado en los últimos dos años, mostrando cómo el impacto de investigaciones antiguas puede continuar creciendo a medida que nuevas generaciones de científicos las descubren y aplican.

El estudio muestra cómo algunas publicaciones, incluso décadas después de su publicación, siguen siendo fundamentales para el avance de la ciencia, gracias a su base teórica sólida y la continua aplicabilidad de sus descubrimientos. Esto subraya la importancia de identificar y reconocer las «piedras angulares» del conocimiento científico, independientemente de su antigüedad.

RankTitleNumber of Citations (Range)
1Deep residual learning for image recognition (2016)19,826–33,339
2Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide (2021)10,952–24,830
3Attention is all you need (2017)9,395–19,348
4Generalized gradient approximation made simple (1996)14,338–17,540
5Using thematic analysis in psychology (2006)10,660–17,347
6The PRISMA 2020 statement: an updated guideline for reporting systematic reviews (2021)13,115–13,443
7Analysis of relative gene expression data using real-time quantitative PCR and the 2−ΔΔCT method (2001)11,851–13,082
8Random forests (2001)6,266–12,294
9Efficient iterative schemes for ab initio total-energy calculations using a plane-wave basis set (1996)10,063–10,789
10Long short-term memory (1997)2,394–12,355

Fuente: Nature (2025).

Los artículos científicos más citados de todos los tiempos

Van Noorden, Richard. 2025. “These Are the Most-Cited Research Papers of All Time.” Nature, April 17, 2025. https://www.nature.com/articles/d41586-025-01124-w.

Nature ha actualizado su análisis sobre los trabajos científicos más citados de la historia, revelando que algunos han sido referenciados cientos de miles de veces. Esta revisión evidencia no solo el impacto de ciertas investigaciones, sino también cómo han evolucionado las tendencias en la producción científica y la citación a lo largo del tiempo.

Sorprendentemente, el artículo más citado no es ampliamente conocido entre la comunidad científica actual. Se trata de un trabajo de 1951 publicado en el Journal of Biological Chemistry, que describe un método para determinar la cantidad de proteínas en una solución. Este artículo ha sido citado más de 350.000 veces según el índice Web of Science (WoS), una base de datos que recopila 98 millones de publicaciones desde 1900.

Muchos de los artículos más citados están relacionados con técnicas de laboratorio en biología, lo que sugiere que los métodos ampliamente aplicables generan un impacto duradero. También figuran trabajos clave en inteligencia artificial (IA), software de investigación y métodos estadísticos.

La nueva clasificación actualiza una lista publicada por Nature en 2014, cuando los trabajos más citados eran herramientas de biología celular y molecular, principalmente de las décadas de 1950 y 1970. Desde entonces, alrededor de la mitad de los artículos en el top 100 han cambiado, debido al auge en las citas de trabajos más recientes. En 2014, eran necesarios unos 12.000 citas para entrar en el top 100. Hoy, hacen falta más de 30.000, lo que indica una inflación en el número de citas y el creciente volumen de publicaciones científicas.

Para este análisis, Nature también consultó otras dos grandes bases de datos de investigación: Dimensions y OpenAlex, cuyas versiones públicas permiten el análisis desde 1900. Aunque los rankings y recuentos de citas varían ligeramente entre bases, los artículos destacados son generalmente los mismos. La lista completa de los 100 más citados, con detalles sobre las diferencias entre bases, está disponible en el material suplementario del artículo.

Uno de los datos más llamativos es que un artículo de 2015 de investigadores de Microsoft, presentado en una conferencia sobre IA, ya ocupa el quinto lugar si se consideran los rankings medianos entre las tres bases de datos, y el séptimo solo en WoS. Esto muestra la velocidad con la que algunos artículos contemporáneos pueden acumular citas.

Actualmente, 16 artículos del siglo XXI se encuentran ya entre los 50 más citados de todos los tiempos, a pesar de su relativa juventud. Muchos de ellos están vinculados a desarrollos en software y al uso de la inteligencia artificial para acelerar el descubrimiento científico. Este fenómeno puede explicarse, según Paul Wouters (experto en cienciometría retirado de la Universidad de Leiden), por el aumento anual del número de publicaciones, lo que incrementa el volumen de referencias, así como por la mayor visibilidad de los trabajos científicos a través de Internet y las redes sociales.