Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

La mayoría de los libros prohibidos en Estados Unidos presentan a personas de color y personas LGBTQ+

Oladipo, Gloria. «Most Banned Books Feature People of Color and LGBTQ+ People, Report Finds.» The Guardian, February 27, 2025. https://www.theguardian.com/us-news/2025/feb/27/banned-books-people-of-color-lgbtq

Un estudio de PEN America ha revelado que la mayoría de los libros prohibidos en las escuelas públicas de EE. UU. durante el año escolar 2023-2024 trataban sobre personas de color, personas LGBTQ+ y otras demografías. El informe también refuta las afirmaciones de legisladores conservadores de que los libros prohibidos eran explícitamente sexuales, argumentando que, en realidad, el foco principal de la censura fue la representación de identidades marginadas.

Hubo más de 10.000 casos de libros prohibidos en el año escolar 2023-24, según PEN America, un aumento considerable respecto al año anterior, ya que los estados dirigidos por republicanos implementaron nuevas leyes de censura.

De los 4.218 títulos de libros prohibidos, 1.534, o el 36%, presentaban a personas de color, el grupo más censurado en las prohibiciones de libros. Algunos de los títulos retirados incluían la obra Fences, ganadora del Pulitzer de August Wilson, y el libro infantil A is for Activist de Innosanto Nagara, que trata sobre problemas sociales.

El informe encontró que los libros que presentaban a personas de color fueron desproporcionadamente atacados en todas las categorías de libros prohibidos, especialmente en los títulos históricos y biográficos eliminados. De esos libros prohibidos, el 44% incluían a personas de color; más de una cuarta parte, o el 26%, de esos libros presentaban a personas negras.

Los defensores de PEN America señalaron que, al mismo tiempo que se multiplicaban las prohibiciones de libros, más del 50% de los jóvenes en EE. UU. son niños de color, según datos de 2021 de la Children’s Defense Fund.

«Esta censura dirigida equivale a un ataque dañino a las poblaciones históricamente marginadas y subrepresentadas, un esfuerzo peligroso por borrar sus historias, logros e historia de las escuelas», dijo Sabrina Baêta, gerente senior del programa Freedom to Read de PEN America, en un comunicado de prensa sobre el informe. «Cuando despojamos a las estanterías de las bibliotecas de libros sobre ciertos grupos, estamos derrotando el propósito de una colección bibliográfica que debe reflejar la vida de todas las personas. Las consecuencias dañinas para los jóvenes son reales».

Los títulos que presentaban personajes LGBTQ+ también representaron una proporción considerable de las prohibiciones de libros: 1,066 libros, o el 25% de todos los títulos prohibidos, incluían personas LGBTQ+. Los personajes transgénero o genderqueer fueron específicamente atacados en estas prohibiciones de libros, ya que el 28% de los libros retirados que presentaban personajes LGBTQ+ incluían a esa demografía.

Más allá de las personas de color y las personas LGBTQ+, los libros que incluían personas con discapacidades también fueron afectados por las prohibiciones a nivel nacional. Aproximadamente el 10% de todos los títulos retirados incluían personajes con discapacidades físicas, de aprendizaje o del desarrollo, o que eran neurodivergentes. Varios de los libros afectados con personajes discapacitados se centraron en temas como «confianza, autoestima o experiencias con el capacitismo», según informó PEN America.

Mientras tanto, solo el 13% de los títulos eliminados incluían experiencias sexuales «en la página». Las experiencias sexuales implícitas o «fuera de la página» fueron mencionadas en el 31% de los libros prohibidos.

La gran mayoría de los libros prohibidos (85%) eran ficción, con un 14% de no ficción y un 1% de poesía. Aproximadamente el 67% de los libros eliminados eran para audiencias más jóvenes, según el informe de PEN America.

La continua prohibición de libros ocurre en un contexto en el que la administración Trump ha intensificado la represión de los esfuerzos de diversidad, equidad e inclusión (DEI) en las escuelas y universidades públicas de EE. UU. En un memorándum de la semana pasada, Trump amenazó con retener fondos federales de cualquier escuela que se negara a eliminar iniciativas de diversidad, como becas para estudiantes de ciertos grupos de identidad y programas escolares.

Un grupo de autores demandan a Meta por uso no autorizado de sus e-books en entrenamiento de IA

Wiggers, Kyle. «Law Professors Side with Authors Battling Meta in AI Copyright Case.» TechCrunch, April 11, 2025. https://techcrunch.com/2025/04/11/law-professors-side-with-authors-battling-meta-in-ai-copyright-case/

Un grupo de profesores especializados en derecho de autor ha presentado un informe amicus curiae en apoyo de los autores que están demandando a Meta, acusando a la empresa de entrenar sus modelos de inteligencia artificial Llama con libros electrónicos sin permiso.

El informe, presentado el viernes en el Tribunal de Distrito de los EE.UU. para el Distrito Norte de California, sostiene que la defensa de «uso legítimo» de Meta representa una solicitud exagerada de privilegios legales que nunca se han otorgado a los autores humanos.

Según el informe, el uso de obras con derechos de autor para entrenar modelos generativos no es «transformador», ya que no se diferencia de usar las obras para educar a autores humanos, que es uno de los propósitos originales de esas obras. Además, se argumenta que el uso tiene un propósito comercial, ya que permite la creación de trabajos que compiten directamente con las obras originales.

La Asociación Internacional de Editores Científicos, Técnicos y Médicos, junto con la Copyright Alliance y Association of American Publishers., también presentaron informes de apoyo a los autores.

En el caso Kadrey v. Meta, los autores Richard Kadrey, Sarah Silverman y Ta-Nehisi Coates acusan a Meta de violar sus derechos de propiedad intelectual al utilizar sus libros electrónicos para entrenar modelos y eliminar la información de derechos de autor para ocultar la infracción. Meta, por su parte, argumenta que su uso es legítimo y que el caso debe ser desestimado por falta de legitimación activa de los autores.

El juez del Tribunal de Distrito de EE. UU. Vince Chhabria permitió que el caso siguiera adelante, aunque desestimó parte de la demanda, señalando que la alegación de infracción de derechos de autor es suficiente para que los autores tengan legitimación para demandar.

Los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba

METR. «Measuring AI Ability to Complete Long TasksMETR, March 19, 2025. https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/?utm_source=superhuman&utm_medium=newsletter&utm_campaign=claude-finally-gets-search&_bhlid=a3d8e301d66bd7aba2dd5de5253b42c092fb3f57

Este enfoque destaca la necesidad de medir la capacidad de la IA no solo en términos de sus habilidades de predicción o conocimiento, sino también en la capacidad para realizar tareas complejas a lo largo del tiempo. Los resultados de este estudio tienen implicaciones significativas tanto para las predicciones sobre el futuro de la IA como para la gestión de riesgos asociados a su adopción.

Un estudio reciente ha revelado que los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba. El grupo de investigación METR ha descubierto que el tiempo que los Modelos de Lenguaje Grande (LLMs) pueden abordar tareas parece duplicarse cada siete meses, lo que es incluso más rápido que la Ley de Moore, que establece que la capacidad de los chips se duplica aproximadamente cada dos años.

Para ponerlo en perspectiva, el modelo Claude Sonnet 3.7 ahora puede realizar tareas que a los humanos les tomarían una hora, mientras que modelos como el GPT-4 de 2023 solo podían realizar tareas de cinco minutos, como buscar un hecho específico en la web. Modelos anteriores como el GPT-3.5 de 2022 solo podían hacer tareas que nos tomarían menos de un minuto, como recordar algo previamente conocido.

Si esta tendencia continúa, en uno o dos años los modelos de IA podrían ser capaces de realizar tareas de cuatro horas. Se espera que para 2029 la IA sea capaz de realizar tareas que le tomarían a los humanos un mes entero, como iniciar un negocio o hacer un nuevo descubrimiento científico. Sin embargo, dado que los LLMs son relativamente nuevos, solo se dispone de cuatro o cinco años de datos, por lo que estos resultados deben tomarse con cautela.

Repensar la forma de publicar para apoyar la ciencia abierta

Kiermer, Véronique, Alison Mudditt, and Niamh O’Connor. «Rethinking How We Publish to Support Open ScienceLeap: The Journal of Open Science 1, no. 1 (2025): 1-15. https://doi.org/10.1002/leap.2006

Se analiza cómo las publicaciones científicas pueden avanzar hacia un modelo que apoye la ciencia abierta. La clave de este cambio radica en ampliar la gama de contribuciones a la investigación que se muestran y reutilizan, lo cual permitirá una mayor diversidad de participantes y perspectivas, esenciales para una investigación confiable.

La llegada de la era digital ha transformado la manera en que creamos y consumimos información. En el ámbito de la investigación, este cambio abre nuevas oportunidades para practicar la ciencia abierta, permitiendo que una gama más amplia de contribuciones sea visibilizada y reutilizada. Aunque este avance se predijo cuando los primeros diarios aparecieron en línea, ha tardado más de lo esperado en materializarse. Los flujos de trabajo de la investigación han cambiado significativamente en las últimas décadas gracias a la capacidad de recopilar grandes cantidades de datos, analizarlos con más potencia computacional y colaborar en línea. Sin embargo, la publicación científica ha quedado rezagada. Aunque los artículos se procesan y distribuyen mayoritariamente de forma digital, los flujos de trabajo y conceptos fundamentales de la publicación siguen siendo vestigios de la era de la impresión.

Este estancamiento debe cambiar, ya que las revistas han servido históricamente como garantes de la calidad mediante la supervisión editorial y la revisión por pares. Sin embargo, las normas del siglo XX se basaban en un modelo que solo permitía la publicación de aquellos autores con credenciales conocidas. Este enfoque es obsoleto, y comunicar la investigación en la actualidad requiere una ampliación de esta visión. Es necesario repensar cómo evaluamos, compartimos y descubrimos la investigación, todo ello dentro de un ecosistema de ciencia abierta.

La importancia de la ciencia abierta

La ciencia abierta no se trata solo de hacer que un artículo sea accesible, sino de proporcionar el contexto necesario para comprenderlo, los recursos para replicar el trabajo y las herramientas para colaborar y mejorar la ciencia. Uno de los aspectos esenciales de la ciencia abierta es la ampliación de la participación en la creación, difusión y reutilización del conocimiento. Este modelo permite que más investigadores y otras partes interesadas se beneficien de la creación de conocimiento, algo que se alinea con el informe de la Academia Nacional de Ciencias de EE.UU., el cual señala que la ciencia realizada de manera abierta y transparente tiene más probabilidades de producir conocimientos confiables. La transparencia y la apertura son cruciales para garantizar que la investigación resista el escrutinio, así como para permitir que los mecanismos autocorrectivos de la ciencia funcionen eficazmente.

El informe de la UNESCO sobre Ciencia Abierta también refuerza este enfoque, al destacar la necesidad de diversidad en la participación, lo cual contribuye a una creación de conocimiento más confiable y efectiva. Para lograr una ciencia abierta efectiva, se deben abrir las puertas a una mayor variedad de perspectivas, tal como lo sugieren investigadores como Naomi Oreskes, quien defiende que la diversidad de comunidades de búsqueda de conocimiento es fundamental para alcanzar un conocimiento objetivo.

Obstáculos para la ciencia abierta

A pesar de los avances en el acceso abierto y las políticas de ciencia abierta, todavía existen importantes obstáculos. Uno de ellos radica en el hecho de que la publicación sigue centrada en los artículos, un vestigio del paradigma impreso que no valora de igual manera otros tipos de resultados de investigación, como los datos, los códigos y los protocolos. A pesar de que el porcentaje de artículos con declaraciones de disponibilidad de datos ha aumentado, la mayoría de los datos aún están disponibles solo «a solicitud» o a través de archivos de información adicional asociados a los artículos. El principal impedimento para compartir datos abiertos es la falta de reconocimiento y crédito para los investigadores que hacen estos datos accesibles. Para que la ciencia abierta se adopte de manera generalizada, es necesario que los diferentes tipos de resultados de investigación sean reconocidos, accesibles y acreditados adecuadamente.

Otro obstáculo importante es el modelo de negocio basado en las tarifas por publicación (APCs), que aunque ha facilitado el acceso abierto, excluye a muchos investigadores e instituciones que no pueden permitirse estos costos. A pesar de que se han implementado modelos no basados en APC, como el modelo de Publicación de Acción Comunitaria de PLOS, estos no son fácilmente escalables. Además, el modelo de APC sigue siendo dominante y muchas veces favorece a las grandes editoriales, perpetuando las desigualdades en el acceso al conocimiento.

El rol de los editores en la investigación

Los editores desempeñan un papel crucial en el ecosistema de la investigación, contribuyendo a la creación de conocimiento e innovación en varias etapas clave, como el financiamiento, la actividad investigadora, la difusión de los resultados y la innovación. A lo largo del ciclo de investigación, los editores facilitan la colaboración, el debate, la evaluación de calidad y la preservación de los resultados. Aunque el sistema de evaluación tradicional mediante revisión por pares sigue siendo importante, los editores deben adaptarse a nuevos modelos que respalden una ciencia abierta, permitiendo la vinculación y el descubrimiento de una variedad de contribuciones más allá de los artículos tradicionales.

Catalizando el cambio desde dentro de la publicación

El cambio hacia un modelo de ciencia abierta es un desafío complejo que requiere la colaboración de múltiples actores. PLOS, una organización pionera en este campo, ha comenzado un proyecto de Investigación y Diseño para definir los elementos clave de un nuevo modelo de publicación que se base en los principios de la ciencia abierta, con un modelo de negocio sostenible. Este proyecto incluye una consulta con diversos actores del ecosistema de investigación para garantizar que las soluciones propuestas sean inclusivas y accesibles para una amplia gama de investigadores e instituciones, especialmente en el contexto de las disparidades globales.

A través de esta iniciativa, PLOS espera catalizar un cambio sistémico en la publicación científica, promoviendo un modelo más inclusivo y accesible que permita la participación activa de más comunidades en la creación y difusión del conocimiento.

Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.

Los «golden oldies» de la ciencia: los trabajos de investigación de hace décadas que siguen siendo muy citados hoy

Van Noorden, Richard. «Science’s Golden Oldies: The Decades-Old Research Papers Still Heavily Cited TodayNature, April 15, 2025. https://doi.org/10.1038/d41586-025-01126-8

Supplementary information.

Se analiza cómo ciertos trabajos clave han mantenido su relevancia a lo largo del tiempo, destacando especialmente los más citados en los artículos publicados en 2023.

El análisis revela que, aunque muchas publicaciones recientes sobre inteligencia artificial (IA), software científico y métodos para mejorar la calidad de la investigación dominan hoy las listas de referencias, algunos estudios más antiguos continúan siendo referenciados con frecuencia. Entre ellos, se incluyen trabajos de los años 90, como el que describe una arquitectura temprana de redes neuronales llamada long short-term memory (LSTM) de 1997, que sigue siendo citado con frecuencia debido a su eficiencia en el procesamiento de datos.

También se destacan investigaciones sobre materiales publicadas en 1996 que, gracias a su innovador enfoque para calcular interacciones electrónicas en materiales, siguen siendo citadas en una proporción significativa. Un cuarto de las citas de este trabajo se han dado en los últimos dos años, mostrando cómo el impacto de investigaciones antiguas puede continuar creciendo a medida que nuevas generaciones de científicos las descubren y aplican.

El estudio muestra cómo algunas publicaciones, incluso décadas después de su publicación, siguen siendo fundamentales para el avance de la ciencia, gracias a su base teórica sólida y la continua aplicabilidad de sus descubrimientos. Esto subraya la importancia de identificar y reconocer las «piedras angulares» del conocimiento científico, independientemente de su antigüedad.

RankTitleNumber of Citations (Range)
1Deep residual learning for image recognition (2016)19,826–33,339
2Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide (2021)10,952–24,830
3Attention is all you need (2017)9,395–19,348
4Generalized gradient approximation made simple (1996)14,338–17,540
5Using thematic analysis in psychology (2006)10,660–17,347
6The PRISMA 2020 statement: an updated guideline for reporting systematic reviews (2021)13,115–13,443
7Analysis of relative gene expression data using real-time quantitative PCR and the 2−ΔΔCT method (2001)11,851–13,082
8Random forests (2001)6,266–12,294
9Efficient iterative schemes for ab initio total-energy calculations using a plane-wave basis set (1996)10,063–10,789
10Long short-term memory (1997)2,394–12,355

Fuente: Nature (2025).

Los artículos científicos más citados de todos los tiempos

Van Noorden, Richard. 2025. “These Are the Most-Cited Research Papers of All Time.” Nature, April 17, 2025. https://www.nature.com/articles/d41586-025-01124-w.

Nature ha actualizado su análisis sobre los trabajos científicos más citados de la historia, revelando que algunos han sido referenciados cientos de miles de veces. Esta revisión evidencia no solo el impacto de ciertas investigaciones, sino también cómo han evolucionado las tendencias en la producción científica y la citación a lo largo del tiempo.

Sorprendentemente, el artículo más citado no es ampliamente conocido entre la comunidad científica actual. Se trata de un trabajo de 1951 publicado en el Journal of Biological Chemistry, que describe un método para determinar la cantidad de proteínas en una solución. Este artículo ha sido citado más de 350.000 veces según el índice Web of Science (WoS), una base de datos que recopila 98 millones de publicaciones desde 1900.

Muchos de los artículos más citados están relacionados con técnicas de laboratorio en biología, lo que sugiere que los métodos ampliamente aplicables generan un impacto duradero. También figuran trabajos clave en inteligencia artificial (IA), software de investigación y métodos estadísticos.

La nueva clasificación actualiza una lista publicada por Nature en 2014, cuando los trabajos más citados eran herramientas de biología celular y molecular, principalmente de las décadas de 1950 y 1970. Desde entonces, alrededor de la mitad de los artículos en el top 100 han cambiado, debido al auge en las citas de trabajos más recientes. En 2014, eran necesarios unos 12.000 citas para entrar en el top 100. Hoy, hacen falta más de 30.000, lo que indica una inflación en el número de citas y el creciente volumen de publicaciones científicas.

Para este análisis, Nature también consultó otras dos grandes bases de datos de investigación: Dimensions y OpenAlex, cuyas versiones públicas permiten el análisis desde 1900. Aunque los rankings y recuentos de citas varían ligeramente entre bases, los artículos destacados son generalmente los mismos. La lista completa de los 100 más citados, con detalles sobre las diferencias entre bases, está disponible en el material suplementario del artículo.

Uno de los datos más llamativos es que un artículo de 2015 de investigadores de Microsoft, presentado en una conferencia sobre IA, ya ocupa el quinto lugar si se consideran los rankings medianos entre las tres bases de datos, y el séptimo solo en WoS. Esto muestra la velocidad con la que algunos artículos contemporáneos pueden acumular citas.

Actualmente, 16 artículos del siglo XXI se encuentran ya entre los 50 más citados de todos los tiempos, a pesar de su relativa juventud. Muchos de ellos están vinculados a desarrollos en software y al uso de la inteligencia artificial para acelerar el descubrimiento científico. Este fenómeno puede explicarse, según Paul Wouters (experto en cienciometría retirado de la Universidad de Leiden), por el aumento anual del número de publicaciones, lo que incrementa el volumen de referencias, así como por la mayor visibilidad de los trabajos científicos a través de Internet y las redes sociales.

Los 25 artículos científicos más citados desde el año 2000 tienen que ver con métodos, revisiones o software

Pearson, Helen, Heidi Ledford, Matthew Hutson, y Richard Van Noorden. “Exclusive: The Most-Cited Papers of the Twenty-First Century.Nature, April 10, 2025. https://www.nature.com/articles/d41586-025-01125-9.​

Las citas en la literatura científica son una manera de reconocer el uso e influencia de investigaciones previas. Sin embargo, los artículos más citados no suelen ser los más conocidos por el público general, sino que tienden a ser herramientas metodológicas, revisiones sistemáticas o descripciones de software ampliamente utilizado. Según Misha Teplitskiy, sociólogo de la Universidad de Míchigan, aunque los científicos afirman valorar teorías y descubrimientos empíricos, lo que realmente citan con más frecuencia son los métodos.

La revista Nature ha realizado un análisis exhaustivo sobre los 25 artículos científicos más citados desde el año 2000, revelando qué estudios han tenido mayor impacto medido por el número de citas, y por qué han alcanzado tal relevancia. Sorprendentemente, muchos de los artículos más citados no están relacionados con los descubrimientos más espectaculares —como las vacunas de ARNm, CRISPR, el bosón de Higgs o las ondas gravitacionales—, sino con métodos, software, estadísticas y herramientas que sustentan el trabajo científico diario.

El artículo más citado, según la media de cinco bases de datos académicas (Web of Science, Scopus, OpenAlex, Dimensions y Google Scholar), es un trabajo de 2016 de investigadores de Microsoft sobre aprendizaje residual profundo (ResNet), una arquitectura de red neuronal con más de 150 capas. Esta innovación resolvió problemas de entrenamiento en redes muy profundas y allanó el camino para avances como AlphaGo, AlphaFold o ChatGPT. Dependiendo de la base de datos, sus citas oscilan entre 103.000 y más de 250.000.

Rank (median)CitationTimes Cited (range across databases)
1Deep residual learning for image recognition (2016, preprint 2015)103.756–254,074
2Analysis of relative gene expression data using real-time quantitative PCR and the 2–ΔΔCT method (2001)149.953–185,480
3Using thematic analysis in psychology (2006)100.327–230,391
4Diagnostic and Statistical Manual of Mental Disorders, DSM-5 (2013)98,312–367,800
5A short history of SHELX (2007)76.523–99,470
6Random forests (2001)31.809–146,508
7Attention is all you need (2017)56.201–150,832
8ImageNet classification with deep convolutional neural networks (2017)46.860–137,997
9Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2020)75.634–99,390
10Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries (2016)66.844–93,433

Supplementary information

Otros artículos destacados incluyen el DSM-5 (manual diagnóstico de psiquiatría), el algoritmo de Random Forests (utilizado en machine learning), y GLOBOCAN, un informe bianual de la OMS sobre estadísticas globales de cáncer.

Los artículos sobre IA dominan el ranking. El trabajo de Hinton en 2012 sobre AlexNet, que revolucionó el reconocimiento de imágenes, ocupa el puesto 8. El artículo de 2017 “Attention is all you need”, que introdujo la arquitectura transformer que impulsa modelos de lenguaje como ChatGPT, está en el puesto 7. El artículo sobre Random Forests, método estadístico muy utilizado y accesible, está en el puesto 6.

La comunidad de IA también se ha beneficiado de la cultura del código abierto y del uso extendido de preprints, aunque muchas bases de datos aún no integran adecuadamente las citas entre versiones preliminares y artículos revisados.

Muchos artículos populares describen software científico. Uno de ellos es el artículo sobre SHELX (puesto 5), un conjunto de programas para determinar estructuras moleculares mediante difracción de rayos X, escrito por George Sheldrick. Otro caso es DESeq2, software para analizar datos de secuenciación de ARN (puesto 18). Estos artículos se citan por su utilidad más que por su novedad teórica.

El caso del artículo en el puesto 2 es paradigmático: Thomas Schmittgen publicó el método 2–ΔΔCT porque un revisor le dijo que no podía citar un manual técnico. Hoy acumula más de 160.000 citas.

Los informes GLOBOCAN de 2018 y 2020 están entre los diez primeros. Son herramientas esenciales para investigadores y responsables de políticas públicas. Otro trabajo clave (puesto 19) es el artículo sobre las “marcas distintivas del cáncer” (hallmarks of cancer), que ayudó a estructurar la investigación oncológica contemporánea.

El análisis muestra que el impacto en la ciencia no depende solo de grandes descubrimientos, sino de herramientas que permiten a otros investigar con más precisión, fiabilidad y alcance. El auge de la inteligencia artificial, el desarrollo de software y los métodos estadísticos dominan las citas, destacando cómo la ciencia avanza no solo por lo que descubre, sino por cómo lo hace.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

La transformación inminente de la investigación: enfrentando el iceberg de la inteligencia artificial

Daley, Mark. «What We Really Need Is a ‘Deck Chair Configuration’ Committee… Facing the Uncomfortable AI Research Iceberg Noetic Engines, February 11, 2025. https://noeticengines.substack.com/p/what-we-really-need-is-a-deck-chair

Se aborda de manera crítica la tendencia actual en la investigación sobre la inteligencia artificial (IA), que se ha centrado en adoptar la IA de forma incremental, mejorando herramientas existentes, como la corrección de textos o la gestión de referencias. Aunque estas mejoras son útiles, Daley argumenta que estas pequeñas modificaciones son apenas la punta del iceberg de lo que la IA puede ofrecer en el ámbito de la investigación, y que en realidad estamos al borde de una transformación mucho más profunda.

Daley menciona el estudio Wiley ExplanAItions, que concluye que en un par de años, la IA ayudará a los investigadores a realizar tareas como resumir artículos más rápidamente o generar citas más precisas. Sin embargo, esta visión de la IA se queda corta al no considerar los avances que ya están ocurriendo. Según el autor, la verdadera revolución no está solo en mejorar las herramientas actuales, sino en que la IA está avanzando hacia un futuro en el que será capaz de ejecutar todo el proceso de investigación de manera autónoma en ciertos campos. Esto incluye la capacidad de generar nuevas hipótesis, diseñar y realizar experimentos complejos, analizar los datos y generar conclusiones escritas que podrían ser sometidas a una revisión por pares.

El autor resalta que este cambio ya es una realidad, mencionando ejemplos concretos, como el uso de la IA o1-pro en la investigación económica, que permitió a un investigador realizar un trabajo con suficiente novedad y mérito para ser publicado en una revista científica. Además, se menciona cómo otras aplicaciones de IA ya están escribiendo tesis de doctorado, lo que implica que las herramientas de IA no solo están mejorando la eficiencia de los investigadores, sino que están comenzando a reemplazar ciertas habilidades humanas clave en el proceso de investigación.

Daley advierte que centrarse únicamente en soluciones a corto plazo, como la mejora de la corrección de citas, sin tener en cuenta el potencial transformador de la IA, es comparable a centrarse en la mejora de un establo de caballos cuando los automóviles están a punto de hacer obsoleta esa industria. En su opinión, la IA está avanzando rápidamente más allá de tareas secundarias y está comenzando a asumir tareas que históricamente solo podían ser realizadas por seres humanos, como la formulación de hipótesis y el diseño de experimentos.

En cuanto a las implicaciones éticas, el artículo menciona la necesidad de replantear la forma en que la academia aborda la IA. Aunque los investigadores y líderes académicos a menudo subestiman la velocidad y el impacto de estos cambios, Daley subraya que esperar hasta que la IA esté realizando investigaciones completas será un error, ya que para ese momento podría ser demasiado tarde para desarrollar políticas y estructuras adecuadas que garanticen la integridad académica y la calidad de la investigación.

Finalmente, Daley hace una llamada a la acción por parte de la academia. En lugar de conformarse con pequeños avances y adaptaciones, el autor insta a los académicos a prepararse para una transformación profunda de la investigación científica. Esto no significa que los investigadores humanos desaparezcan, sino que deberán adaptarse y trabajar junto con la IA de una manera más integral. La clave será anticiparse a los cambios y reestructurar cómo se lleva a cabo, se evalúa y se recompensa la investigación en este nuevo ecosistema impulsado por la IA.