Archivo de la categoría: Investigación

Las mejores herramientas de IA para la investigación (Guía de Nature)

Van Noorden, Richard, y Timothy Perkel. «AI’s Growing Role in ScienceNature, 2025. https://www.nature.com/articles/d41586-025-00437-0

Las herramientas de inteligencia artificial (IA) están cambiando la investigación científica, con modelos como ChatGPT y DeepSeek facilitando tareas como la redacción y la resolución de problemas complejos. Llama es popular por su adaptabilidad en simulaciones científicas, mientras que Claude destaca en codificación. OLMo, por su parte, ofrece total transparencia en su funcionamiento.

Las herramientas de inteligencia artificial (IA) generativa están revolucionando el panorama de la investigación, ofreciendo una amplia variedad de modelos de lenguaje (LLM) para diferentes tareas. Desde la escritura de códigos hasta la generación de hipótesis o la edición de manuscritos, los investigadores ahora tienen acceso a más herramientas que nunca.

OpenAI y sus modelos de razonamiento
OpenAI, con sede en San Francisco, lanzó su chatbot ChatGPT en 2022, y desde entonces ha desarrollado modelos avanzados como o1 y o3, diseñados para realizar razonamientos paso a paso. Estos modelos sobresalen en tareas como la resolución de problemas matemáticos y la depuración de código. Recientemente, OpenAI introdujo el o3-mini, una versión más rápida y accesible de su modelo de razonamiento, y ‘deep research’, una herramienta que permite generar informes sintéticos de información con citas de múltiples sitios web. Aunque potentes, estos modelos siguen siendo propensos a errores y no pueden reemplazar completamente a un investigador humano.

DeepSeek: el modelo versátil
La empresa china DeepSeek lanzó su modelo DeepSeek-R1, que se destaca por su bajo costo y la capacidad de personalizarse para proyectos de investigación específicos. A diferencia de los modelos de OpenAI, DeepSeek-R1 es de «peso abierto», lo que permite a los investigadores adaptarlo a sus necesidades. Es especialmente útil para tareas como problemas matemáticos y generación de hipótesis. Sin embargo, presenta desventajas como un proceso de pensamiento lento y preocupaciones sobre la seguridad de los datos introducidos.

Llama: el caballo de batalla
Llama, desarrollado por Meta AI, es otro modelo popular entre los investigadores, especialmente por su disponibilidad de código abierto, lo que permite a los usuarios adaptarlo para tareas específicas. Ha sido utilizado en simulaciones de computadoras cuánticas y para predecir estructuras cristalinas de materiales. A pesar de que requiere permisos para su uso, es ampliamente adoptado por la comunidad científica, que valora su accesibilidad y adaptabilidad.

Claude: el experto en codificación
El modelo Claude 3.5 Sonnet de la firma Anthropic, basado en Silicon Valley, es altamente apreciado por su habilidad para escribir código y manejar información visual, como gráficos y tablas. Además, su capacidad para mantener el estilo técnico en la escritura lo hace útil para tareas como la redacción de propuestas de subvenciones y la anotación de códigos. Aunque su uso completo requiere acceso a una API de pago, se valora por su rendimiento en desafíos de codificación.

OLMo: la transparencia total
OLMo 2 es un modelo de código abierto que ofrece una transparencia total, permitiendo a los investigadores examinar tanto los datos de entrenamiento como los algoritmos utilizados para desarrollar el modelo. Este nivel de transparencia es valioso para entender sesgos en los resultados y mejorar la eficiencia del modelo. Sin embargo, su uso requiere conocimientos técnicos, aunque los cursos gratuitos están reduciendo las barreras de entrada.

En general, la IA generativa está transformando la investigación científica, pero la elección del modelo adecuado depende de las necesidades del investigador y los recursos disponibles. Aunque estas herramientas prometen avances significativos, su implementación aún enfrenta desafíos como la supervisión humana y la protección de datos sensibles.

Preparando los ecosistemas nacionales de investigación para la IA

International Science Council. Preparing National Research Ecosystems for AI – Second Edition (2025). Paris: The International Science Council, 2025.

Texto completo

¿Cómo influirá el uso creciente de la IA en la asignación de fondos para la investigación? ¿Qué estándares de datos de investigación evolucionarán? ¿Cómo cambiará la IA la naturaleza de los resultados científicos? ¿Cómo evolucionarán las carreras científicas con el aumento del uso de la IA en la investigación? ¿Qué inversiones en infraestructuras se requieren para el éxito de la IA en el sector científico? ¿Qué ajustes legales son necesarios para permitir el uso de la IA en la investigación, asegurando altos estándares en la conducta responsable de la ciencia? ¿Cómo afectará la IA las colaboraciones internacionales en investigación?

La noción dominante que se comunica sobre la influencia de la inteligencia artificial (IA) es su capacidad para cambiarlo todo en todos los sectores, incluida la ciencia. Más allá de las promesas de nuevos avances en diferentes campos de investigación, están surgiendo una serie de preguntas críticas sobre el impacto de la IA en la documentación, financiación e informes de la ciencia.

Las discusiones en torno a estas preguntas son cruciales para el futuro de la ciencia y los sistemas de investigación. Las instituciones de investigación y los ministerios están comenzando a abordarlas, aunque con recursos limitados para guiarlos. Como muestra este estudio, sigue existiendo una notable falta de literatura comprensiva sobre el impacto de la IA en los aspectos estructurales de la ciencia y la investigación.

Varios países han desarrollado estrategias generales de IA para establecer sus planes y aspiraciones en cuanto al desarrollo e implementación de la IA en diferentes sectores. A pesar de las implicaciones inmediatas y significativas de estas estrategias para la ciencia y la investigación, estos documentos generalmente solo ofrecen declaraciones generales sobre la participación de las instituciones científicas y de investigación en la ejecución de los planes nacionales, sin profundizar en las implicaciones concretas.

Esto no sugiere que los países estén inactivos. Al contrario, se están formando asociaciones, lanzando iniciativas de capacitación, estableciendo infraestructuras e implementando políticas. Sin embargo, las personas en los ministerios gubernamentales, universidades y empresas de consultoría encargadas de preparar el entorno de investigación para la IA están trabajando en gran medida con especulaciones sobre los principales desafíos y tienen una visión limitada sobre los enfoques adoptados por países de tamaño y capacidad similares.

Los marcos que delinean los problemas clave para que los países consideren al planificar la integración de la IA en sus ecosistemas de investigación pueden ser de gran ayuda en esta etapa crítica. Este documento de trabajo ofrece uno de estos marcos, derivado de un análisis de la literatura existente.

La segunda edición del documento presenta un total de 18 estudios de caso de países de diferentes tamaños y regiones, elaborados por personas directamente involucradas en estas discusiones en sus respectivos países. Este documento es una expansión de la edición anterior publicada en marzo de 2024.

Es importante considerar las circunstancias de países de diversos tamaños, que también son grandes contribuyentes a los avances científicos, en lugar de centrarse únicamente en las grandes potencias de la IA. Se buscó deliberadamente obtener información sobre cómo los países pequeños y medianos están preparando sus ecosistemas de investigación para la adopción de la IA.

Este documento de trabajo tiene como objetivo:

  • Recopilar conocimientos e información sobre los problemas y los esfuerzos actuales para preparar los sistemas de ciencia e investigación para la IA.
  • Ayudar a los países a desarrollar hojas de ruta para la adopción de la IA en sus sistemas científicos.
  • Crear redes regionales y globales de personas involucradas en la reflexión sobre la adaptación e implementación de la IA para la ciencia.
  • Sensibilizar y ayudar a dar forma a una discusión crítica entre las comunidades científicas y políticas sobre los problemas cruciales que plantea la IA para la organización de la ciencia y la investigación.

El desarrollo del documento de trabajo se benefició de un taller convocado en octubre de 2023 en Kuala Lumpur, Malasia, y un taller en Santiago de Chile, Chile, en abril de 2024, que reunió a participantes de alrededor de 12 países de cada región de Asia y el Pacífico, y América Latina y el Caribe. Las contribuciones de algunos países que participaron en los talleres se han incorporado a la segunda versión del documento. La coordinación de los talleres fue generosamente apoyada por la Academia Australiana de Ciencias y la Academia de Ciencias de Malasia para el taller en Malasia, y la Iniciativa Latinoamericana para Datos Abiertos (ILDA) y la Academia Colombiana de Ciencias Exactas, Físicas y Naturales (ACCEFYN) para el taller en Chile.

Reflexiones acerca de la escritura científica: investigaciones, proyectos, tesis, tesinas y monografías

Menin, Ovide, y Félix Temporetti. Reflexiones acerca de la escritura científica: Investigaciones, proyectos, tesis, tesinas y monografías. 1a ed. 1a reimp. Rosario: Homo Sapiens Ediciones, 2012

Texto completo

En las últimas décadas, se ha escrito extensamente sobre la investigación y la elaboración de tesis. Este libro destaca una distinción fundamental que con frecuencia se pasa por alto: la diferencia entre la Wissenschaft alemana y la Science inglesa. En este contexto, se defiende la diversidad y pluralidad tanto en la investigación científica como en su escritura. Además, se propone un enfoque innovador: la tesis como un ensayo científico, un formato que puede ser tan sólido y riguroso, o tan flexible y atenuado, como cualquier otro.

El texto reflexiona sobre la evolución de la investigación científica en el campo de la psicología en Argentina, destacando su desarrollo a lo largo del tiempo con influencias de diversas teorías y enfoques epistemológicos. Se menciona la acumulación de un vasto material tanto escrito como oral, así como el uso de instrumentos científicos en hospitales, laboratorios y escuelas. Además, se señala la importancia de las tesis doctorales y la variabilidad del método científico en función de los aportes acumulativos. Se reconoce el papel de la literatura en la psicología y se cuestiona la noción de verdad en la ciencia, afectada por el relativismo cultural. Finalmente, se enfatiza la necesidad de definir claramente los conceptos científicos para facilitar la comunicación y el avance social, ya que la ciencia, al igual que la creencia, es un componente esencial de la cultura.

Medición del acceso abierto en las universidades españolas y el CSIC (2019-2023)

Medición del acceso abierto en las universidades españolas y el CSIC (2019-2023). REBIUN, 2025

Texto completo

Este informe, enmarcado en el objetivo de monitorización de la ciencia abierta de la Línea 2 de REBIUN para el año 2024, presenta la Medición del Acceso Abierto en las universidades españolas y el CSIC del periodo 2019-2023. Los datos muestran un crecimiento importante del porcentaje de artículos en acceso abierto: del 75,6% (77.731 publicaciones) en el año 2022 se pasó al 80% (82.413 publicaciones) en 2023. En estos datos están incluidos los artículos que se publican en acceso abierto en revistas o se encuentran depositados en repositorios institucionales. Como en el estudio anterior, publicado en 2023, se usan los datos extraídos de OpenAlex a partir del identificador de cada universidad y de los centros del Consejo Superior de Investigaciones Científicas (CSIC). De acuerdo con la tendencia de años anteriores y los datos referentes al periodo 2019-2023, puede decirse que el acceso abierto a las publicaciones resultado de la investigación de las universidades y CSIC está claramente consolidado. La medición refleja que a partir del 2020 se produce un importante incremento en la publicación en revistas híbridas, probablemente debido a los acuerdos transformativos CRUE-CSIC y los que las instituciones hayan firmado a nivel individual. En este informe, por primera vez, se proporcionan los datos de la vía diamante. Datasets disponibles en: https://doi.org/10.21950/BOMYUU

La desalineación de incentivos en la publicación académica y sus implicaciones para la reforma de las revistas.

Trueblood, Jennifer S., et al. “The Misalignment of Incentives in Academic Publishing and Implications for Journal Reform.” Proceedings of the National Academy of Sciences of the United States of America 122, no. 5 (2025): e2401231121. https://www.pnas.org/doi/10.1073/pnas.2401231121

Se analiza el conflicto entre los dos principales objetivos de la publicación académica: la difusión del conocimiento y el reconocimiento científico. Aunque ambos pueden fomentar investigaciones profundas, la presión por maximizar métricas de publicación puede distorsionar las prioridades académicas. Los editores comerciales han aprovechado esta dinámica para obtener grandes beneficios, utilizando revisores no remunerados, estableciendo barreras económicas a la difusión de investigaciones y cobrando altas tarifas por el acceso abierto. El estudio explora modelos alternativos de publicación científica y plantea posibles reformas en la evaluación académica, señalando que el éxito de estos nuevos enfoques dependerá de su impacto en los actuales sistemas de acreditación, que priorizan métricas como citas e índices de impacto.

Academ-AI, un proyecto que rastrea el uso no declarado de la inteligencia artificial en la literatura académica.

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto que documenta los efectos adversos del uso de inteligencia artificial (IA) en el ámbito académico, en particular, casos sospechosos de investigaciones redactadas con IA sin la debida declaración.

El sitio enumera artículos en los que se han detectado frases que sugieren fuertemente el uso de IA, las cuales se destacan en cada cita presentada. Los usuarios pueden reportar artículos que consideren incluidos erróneamente o enviar sospechas sobre otros trabajos.

Por el momento, la documentación se limita a artículos de revistas científicas y ponencias en congresos, excluyendo libros, capítulos de libros, preprints, blogs y otros medios.

Los textos generados por IA pueden identificarse por:

  • Frases características como “As of my last knowledge update…” o “As an AI language model…”.
  • Estilo conversacional que no encaja con la prosa académica.
  • Uso excesivo de pronombres en primera persona y marcadores discursivos como “ciertamente”.
  • Explicaciones extensas sobre limitaciones del conocimiento o referencias genéricas a expertos.

Si un artículo ha sido corregido por uso no declarado de IA, se etiqueta con el tipo de errata y la fecha de publicación. En casos donde los editores corrigen errores de IA sin notificar a los lectores, se marcan como “stealth revision” (revisión encubierta) sin fecha.

Se etiqueta cada artículo si pertenece a bases de datos reconocidas, como Web of Science, Scopus, PubMed Central, DOAJ, entre otras. También se validan los ISSN de las revistas y los ISBN de ponencias en congresos.

Artículos científicos fabricados con GPT en Google Scholar: características principales, difusión e implicaciones

Harvard Kennedy School Misinformation Review. “GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation.” Harvard Kennedy School Misinformation Review. Última modificación enero 24, 2025. https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/.

La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.

Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).

De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.

Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.

El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.

Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.

Ai2 ScholarQA, una herramienta experimental basada en inteligencia artificial para facilitar las revisiones de literatura científica

Ai2 ScholarQA

Ai2 ScholarQA, una herramienta experimental basada en inteligencia artificial para facilitar las revisiones de literatura científica. Desarrollada por el Instituto Allen para la Inteligencia Artificial (Ai2), esta herramienta permite a los investigadores formular preguntas científicas que requieren la comparación y el resumen de múltiples documentos. Ai2 ScholarQA utiliza un modelo avanzado de IA, Claude Sonnet 3.5, y un corpus de artículos de acceso abierto para proporcionar respuestas detalladas y contextualizadas. Aunque la herramienta puede ser menos coherente en algunos casos debido a su enfoque en la evidencia, busca mejorar la eficiencia en las revisiones de literatura. Ai2 planea abrir el código fuente de la funcionalidad principal y continuar explorando formas de personalizar y mejorar el apoyo a la investigación científica con IA.

Diccionario de metodología de investigación científica

Carlos David Laura Quispe, Diccionario de metodología de investigación científica: aportaciones para la producción de conocimiento científico (Publicia, 2016),

Texto completo

Presenta un desglose de cada etapa de una investigación científica, así como todas las conceptualizaciones y definiciones de cada término utilizado en ella. En su elaboración ha tomado como base: bibliografía clásica, bases de datos, materiales de programas de post grado, entre otros, los que se han complementado con consultas a investigadores.

La presión para publicar está contribuyendo a un aumento en la retractación de artículos científicos

Tran, Nham. «The ‘Publish or Perish’ Mentality Is Fuelling Research Paper Retractions – and Undermining ScienceThe Conversation, September 24, 2024. https://theconversation.com/the-publish-or-perish-mentality-is-fuelling-research-paper-retractions-and-undermining-science-238983

Los científicos, al realizar descubrimientos importantes, suelen publicar sus hallazgos en revistas científicas para que otros puedan leerlos y beneficiarse de ese conocimiento. Esta difusión de información es fundamental para el progreso de la ciencia, ya que permite que otros investigadores construyan sobre trabajos previos y, potencialmente, realicen nuevos descubrimientos significativos. Sin embargo, los artículos publicados pueden ser retractados si se detectan problemas de precisión o integridad en los datos. En años recientes, el número de retractaciones ha aumentado considerablemente. En 2023, se retractaron más de 10.000 artículos de manera global, estableciendo un nuevo récord.

El aumento en las retractaciones está impulsado por la mentalidad de «publicar o perecer», una situación que ha prevalecido en la academia durante décadas. La publicación de artículos de investigación es un factor clave para el avance en la carrera académica y para la mejora de los rankings universitarios. Las universidades y los institutos de investigación suelen utilizar el número de publicaciones como indicador principal de productividad y reputación. Esto ha llevado a una presión constante sobre los académicos para publicar regularmente, lo que, a su vez, ha contribuido a un aumento en la presentación de datos fraudulentos. Si esta tendencia continúa, el paisaje de la investigación podría cambiar hacia estándares menos rigurosos, dificultando el progreso en áreas críticas como la medicina, la tecnología y la ciencia climática.

Retraction Watch, una de las bases de datos más grandes que monitorea las retractaciones científicas, ha revelado un incremento en la cantidad de artículos retractados. En la última década, se han retractado más de 39.000 publicaciones, y el número anual de retractaciones está creciendo alrededor de un 23% cada año. Aproximadamente la mitad de estas retractaciones se deben a problemas relacionados con la autenticidad de los datos. Un ejemplo es el caso de Richard Eckert, un bioquímico senior de la Universidad de Maryland, Baltimore, quien falsificó datos en 13 artículos publicados. De estos, cuatro han sido corregidos, uno ha sido retractado y los demás están en proceso de acción.

El plagio es la segunda razón más común para la retractación de artículos, representando el 16% de los casos. Otro motivo significativo es el uso de revisiones por pares falsas, un problema que ha aumentado diez veces en la última década. También ha habido un incremento en las publicaciones asociadas con las llamadas «fábricas de artículos» (Paper Mills), que son empresas que producen artículos falsos por una tarifa. En 2022, hasta un 2% de todas las publicaciones provinieron de estas fábricas. Los errores genuinos en el proceso científico solo representan aproximadamente el 6% de todas las retractaciones en la última década.

La presión para publicar ha llevado a un aumento en los errores y las prácticas fraudulentas. Aunque la digitalización ha facilitado la detección de datos sospechosos, también ha intensificado la cultura de «publicar o perecer» en las universidades. La mayoría del personal académico debe cumplir con cuotas específicas de publicaciones para evaluaciones de desempeño, y las instituciones utilizan el rendimiento en publicaciones para mejorar su posición en los rankings globales, lo que atrae a más estudiantes y genera ingresos por enseñanza.

El sistema de recompensas en la academia a menudo prioriza la cantidad sobre la calidad de las publicaciones. Este enfoque puede llevar a los científicos a recortar esquinas, apresurar experimentos o incluso falsificar datos para cumplir con las métricas impuestas. Para abordar este problema, iniciativas como la Declaración de San Francisco sobre la Evaluación de la Investigación están impulsando un cambio hacia la evaluación de la investigación basada en su calidad e impacto social, en lugar de métricas centradas en revistas, como factores de impacto o recuentos de citas.

Cambiar las políticas de las revistas para priorizar el intercambio de todos los datos experimentales podría mejorar la integridad científica, permitiendo a los investigadores replicar experimentos para verificar los resultados de otros. Además, las universidades, los institutos de investigación y las agencias de financiamiento necesitan mejorar su diligencia debida y responsabilizar a aquellos involucrados en malas conductas. Incluir preguntas simples en las solicitudes de subvenciones o promociones académicas, como «¿Alguna vez ha tenido o estado involucrado en un artículo retractado?», podría mejorar la integridad de la investigación al disuadir comportamientos poco éticos. Las respuestas deshonestas podrían ser fácilmente detectadas gracias a la disponibilidad de herramientas en línea y bases de datos como Retraction Watch.