Archivo de la etiqueta: Investigación

La investigación en jaque: menos de la mitad de los científicos tiene tiempo para investigar, pero la IA promete revolucionar la ciencia

Elsevier. Researcher of the Future: A Confidence in Research Report. August–September 2025. Elsevier Insights. https://assets.ctfassets.net/o78em1y1w4i4/137SmnpRSP2mSuhDxtFdls/72a1777e8a72f3c60748956037f76433/Researcher-Of-The-Future.pdf

Un estudio global de Elsevier, realizado con más de 3.200 investigadores de 113 países, analiza cómo los académicos perciben su rol en la investigación en un contexto marcado por cambios en el ecosistema científico, incluyendo la inteligencia artificial, la movilidad, la financiación, la integridad investigadora y la colaboración internacional.

La investigación científica enfrenta fuertes presiones de tiempo y financiación, mientras que la IA ofrece un potencial transformador si se proporcionan herramientas adecuadas, formación y supervisión ética. Al mismo tiempo, la colaboración global e interdisciplinaria emerge como un factor clave en la evolución de la ciencia.

Uno de los hallazgos más relevantes es que menos de la mitad de los investigadores afirma no disponer de tiempo suficiente para dedicarse a la investigación. Esta falta de tiempo se debe a la creciente presión derivada del volumen de información, las obligaciones administrativas y docentes, la incertidumbre en la financiación y la necesidad de publicar resultados.

En términos de financiación, solo un tercio de los investigadores espera que los fondos en su campo aumenten en los próximos años, con un pronóstico más pesimista en América del Norte y Europa, mientras que China muestra un optimismo mucho mayor. Esta percepción de escasez de recursos impulsa la movilidad de los investigadores, ya que aproximadamente el 29 % está considerando cambiar de país en busca de mejores condiciones de trabajo o financiación.

Respecto a la adopción de la inteligencia artificial, el uso de herramientas de IA ha aumentado significativamente en el último año. Sin embargo, solo un tercio de los investigadores considera que su institución tiene una política de IA adecuada y que ha recibido la formación apropiada para utilizar estas herramientas. Las diferencias regionales son notables: en China, la mayoría de los investigadores ve la IA como una oportunidad que les da más opciones y empoderamiento, mientras que en Estados Unidos y el Reino Unido los porcentajes son mucho menores. Algunos datos:

  • El 58 % utiliza ahora herramientas de IA en su trabajo, en comparación con el 37 % en 2024.
  • Sin embargo, solo el 32 % de los investigadores a nivel mundial cree que existe una buena gobernanza de la IA en su institución.
  • De manera similar, solo el 27 % considera que cuenta con la formación adecuada para usar la IA.

Los investigadores utilizan la IA principalmente para encontrar y resumir literatura, realizar revisiones, analizar datos, redactar propuestas de financiación y escribir artículos o informes. No obstante, son más reticentes a usar IA para tareas creativas de mayor nivel, como generar hipótesis o diseñar estudios, a menos que las herramientas sean personalizadas y fiables.

También surgen preocupaciones éticas: solo una minoría cree que las herramientas de IA están desarrolladas de forma ética y que son totalmente fiables. Para aumentar la confianza en estas herramientas, los investigadores demandan transparencia, actualización de los datos de entrenamiento, seguridad, precisión y validación por expertos humanos.

Finalmente, el informe evidencia un aumento en la colaboración interdisciplinaria y global: la mayoría de los investigadores trabaja cada vez más con colegas de otros campos y de otros países, especialmente en Asia‑Pacífico.

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.

Texto completo

Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.

En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.

El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.

La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.

Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

La perdida de influencia del factor de impacto: hacia una evaluación más holística de la investigación

Worlock, David. The Implosion of the Impact Factor. David Worlock Blog, octubre de 2025. https://www.davidworlock.com/2025/10/the-implosion-of-the-impact-factor/

Se analiza la creciente irrelevancia del factor de impacto como métrica principal en la evaluación de la investigación académica. Worlock argumenta que esta métrica, que históricamente ha influido en decisiones de financiación, promoción y prestigio académico, está perdiendo eficacia debido a su enfoque limitado y a la evolución del panorama de la investigación.

David Worlock recuerda una reunión entre Eugene Garfield y Thompson en 1982 en la que Garfield afirmo, “Saben”, lo que he desarrollado aquí es solo la forma menos mala de medir la importancia de la ciencia experimental. Todas las demás que he examinado tienen fallas graves y perjudiciales: medir las citas es neutral y universal”.

A lo largo de los años se han hecho muchas sugerencias para añadir métricas/altmétricas nuevas o diferentes, o para crear un esquema de múltiples métricas para crear mejores maneras de distinguir la ciencia sólida de las contribuciones más importantes. Todas han fracasado.

Worlock destaca que el factor de impacto no refleja adecuadamente la calidad o el impacto real de una investigación, ya que se basa en el número de citas recibidas por los artículos publicados en una revista, sin considerar el contexto o la relevancia de esas citas. Además, señala que la creciente disponibilidad de preprints y la diversificación de los canales de publicación están haciendo que esta métrica sea aún menos representativa del valor real de la investigación.

También menciona iniciativas como la de Web of Science, que han comenzado a cuestionar y revisar el uso del factor de impacto, sugiriendo que la comunidad académica está reconociendo la necesidad de adoptar métricas más holísticas y contextuales para evaluar la investigación.

En conclusión, el artículo sugiere que la «implosión» del factor de impacto es una señal de que el sistema de evaluación académica está en transición hacia métodos más sofisticados y representativos, que consideren una gama más amplia de factores y contextos en la valoración de la investigación. En la era de la IA, y nuestra capacidad para examinar y comparar estructuras taxonómicas y ontológicas con un nivel de intensidad completamente diferente, sin duda deberíamos hacerlo mejor.

Asta DataVoyager, una nueva herramienta de IA para el análisis de datos estructurados sin necesidad de amplios conocimientos de programación

Allen Institute for AI. “Asta DataVoyager: Data-Driven Discovery and Analysis.” Allen Institute for AI (blog), 26 de septiembre de 2025. https://allenai.org/blog/asta-datavoyager

Ai2 presenta Asta DataVoyager, una herramienta diseñada para facilitar el análisis de datos estructurados sin necesidad de amplios conocimientos de programación. La plataforma permite a científicos y usuarios hacer preguntas en lenguaje natural sobre archivos de datos (CSV, JSON, Excel, Parquet, etc.) y recibir respuestas bien fundamentadas, acompañadas de visualizaciones, código reproducible y explicaciones de los métodos utilizados.

DataVoyager transforma la forma de interactuar con los datos al generar salidas estructuradas y coherentes que pueden compartirse como parte de un informe científico o cuaderno de trabajo. Además, permite seguir con preguntas de aclaración o nuevos análisis (“filtra por tal variable”, “haz test no paramétrico”, etc.), añadiendo nuevas secciones al reporte y conservando la trazabilidad del análisis.

Un caso de uso temprano se da con la Cancer AI Alliance (CAIA), que ha desplegado una versión federada de DataVoyager: investigadores de varios centros oncológicos pueden hacer consultas sobre datos clínicos federados sin que la información sensible abandone las instalaciones de cada institución. Con esto se busca extraer conclusiones agregadas y útiles para la investigación sin comprometer la privacidad de pacientes.

La propuesta subraya que el control y manejo de los datos permanece en manos del usuario: DataVoyager puede instalarse en infraestructura propia (servidores locales, nubes privadas, etc.), y los investigadores pueden borrar sus datos en cualquier momento. La idea central es acortar el tiempo entre una duda científica y una conclusión fiable, proporcionando transparencia en cada paso analítico y fortaleciendo la confianza en los resultados.

Guía para la iniciación a la publicación de artículos científico

Iáñez Rodríguez, Irène; Alejandro López Ruiz; María Ángeles Martín Lara; y Alicia Ronda Gálvez. Guía para la iniciación a la publicación de artículos científicos. Sevilla: Editorial Universidad de Sevilla, 2020

Texto completo

Esta obra está concebida como una guía para los estudiantes de posgrado que se inician en el ámbito de la investigación. Se trata de un manual práctico, sustentado en la experiencia de sus autores, que reúne los principales aspectos a considerar a la hora de publicar un artículo científico. Con frecuencia, al comienzo de la carrera investigadora surgen dudas y problemas para los que no siempre se encuentran respuestas en los libros: ¿dónde publicar un artículo?, ¿cómo elegir la revista adecuada?, ¿qué orden de autoría es el más conveniente?, entre otros. Estas cuestiones suelen resolverse con la práctica y, probablemente, al finalizar la tesis doctoral resulten más fáciles de responder. Sin embargo, no existe una solución única: cada investigador aporta su visión en función de su experiencia o intereses.

Con este propósito, los autores recogen en la guía distintas alternativas y orientaciones, de manera que sea el propio investigador quien valore y decida cuál se adapta mejor a su situación particular.

El manual se estructura en tres secciones: el cuerpo principal, un glosario con los términos más relevantes y, finalmente, una bibliografía de consulta y referencia. A su vez, el cuerpo del manual se organiza en seis capítulos que abordan los aspectos esenciales del proceso de publicación de un artículo científico.

Kit de herramientas de IA para bibliotecas universitarias y de investigación

Association of Research Libraries and Coalition for Networked Information. ARL/CNI Futurescape Libraries AI Toolkit Can Help You Thrive in the AI Landscape.” ARL News, September 22, 2025.

Texto completo

Futurescape Libraries AI Toolkit busca preparar a las bibliotecas para un futuro en el que la inteligencia artificial será cada vez más determinante. Su valor no radica en predecir lo que ocurrirá, sino en estimular la capacidad de anticipación, la adaptación y la innovación institucional. Con ello, se pretende que las bibliotecas se conviertan en agentes activos del cambio, en lugar de limitarse a responder a las transformaciones una vez que estas ya se han producido.

El objetivo principal es que las bibliotecas de investigación dejen de adoptar un papel reactivo ante los desarrollos en IA y pasen a uno estratégico y de liderazgo, anticipando desafíos y transformaciones.

El toolkit incorpora los ARL/CNI AI Scenarios, junto con prioridades definidas y refinadas durante el foro “Strategic Implications” celebrado en diciembre de 2024. La estructura modular permite que equipos de liderato, personal bibliotecario y otros agentes externos exploren posibilidades futuras, prueben sus estrategias actuales, identifiquen oportunidades y vulnerabilidades, y preparen a la organización para cambios a largo plazo.

La herramienta se organiza en cinco módulos diseñados de manera flexible para que cada institución pueda adaptarlos según sus necesidades, recursos y nivel de preparación. El primero, Thinking About the Future, promueve una mentalidad abierta hacia el futuro y fomenta la reflexión inicial sobre la IA. El segundo, Surfacing Opportunities and Concerns, introduce conceptos de prospectiva como los impulsores de cambio, las señales y el escaneo del entorno, ayudando a identificar tendencias y tensiones externas que impactan a las bibliotecas. El tercer módulo, Scenario-Based Development and Evaluation of Options, invita a utilizar los escenarios de ARL/CNI como base para analizar la viabilidad de distintas estrategias, simulando cómo podrían funcionar bajo diferentes futuros posibles.

El cuarto módulo, Exploration of Strategic Options, ofrece herramientas para priorizar las estrategias, evaluar su impacto y decidir cuáles tienen más potencial de implementación a corto o medio plazo. Finalmente, el quinto módulo, From Workshop to Practice, se centra en traducir lo aprendido en los talleres en prácticas institucionales sostenidas, incorporando rutinas de vigilancia tecnológica, sistemas de alerta temprana y una cultura organizativa que mantenga la reflexión sobre el futuro como parte habitual de la gestión bibliotecaria. Además de estos módulos, se incluye una guía para facilitadores que orienta sobre cómo organizar talleres y adaptar las dinámicas a cada contexto.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.