Archivo de la categoría: Investigación

Google Scholar Labs, un nueva versión de búsqueda académica potenciada por IA

Google Scholar Labs

Google ha lanzado Google Scholar Labs, una nueva versión de búsqueda académica potenciada por IA. La herramienta analiza la pregunta del usuario para identificar los temas clave, sus relaciones y aspectos relevantes

Google ha presentado Google Scholar Labs, una nueva función experimental que incorpora tecnología de inteligencia artificial generativa directamente en Google Scholar. Hasta ahora, no estaba claro si la compañía integraría IA en su buscador académico, pero desde el 18 de noviembre de 2025 ya está disponible —aunque solo para un grupo limitado de usuarios con sesión iniciada, con lista de espera para el resto. Actualmente está disponible solo para usuarios que hayan iniciado sesión y en inglés, y es una función experimental.

Este proyecto realiza búsquedas más sofisticadas en Google Scholar considerando todos esos elementos. A continuación, evalúa los resultados y selecciona los artículos más relevantes para responder de forma concreta a la consulta, explicando para cada uno cómo contribuye a la respuesta. Además, permite hacer preguntas de seguimiento para profundizar.

Scholar Labs está diseñado para transformar la forma en que se responden preguntas de investigación complejas que requieren analizar un tema desde diferentes ángulos. La herramienta interpreta la consulta del usuario para identificar sus conceptos clave, relaciones y aspectos relevantes. Luego realiza búsquedas en Google Scholar considerando todos esos elementos. Tras valorar los resultados obtenidos, selecciona los artículos que mejor responden a la pregunta inicial y explica para cada uno de ellos cómo contribuye a resolverla. Por ejemplo, si alguien pregunta cómo afecta el consumo de cafeína a la memoria a corto plazo, Scholar Labs busca estudios sobre ingesta de cafeína, retención de memoria y factores cognitivos relacionados con la edad, filtrando la información para ofrecer la respuesta más completa posible.

Esta función mantiene además todas las características habituales de Google Scholar, como enlaces a las fuentes originales, indicaciones claras del sitio de procedencia (arXiv, bioRxiv, editoriales académicas, etc.) y uso del texto completo del artículo cuando esté disponible para elaborar las explicaciones. De momento, Scholar Labs solo admite preguntas en inglés y se encuentra en fase experimental, con la intención de ampliarse progresivamente en función de la experiencia de los usuarios y del feedback recibido. Finalmente, la noticia destaca que esta apuesta por la IA de Google se suma al ecosistema ya existente de herramientas impulsadas por IA en el ámbito científico, como las desarrolladas por el Allen Institute for AI, creador de Semantic Scholar.

La investigación en jaque: menos de la mitad de los científicos tiene tiempo para investigar, pero la IA promete revolucionar la ciencia

Elsevier. Researcher of the Future: A Confidence in Research Report. August–September 2025. Elsevier Insights. https://assets.ctfassets.net/o78em1y1w4i4/137SmnpRSP2mSuhDxtFdls/72a1777e8a72f3c60748956037f76433/Researcher-Of-The-Future.pdf

Un estudio global de Elsevier, realizado con más de 3.200 investigadores de 113 países, analiza cómo los académicos perciben su rol en la investigación en un contexto marcado por cambios en el ecosistema científico, incluyendo la inteligencia artificial, la movilidad, la financiación, la integridad investigadora y la colaboración internacional.

La investigación científica enfrenta fuertes presiones de tiempo y financiación, mientras que la IA ofrece un potencial transformador si se proporcionan herramientas adecuadas, formación y supervisión ética. Al mismo tiempo, la colaboración global e interdisciplinaria emerge como un factor clave en la evolución de la ciencia.

Uno de los hallazgos más relevantes es que menos de la mitad de los investigadores afirma no disponer de tiempo suficiente para dedicarse a la investigación. Esta falta de tiempo se debe a la creciente presión derivada del volumen de información, las obligaciones administrativas y docentes, la incertidumbre en la financiación y la necesidad de publicar resultados.

En términos de financiación, solo un tercio de los investigadores espera que los fondos en su campo aumenten en los próximos años, con un pronóstico más pesimista en América del Norte y Europa, mientras que China muestra un optimismo mucho mayor. Esta percepción de escasez de recursos impulsa la movilidad de los investigadores, ya que aproximadamente el 29 % está considerando cambiar de país en busca de mejores condiciones de trabajo o financiación.

Respecto a la adopción de la inteligencia artificial, el uso de herramientas de IA ha aumentado significativamente en el último año. Sin embargo, solo un tercio de los investigadores considera que su institución tiene una política de IA adecuada y que ha recibido la formación apropiada para utilizar estas herramientas. Las diferencias regionales son notables: en China, la mayoría de los investigadores ve la IA como una oportunidad que les da más opciones y empoderamiento, mientras que en Estados Unidos y el Reino Unido los porcentajes son mucho menores. Algunos datos:

  • El 58 % utiliza ahora herramientas de IA en su trabajo, en comparación con el 37 % en 2024.
  • Sin embargo, solo el 32 % de los investigadores a nivel mundial cree que existe una buena gobernanza de la IA en su institución.
  • De manera similar, solo el 27 % considera que cuenta con la formación adecuada para usar la IA.

Los investigadores utilizan la IA principalmente para encontrar y resumir literatura, realizar revisiones, analizar datos, redactar propuestas de financiación y escribir artículos o informes. No obstante, son más reticentes a usar IA para tareas creativas de mayor nivel, como generar hipótesis o diseñar estudios, a menos que las herramientas sean personalizadas y fiables.

También surgen preocupaciones éticas: solo una minoría cree que las herramientas de IA están desarrolladas de forma ética y que son totalmente fiables. Para aumentar la confianza en estas herramientas, los investigadores demandan transparencia, actualización de los datos de entrenamiento, seguridad, precisión y validación por expertos humanos.

Finalmente, el informe evidencia un aumento en la colaboración interdisciplinaria y global: la mayoría de los investigadores trabaja cada vez más con colegas de otros campos y de otros países, especialmente en Asia‑Pacífico.

División de opiniones sobre el uso de inteligencia artificial generativa en la revisión por pares: desafíos y perspectivas

Holst, Faye. «Reviewers Increasingly Divided on the Use of Generative AI in Peer ReviewIOP Publishing, 10 de septiembre de 2025. https://ioppublishing.org/news/reviewers-increasingly-divided-on-the-use-of-generative-ai-in-peer-review/

Un reciente estudio global llevado a cabo por IOP Publishing (IOPP) pone de manifiesto una creciente división de opiniones entre los revisores de las ciencias físicas respecto al uso de la inteligencia artificial generativa en el proceso de revisión por pares.

En comparación con el año anterior, se observa un aumento en el porcentaje de investigadores que consideran que la IA tendrá un impacto positivo en la revisión, alcanzando el 41%, mientras que un 37% mantiene una visión negativa. Este cambio refleja una polarización cada vez más marcada dentro de la comunidad científica, evidenciando que la adopción de la IA en este ámbito genera tanto expectativas como reservas.

Actualmente, IOPP mantiene una política que prohíbe el uso de herramientas de IA en la revisión por pares, argumentando que los modelos generativos no cumplen aún con los estándares éticos, legales y académicos necesarios para garantizar la integridad del proceso. No obstante, se reconoce de manera creciente que la IA puede desempeñar un papel de apoyo, complementando la labor humana en lugar de sustituirla. De hecho, un 32% de los investigadores ha experimentado con herramientas de IA para facilitar tareas como la corrección gramatical o la mejora del flujo del texto en sus revisiones. Sin embargo, su utilización plantea desafíos importantes, especialmente en lo relacionado con la confidencialidad y la protección de datos, dado que algunos revisores cargan manuscritos completos en plataformas de IA externas, lo que incrementa los riesgos asociados a la privacidad.

El estudio también destaca diferencias significativas en la percepción de la IA según el género y la experiencia de los investigadores. Las mujeres tienden a mostrar un menor optimismo respecto al potencial de la IA en la revisión por pares, en comparación con sus colegas masculinos, lo que sugiere la existencia de una brecha de género en la valoración de estas tecnologías. Asimismo, los investigadores más jóvenes se muestran generalmente más favorables a los beneficios de la IA, mientras que los profesionales con mayor experiencia tienden a ser más escépticos y cautelosos, reflejando así un contraste generacional en la adopción de nuevas herramientas tecnológicas.

Frente a estos desafíos, IOPP propone el desarrollo de herramientas de IA que se integren directamente en los sistemas de revisión por pares, con el objetivo de asistir a revisores y editores sin comprometer la seguridad ni la integridad de la investigación. Dichas herramientas deberían diseñarse para complementar el juicio humano, en lugar de reemplazarlo, asegurando que la asistencia tecnológica respalde el proceso editorial sin generar riesgos éticos ni vulneraciones de la confidencialidad. Si se implementan de manera adecuada, estas soluciones podrían no solo atender las preocupaciones sobre privacidad y ética, sino también optimizar la eficiencia y calidad de la revisión por pares.

Cómo aborda el movimiento de «ciencia abierta» la mala conducta científica

Kingsley, Danny. “Show Your Working: How the ‘Open Science’ Movement Tackles Scientific Misconduct.” The Conversation, 31 de marzo de 2025. https://theconversation.com/show-your-working-how-the-open-science-movement-tackles-scientific-misconduct-249020

El movimiento de ciencia abierta —que incluye no solo acceso libre a artículos científicos, sino también la transparencia en datos, protocolos, software y todos los aspectos del proceso investigativo— se presenta como una estrategia clave para combatir la mala praxis científica.

El artículo analiza cómo ciertas estructuras en el mundo académico —como la presión por publicar (“publish or perish”), los rankings universitarios internacionales y el prestigio basado en la producción de artículos— fomentan incentivos perversos que pueden desencadenar comportamientos ilícitos o poco éticos. En este contexto, florecen prácticas como las editoriales depredadoras (“predatory publishers”) o las fábricas de artículos (“paper mills”), que generan papers de baja calidad o fraudulentos para beneficio económico o académico.

Kingsley argumenta que trabajar de manera abierta ayuda a mejorar la integridad de la ciencia de varias formas: al permitir revisar datos, registrar ensayos clínicos, publicar protocolos antes de realizar los estudios, etc. Estas medidas no evitan que algunos actúen mal, pero sí dificultan que lo hagan sin ser detectados.

Entre las estrategias que el autor destaca para fortalecer la integridad científica desde la ciencia abierta se encuentran:

  • El registro previo de protocolos y objetivos de estudios, de modo que las modificaciones posteriores queden explícitas.
  • La apertura de los conjuntos de datos, el código y los materiales metodológicos para revisión externa.
  • El uso de publicación de preprints y revisiones abiertas, de modo que el escrutinio ocurra antes y después de la evaluación formal.
  • La creación de incentivos institucionales que reconozcan y premien la transparencia, la reproducibilidad y los esfuerzos de colaboración.

Con su enfoque en la transparencia, la ciencia abierta ofrece parte de la solución al creciente problema de la mala conducta científica. Sin embargo, para que la ciencia abierta cumpla su potencial se requiere un cambio profundo de paradigma cultural: no basta con adoptar tecnologías, sino modificar incentivos institucionales, políticas y normas para premiar la transparencia, la reproducibilidad y la responsabilidad. Ejemplos internacionales, como programas nacionales de ciencia abierta en Europa y acciones coordinadas en Australia, se citan como señales alentadoras.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

La Universidad de York impulsa un plan de mejora de las competencias sobre investigación de los estudiantes ante los retos de la IA

York Libraries launch new curriculum to strengthen student research skills.” 26 de septiembre de 2025. York Libraries https://www.library.yorku.ca/web/blog/2025/09/26/york-libraries-launch-new-curriculum-to-strengthen-student-research-skills/

Las bibliotecas de la Universidad de York han lanzado un nuevo currículo de cuatro módulos para mejorar las competencias investigadoras de los estudiantes. El programa combina teoría y práctica en la búsqueda, evaluación y uso ético de la información. Su objetivo es preparar a los alumnos para afrontar los retos del entorno digital y la influencia de la inteligencia artificial.

En respuesta al cambiante panorama digital y al creciente papel de la inteligencia artificial, las bibliotecas de la Universidad de York han creado un nuevo plan formativo denominado “Think, Research, Create: Introduction to Library Research”. Se trata de una serie de cuatro módulos en línea dirigida especialmente a estudiantes de pregrado, diseñada para reforzar habilidades esenciales de investigación como la búsqueda de información, la cita, y la evaluación crítica de fuentes.

El currículo fue desarrollado por un equipo de bibliotecarios en colaboración con áreas de aprendizaje estudiantil, con el objetivo de que los alumnos comprendan la complejidad del entorno informativo contemporáneo, donde abundan la desinformación, los sesgos y la proliferación de contenidos digitales. Cada taller de noventa minutos aborda un tema clave —desde la formulación de preguntas de investigación hasta la producción ética de contenido— e incluye actividades prácticas, debates y ejercicios interactivos.

Este enfoque representa un cambio respecto al método tradicional, consistente en presentaciones únicas y breves dentro de clases universitarias, que a juicio de los responsables resultaba insuficiente para dotar a los estudiantes de competencias sólidas. Además, los talleres están abiertos a estudiantes de distintos cursos, y para los niveles superiores se planean adaptaciones disciplinarias específicas en años posteriores. La iniciativa pretende no solo formar investigadores más competentes, sino también contrarrestar los desafíos epistemológicos que plantea la abundancia de información en la era de la IA.

Guía para la iniciación a la publicación de artículos científico

Iáñez Rodríguez, Irène; Alejandro López Ruiz; María Ángeles Martín Lara; y Alicia Ronda Gálvez. Guía para la iniciación a la publicación de artículos científicos. Sevilla: Editorial Universidad de Sevilla, 2020

Texto completo

Esta obra está concebida como una guía para los estudiantes de posgrado que se inician en el ámbito de la investigación. Se trata de un manual práctico, sustentado en la experiencia de sus autores, que reúne los principales aspectos a considerar a la hora de publicar un artículo científico. Con frecuencia, al comienzo de la carrera investigadora surgen dudas y problemas para los que no siempre se encuentran respuestas en los libros: ¿dónde publicar un artículo?, ¿cómo elegir la revista adecuada?, ¿qué orden de autoría es el más conveniente?, entre otros. Estas cuestiones suelen resolverse con la práctica y, probablemente, al finalizar la tesis doctoral resulten más fáciles de responder. Sin embargo, no existe una solución única: cada investigador aporta su visión en función de su experiencia o intereses.

Con este propósito, los autores recogen en la guía distintas alternativas y orientaciones, de manera que sea el propio investigador quien valore y decida cuál se adapta mejor a su situación particular.

El manual se estructura en tres secciones: el cuerpo principal, un glosario con los términos más relevantes y, finalmente, una bibliografía de consulta y referencia. A su vez, el cuerpo del manual se organiza en seis capítulos que abordan los aspectos esenciales del proceso de publicación de un artículo científico.

La Universidad de Columbia Británica (UBC) replantea la sostenibilidad de sus suscripciones académicas y cancela acuerdos con Sage y PLOS

University of British Columbia Library. 2025. An Update from the University Librarian: Rethinking the Sustainability of Our Subscription Model. September 17, 2025. https://about.library.ubc.ca/2025/09/17/an-update-from-the-university-librarian-rethinking-the-sustainability-of-our-subscription-model/

La Universidad de Columbia Británica (UBC) enfrenta un reto creciente: el costo de las suscripciones a revistas académicas (especialmente los grandes paquetes de editoriales privadas) se ha vuelto insostenible, debido al aumento de precios, inflación y fluctuaciones en el tipo de cambio USD/CAD. Aproximadamente el 40 % del presupuesto de colecciones de UBC se destina a acuerdos con cinco editoriales con fines de lucro: Elsevier, Springer, Taylor & Francis, Wiley y Sage.

Para manejar estos desafíos, UBC Library ha decidido que a partir del 31 de diciembre de 2025 dejará de mantener el acuerdo de “todos los títulos” (all-titles) con la editorial Sage. Esto implica que solo los artículos antiguos incluidas-los de los archivos (“backfiles”) de Sage seguirán siendo inmediatamente accesibles, mientras que los artículos nuevos de revistas de Sage a los que ya no se les renueve la suscripción deberán obtenerse mediante préstamo interbibliotecario, lo que normalmente tomará de uno a dos días.

Otra medida paralela es la finalización del acuerdo con Public Library of Science (PLOS). UBC había cubierto desde 2023 los costes de procesamiento de artículo (APC) para autores de UBC en las revistas PLOS, de modo que esos autores tenían esos cargos completamente eximidos (“waived”). A partir de finales de 2025, UBC regresará al modelo anterior en el que los autores usarán sus propios fondos de investigación para cubrir esos costes.

Estas decisiones afectan a todos los usuarios de la biblioteca UBC (campus Vancouver y Okanagan). Aunque implican una pérdida de conveniencia para algunos, la universidad argumenta que son necesarias para asegurar la sostenibilidad financiera del presupuesto de colección, alinear los gastos con el uso real de los títulos, y también por motivos de principios: UBC considera que el modelo actual no está alineado con sus valores institucionales ni con la realidad financiera.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.