Archivo de la etiqueta: Investigación

Las bibliotecas universitarias como infraestructuras esenciales para la investigación

The Case for Viewing Libraries as Research Infrastructures.” Knowledge Rights 21, 17 de noviembre de 2025.

Knowledge Rights 21 sostiene que las bibliotecas de investigación deben reconocerse como infraestructuras fundamentales para la ciencia, más allá de su papel tradicional como depósitos de libros. Según el artículo, una infraestructura de investigación incluye recursos y servicios —tanto físicos como digitales— que permiten producir nuevo conocimiento, desde equipamiento técnico hasta colecciones de datos y servicios especializados.

La Comisión define una «infraestructura de investigación» como instalaciones que ofrecen recursos y servicios a las comunidades científicas para llevar a cabo investigación e impulsar la innovación. Estas infraestructuras no deben limitarse únicamente a fines investigativos: pueden ser físicas, dispersas, o incluso virtuales, e incluir equipos científicos, colecciones, sistemas informáticos, redes de comunicación, y otros elementos accesibles a usuarios externos. También contempla infraestructuras de información como archivos o bases de datos científicas. Las reglas para crear este tipo de consorcios ya están establecidas con la regulación ERIC, que facilita la colaboración entre países.

En su nueva estrategia, la Comisión reconoce varios problemas actuales: la financiación fragmentada, la baja cooperación entre infraestructuras, dificultades de acceso por parte de ciertos actores, carencias de formación, la lenta adopción de la inteligencia artificial y la digitalización, y limitaciones en el uso de datos. Para resolverlos, propone acciones como mapear mejor las necesidades de inversión y formación, apoyar mecanismos de coordinación, crear espacios unificados de acceso (“ventanillas únicas”) y revisar regulaciones como la ERIC o la futura Ley del Espacio Europeo de Investigación.

Desde el punto de vista de las bibliotecas, estos desarrollos les atañen directamente. Muchas colecciones de datos e información —el núcleo de las bibliotecas— pueden considerarse infraestructuras de investigación. Existen ejemplos concretos: CLARIN (recursos lingüísticos), DARIAH (humanidades digitales) o la Infraestructura Europea de Investigación sobre el Holocausto (EHRI), que agrupa archivos federados con herramientas para facilitar su acceso.

El texto destaca que muchas bibliotecas ya funcionan bajo modelos cooperativos: comparten recursos mediante el préstamo interbibliotecario, especializan sus colecciones para evitar duplicidades y trabajan para mejorar el acceso a distintos tipos de usuarios, desde investigadores hasta el público general.

Asimismo, el artículo identifica desafíos comunes entre bibliotecas e infraestructuras de investigación: financiación fragmentada, desigualdad en el acceso, falta de capacitación en ámbitos como la digitalización y la inteligencia artificial, y ausencia de marcos sólidos para la colaboración transfronteriza.

Para integrarlas en el ecosistema de infraestructuras, Knowledge Rights 21 propone que las bibliotecas participen en evaluaciones europeas de necesidades, que identifiquen y planifiquen sus carencias —como habilidades digitales o IA—, y que se desarrollen soluciones normativas para mejorar el acceso transfronterizo, por ejemplo mediante el suministro documental. Además, defienden políticas que armonicen el acceso abierto con la gestión de licencias y contenidos, de manera que las bibliotecas puedan ofrecer sus colecciones con mayor libertad y también una gobernanza compartida.

Como propuesta, se sugiere integrar formalmente a las bibliotecas en las políticas europeas de investigación, incluyendo planes conjuntos de recursos, formación continua y mecanismos de gobernanza compartida. También se aboga por facilitar el acceso transfronterizo a colecciones y por armonizar políticas de acceso abierto con el uso comunitario de los recursos bibliotecarios.

La función Deep Research convierte a NotebookLM en un investigador proactivo

Google ha introducido dos mejoras muy importantes en NotebookLM: la función Deep Research y la compatibilidad con más tipos de archivos.

Con Deep Research el usuario plantea una pregunta, la IA elabora un plan de investigación y navega por cientos de sitios web para recopilar fuentes de calidad. Mientras esto ocurre en segundo plano, se puede seguir añadiendo más material al cuaderno. Al terminar, la herramienta genera un informe estructurado con las fuentes citadas, que puede incorporarse directamente al cuaderno. Además, se puede aprovechar otras funciones del sistema, como resúmenes en audio o vídeo, para analizar los contenidos de forma más dinámica.

Por otro lado, NotebookLM ahora admite más formatos de archivo para cargar información desde diferentes tipos de fuentes. Entre ellos están: hojas de cálculo de Google Sheets (muy útil para trabajar con datos estructurados), documentos de Microsoft Word (.docx), PDFs directamente desde Google Drive, enlaces a archivos de Drive que no requieren descarga, e incluso imágenes — por ejemplo, notas manuscritas o folletos. Esto permite que el usuario construya su base de conocimiento a partir de documentos muy diversos sin tener que convertir todo a un único formato.

Con estas mejoras, Google busca que NotebookLM sea más útil para flujos de trabajo reales de investigación: desde estudiantes que analizan datos o borradores, hasta profesionales que necesitan generar informes detallados sin abandonar su entorno habitual de trabajo.

La investigación en jaque: menos de la mitad de los científicos tiene tiempo para investigar, pero la IA promete revolucionar la ciencia

Elsevier. Researcher of the Future: A Confidence in Research Report. August–September 2025. Elsevier Insights. https://assets.ctfassets.net/o78em1y1w4i4/137SmnpRSP2mSuhDxtFdls/72a1777e8a72f3c60748956037f76433/Researcher-Of-The-Future.pdf

Un estudio global de Elsevier, realizado con más de 3.200 investigadores de 113 países, analiza cómo los académicos perciben su rol en la investigación en un contexto marcado por cambios en el ecosistema científico, incluyendo la inteligencia artificial, la movilidad, la financiación, la integridad investigadora y la colaboración internacional.

La investigación científica enfrenta fuertes presiones de tiempo y financiación, mientras que la IA ofrece un potencial transformador si se proporcionan herramientas adecuadas, formación y supervisión ética. Al mismo tiempo, la colaboración global e interdisciplinaria emerge como un factor clave en la evolución de la ciencia.

Uno de los hallazgos más relevantes es que menos de la mitad de los investigadores afirma no disponer de tiempo suficiente para dedicarse a la investigación. Esta falta de tiempo se debe a la creciente presión derivada del volumen de información, las obligaciones administrativas y docentes, la incertidumbre en la financiación y la necesidad de publicar resultados.

En términos de financiación, solo un tercio de los investigadores espera que los fondos en su campo aumenten en los próximos años, con un pronóstico más pesimista en América del Norte y Europa, mientras que China muestra un optimismo mucho mayor. Esta percepción de escasez de recursos impulsa la movilidad de los investigadores, ya que aproximadamente el 29 % está considerando cambiar de país en busca de mejores condiciones de trabajo o financiación.

Respecto a la adopción de la inteligencia artificial, el uso de herramientas de IA ha aumentado significativamente en el último año. Sin embargo, solo un tercio de los investigadores considera que su institución tiene una política de IA adecuada y que ha recibido la formación apropiada para utilizar estas herramientas. Las diferencias regionales son notables: en China, la mayoría de los investigadores ve la IA como una oportunidad que les da más opciones y empoderamiento, mientras que en Estados Unidos y el Reino Unido los porcentajes son mucho menores. Algunos datos:

  • El 58 % utiliza ahora herramientas de IA en su trabajo, en comparación con el 37 % en 2024.
  • Sin embargo, solo el 32 % de los investigadores a nivel mundial cree que existe una buena gobernanza de la IA en su institución.
  • De manera similar, solo el 27 % considera que cuenta con la formación adecuada para usar la IA.

Los investigadores utilizan la IA principalmente para encontrar y resumir literatura, realizar revisiones, analizar datos, redactar propuestas de financiación y escribir artículos o informes. No obstante, son más reticentes a usar IA para tareas creativas de mayor nivel, como generar hipótesis o diseñar estudios, a menos que las herramientas sean personalizadas y fiables.

También surgen preocupaciones éticas: solo una minoría cree que las herramientas de IA están desarrolladas de forma ética y que son totalmente fiables. Para aumentar la confianza en estas herramientas, los investigadores demandan transparencia, actualización de los datos de entrenamiento, seguridad, precisión y validación por expertos humanos.

Finalmente, el informe evidencia un aumento en la colaboración interdisciplinaria y global: la mayoría de los investigadores trabaja cada vez más con colegas de otros campos y de otros países, especialmente en Asia‑Pacífico.

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM

Uso y desarrollo ético de la Inteligencia Artificial en la UNAM. Autores Dra. Luz María Castañeda de León Dra. Ana Yuri Ramírez Molina Mtro. Juan Manuel Castillejos Reyes Mtra. María Teresa Ventura Miranda. Primera edición digital, octubre de 2025. Universidad Nacional Autónoma de México (UNAM) Dirección General de Cómputo y de Tecnologías de Información y Comunicación. ISBN 978-607-587-954-3.

Texto completo

Este trabajo se enmarca en las recomendaciones de la UNESCO sobre la ética de la IA (2021–2024) y en el Plan de Desarrollo Institucional de la UNAM 2023–2027. Su objetivo principal es promover una integración responsable de los sistemas de IA (SIA) en la docencia y la investigación universitarias.

En su primera parte, el texto define la IA desde las perspectivas de la Unión Europea y la OCDE, destacando su carácter sistémico, autónomo y adaptable. Asimismo, subraya la necesidad de un entendimiento crítico de estas tecnologías, sobre todo en contextos del Sur Global, donde las condiciones tecnológicas y económicas difieren de las del Norte Global. Se emplean dos modelos teóricos: la Teoría de la Acción Razonada de Fishbein y Ajzen, para explicar la adopción de conductas éticas en el uso de IA, y el Modelo de Resolución de Problemas de Kaufman, que orienta un proceso de mejora continua.

El documento analiza las tendencias del uso de la IA en la docencia universitaria, abordando su papel en el aprendizaje adaptativo, la generación de contenidos, la evaluación y la analítica del aprendizaje. Estas aplicaciones facilitan la personalización educativa, aunque implican desafíos como la pérdida de control docente, la integridad académica o los sesgos algorítmicos. En el ámbito de la investigación, la IA contribuye a procesar grandes volúmenes de datos, acelerar publicaciones y fomentar la colaboración científica, pero plantea dilemas sobre autoría, fiabilidad de la información y privacidad de los datos.

La sección sobre ética propone cinco principios fundamentales (beneficencia, no maleficencia, autonomía, justicia y transparencia), inspirados en la UNESCO, que deben guiar el uso universitario de la IA. Además, se revisan los marcos internacionales de integración ética y se comparan con el Código de Ética Universitario de la UNAM, que promueve valores como la honestidad, la igualdad y la responsabilidad social. Aunque la institución aún no cuenta con un marco formal de integración de la ética en los SIA, existen esfuerzos en distintas dependencias por promover comportamientos éticos en la investigación y la docencia.

Finalmente, el informe recomienda desarrollar políticas institucionales que orienten el uso ético de la IA, fomentar la alfabetización digital y ética de la comunidad universitaria, y establecer mecanismos de supervisión y evaluación continua. El propósito es garantizar que la innovación tecnológica se alinee con los valores humanistas y sociales que caracterizan a la UNAM.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

La perdida de influencia del factor de impacto: hacia una evaluación más holística de la investigación

Worlock, David. The Implosion of the Impact Factor. David Worlock Blog, octubre de 2025. https://www.davidworlock.com/2025/10/the-implosion-of-the-impact-factor/

Se analiza la creciente irrelevancia del factor de impacto como métrica principal en la evaluación de la investigación académica. Worlock argumenta que esta métrica, que históricamente ha influido en decisiones de financiación, promoción y prestigio académico, está perdiendo eficacia debido a su enfoque limitado y a la evolución del panorama de la investigación.

David Worlock recuerda una reunión entre Eugene Garfield y Thompson en 1982 en la que Garfield afirmo, “Saben”, lo que he desarrollado aquí es solo la forma menos mala de medir la importancia de la ciencia experimental. Todas las demás que he examinado tienen fallas graves y perjudiciales: medir las citas es neutral y universal”.

A lo largo de los años se han hecho muchas sugerencias para añadir métricas/altmétricas nuevas o diferentes, o para crear un esquema de múltiples métricas para crear mejores maneras de distinguir la ciencia sólida de las contribuciones más importantes. Todas han fracasado.

Worlock destaca que el factor de impacto no refleja adecuadamente la calidad o el impacto real de una investigación, ya que se basa en el número de citas recibidas por los artículos publicados en una revista, sin considerar el contexto o la relevancia de esas citas. Además, señala que la creciente disponibilidad de preprints y la diversificación de los canales de publicación están haciendo que esta métrica sea aún menos representativa del valor real de la investigación.

También menciona iniciativas como la de Web of Science, que han comenzado a cuestionar y revisar el uso del factor de impacto, sugiriendo que la comunidad académica está reconociendo la necesidad de adoptar métricas más holísticas y contextuales para evaluar la investigación.

En conclusión, el artículo sugiere que la «implosión» del factor de impacto es una señal de que el sistema de evaluación académica está en transición hacia métodos más sofisticados y representativos, que consideren una gama más amplia de factores y contextos en la valoración de la investigación. En la era de la IA, y nuestra capacidad para examinar y comparar estructuras taxonómicas y ontológicas con un nivel de intensidad completamente diferente, sin duda deberíamos hacerlo mejor.

Asta DataVoyager, una nueva herramienta de IA para el análisis de datos estructurados sin necesidad de amplios conocimientos de programación

Allen Institute for AI. “Asta DataVoyager: Data-Driven Discovery and Analysis.” Allen Institute for AI (blog), 26 de septiembre de 2025. https://allenai.org/blog/asta-datavoyager

Ai2 presenta Asta DataVoyager, una herramienta diseñada para facilitar el análisis de datos estructurados sin necesidad de amplios conocimientos de programación. La plataforma permite a científicos y usuarios hacer preguntas en lenguaje natural sobre archivos de datos (CSV, JSON, Excel, Parquet, etc.) y recibir respuestas bien fundamentadas, acompañadas de visualizaciones, código reproducible y explicaciones de los métodos utilizados.

DataVoyager transforma la forma de interactuar con los datos al generar salidas estructuradas y coherentes que pueden compartirse como parte de un informe científico o cuaderno de trabajo. Además, permite seguir con preguntas de aclaración o nuevos análisis (“filtra por tal variable”, “haz test no paramétrico”, etc.), añadiendo nuevas secciones al reporte y conservando la trazabilidad del análisis.

Un caso de uso temprano se da con la Cancer AI Alliance (CAIA), que ha desplegado una versión federada de DataVoyager: investigadores de varios centros oncológicos pueden hacer consultas sobre datos clínicos federados sin que la información sensible abandone las instalaciones de cada institución. Con esto se busca extraer conclusiones agregadas y útiles para la investigación sin comprometer la privacidad de pacientes.

La propuesta subraya que el control y manejo de los datos permanece en manos del usuario: DataVoyager puede instalarse en infraestructura propia (servidores locales, nubes privadas, etc.), y los investigadores pueden borrar sus datos en cualquier momento. La idea central es acortar el tiempo entre una duda científica y una conclusión fiable, proporcionando transparencia en cada paso analítico y fortaleciendo la confianza en los resultados.

Guía para la iniciación a la publicación de artículos científico

Iáñez Rodríguez, Irène; Alejandro López Ruiz; María Ángeles Martín Lara; y Alicia Ronda Gálvez. Guía para la iniciación a la publicación de artículos científicos. Sevilla: Editorial Universidad de Sevilla, 2020

Texto completo

Esta obra está concebida como una guía para los estudiantes de posgrado que se inician en el ámbito de la investigación. Se trata de un manual práctico, sustentado en la experiencia de sus autores, que reúne los principales aspectos a considerar a la hora de publicar un artículo científico. Con frecuencia, al comienzo de la carrera investigadora surgen dudas y problemas para los que no siempre se encuentran respuestas en los libros: ¿dónde publicar un artículo?, ¿cómo elegir la revista adecuada?, ¿qué orden de autoría es el más conveniente?, entre otros. Estas cuestiones suelen resolverse con la práctica y, probablemente, al finalizar la tesis doctoral resulten más fáciles de responder. Sin embargo, no existe una solución única: cada investigador aporta su visión en función de su experiencia o intereses.

Con este propósito, los autores recogen en la guía distintas alternativas y orientaciones, de manera que sea el propio investigador quien valore y decida cuál se adapta mejor a su situación particular.

El manual se estructura en tres secciones: el cuerpo principal, un glosario con los términos más relevantes y, finalmente, una bibliografía de consulta y referencia. A su vez, el cuerpo del manual se organiza en seis capítulos que abordan los aspectos esenciales del proceso de publicación de un artículo científico.

Kit de herramientas de IA para bibliotecas universitarias y de investigación

Association of Research Libraries and Coalition for Networked Information. ARL/CNI Futurescape Libraries AI Toolkit Can Help You Thrive in the AI Landscape.” ARL News, September 22, 2025.

Texto completo

Futurescape Libraries AI Toolkit busca preparar a las bibliotecas para un futuro en el que la inteligencia artificial será cada vez más determinante. Su valor no radica en predecir lo que ocurrirá, sino en estimular la capacidad de anticipación, la adaptación y la innovación institucional. Con ello, se pretende que las bibliotecas se conviertan en agentes activos del cambio, en lugar de limitarse a responder a las transformaciones una vez que estas ya se han producido.

El objetivo principal es que las bibliotecas de investigación dejen de adoptar un papel reactivo ante los desarrollos en IA y pasen a uno estratégico y de liderazgo, anticipando desafíos y transformaciones.

El toolkit incorpora los ARL/CNI AI Scenarios, junto con prioridades definidas y refinadas durante el foro “Strategic Implications” celebrado en diciembre de 2024. La estructura modular permite que equipos de liderato, personal bibliotecario y otros agentes externos exploren posibilidades futuras, prueben sus estrategias actuales, identifiquen oportunidades y vulnerabilidades, y preparen a la organización para cambios a largo plazo.

La herramienta se organiza en cinco módulos diseñados de manera flexible para que cada institución pueda adaptarlos según sus necesidades, recursos y nivel de preparación. El primero, Thinking About the Future, promueve una mentalidad abierta hacia el futuro y fomenta la reflexión inicial sobre la IA. El segundo, Surfacing Opportunities and Concerns, introduce conceptos de prospectiva como los impulsores de cambio, las señales y el escaneo del entorno, ayudando a identificar tendencias y tensiones externas que impactan a las bibliotecas. El tercer módulo, Scenario-Based Development and Evaluation of Options, invita a utilizar los escenarios de ARL/CNI como base para analizar la viabilidad de distintas estrategias, simulando cómo podrían funcionar bajo diferentes futuros posibles.

El cuarto módulo, Exploration of Strategic Options, ofrece herramientas para priorizar las estrategias, evaluar su impacto y decidir cuáles tienen más potencial de implementación a corto o medio plazo. Finalmente, el quinto módulo, From Workshop to Practice, se centra en traducir lo aprendido en los talleres en prácticas institucionales sostenidas, incorporando rutinas de vigilancia tecnológica, sistemas de alerta temprana y una cultura organizativa que mantenga la reflexión sobre el futuro como parte habitual de la gestión bibliotecaria. Además de estos módulos, se incluye una guía para facilitadores que orienta sobre cómo organizar talleres y adaptar las dinámicas a cada contexto.

Datos listos para la IA: consideraciones clave para la ciencia abierta y responsable

McBride, Vanessa; Natalia Norori; Denisse Albornoz. Data and AI for Science: Key Considerations. Working Paper, International Science Council, septiembre de 2025. DOI: 10.24948/2025.11

Texto completo

El informe ofrece una visión amplia y crítica del cruce entre inteligencia artificial, datos y ciencia, destacando que solo mediante la combinación de apertura, responsabilidad y cooperación internacional se podrá aprovechar plenamente el potencial de la IA en beneficio del conocimiento y la sociedad.

El informe explora cómo la inteligencia artificial está transformando la práctica científica y qué condiciones deben cumplirse para que los datos puedan aprovecharse de manera efectiva, ética y sostenible. La noción central es la de datos “AI-ready”, es decir, conjuntos de datos preparados para ser procesados y reutilizados por sistemas de IA en beneficio de la investigación. Este concepto implica que los datos no solo deben estar disponibles, sino también estructurados, limpios, interoperables y documentados de manera adecuada.

Una parte importante del documento se centra en la calidad e interoperabilidad de los datos. La ciencia abierta ha impulsado normas como FAIR (Findable, Accessible, Interoperable, Reusable), pero el uso de IA añade nuevas exigencias. Por ejemplo, los algoritmos requieren datos con metadatos consistentes, esquemas comunes y estándares de anotación que permitan la reutilización automática. Además, se subraya que la preparación de datos para IA debe considerar la reducción de sesgos y garantizar la inclusión de voces y contextos diversos, para evitar reproducir inequidades existentes en los resultados científicos.

Otro eje del informe son las dimensiones éticas, sociales y ambientales. Los autores advierten que el entrenamiento y uso de grandes modelos de IA conlleva altos costes energéticos y huellas de carbono significativas, por lo que la sostenibilidad debe integrarse en la planificación de infraestructuras científicas. En paralelo, se examinan los riesgos para la privacidad, la seguridad y la soberanía de los datos, especialmente en campos sensibles como la biomedicina o las ciencias sociales. Estos retos requieren marcos sólidos de gobernanza que equilibren apertura y protección.

El informe también vincula la preparación de datos para IA con la agenda de la ciencia abierta. Se argumenta que los principios de transparencia, accesibilidad y colaboración resultan esenciales para garantizar que la IA potencie la ciencia de manera inclusiva y global. Se destacan casos prácticos en los que repositorios, proyectos colaborativos y consorcios internacionales han logrado implementar buenas prácticas de datos AI-ready, sirviendo como ejemplos para otras disciplinas.

Finalmente, se presentan recomendaciones estratégicas:

  • Consolidar marcos normativos y estándares internacionales, como FAIR-R y Croissant.
  • Invertir en infraestructuras digitales y capacidad de cómputo adecuadas para la investigación con IA.
  • Fortalecer la capacitación en gestión de datos e inteligencia artificial.
  • Reconocer institucionalmente la labor de quienes trabajan en la preparación y curación de datos.
  • Garantizar la equidad y la inclusividad en las políticas sobre datos e IA, evitando que el acceso desigual a recursos tecnológicos aumente las brechas entre regiones y comunidades científicas.