Archivo de la categoría: Investigación

Esploro. Una plataforma de investigación unificada para mejorar la eficiencia de las bibliotecas universitarias en apoyo a la investigación

esploro25403x-vertical

Esploro

La investigación es el alma de las instituciones académicas. Ex Libris Esploro allana el camino para un mayor impacto de la investigación académica al maximizar la visibilidad, eficiencia y cumplimiento de las actividades de investigación. Esto se logra capturando, gestionando y difundiendo sistemáticamente los resultados y datos de la investigación, aprovechando la experiencia y la tecnología de las bibliotecas e integrándose a la perfección con los flujos de trabajo de investigación existentes.

 

Ver vídeo

 

Esploro crea un sistema unificado de registros. Amplía el alcance de los datos a todos los objetos de investigación mediante la captura automatizada y los depósitos directos. La conservación y el enriquecimiento de metadatos hacen que los objetos sean fácilmente descubribles a través de canales académicos y portales institucionales. Permitiendo al personal de la biblioteca aprovechar sus conocimientos y tecnología en apoyo de los procesos de investigación y facilita la colaboración de los bibliotecarios con la oficina de investigación y los investigadores.

Según Khokhar, el personal de la biblioteca ayuda cada vez más a los profesores a responder a preguntas de investigación convincentes. Establece planes de gestión de datos para las solicitudes de subvenciones. Ayudan a preservar los activos de investigación y garantizan que los metadatos se aplican de forma coherente a esos activos. Asesoran a los investigadores en la publicación de los resultados de la investigación. Gestionan los gastos de procesamiento de artículos (APC) para las publicaciones de acceso abierto. Y ayudan a medir el impacto de los resultados de la investigación de la universidad.

Pero actualmente, los investigadores y el personal de la biblioteca realizan estas tareas utilizando una variedad de herramientas de diferentes proveedores. «Uno de los problemas a los que nos enfrentamos es la falta de interoperabilidad de las herramientas», dice Khokhar. «Tenemos un sistema de gestión de subvenciones, un sistema separado de cálculo de costos, un sistema para administrar las publicaciones de investigación y un sistema para administrar los datos de la investigación. Tenemos un sistema diferente para ver el impacto de la investigación, y nuestro Sistema de Información de Investigación se está deformando para hacer cosas que no debía hacer».

El tener que utilizar sistemas separados para cada una de estas funciones crea ineficiencias operativas. La universidad termina gastando más en costos de licencias, y el personal debe dedicar más tiempo del necesario para tratar de navegar por múltiples sistemas y coordinar esfuerzos. Esto planteará la cuestión de que los productos no pueden vincularse fácilmente con los datos de los que se derivan. Cuando estos objetos se almacenan en repositorios separados gestionados por diferentes equipos, vincularlos entre sí se convierte en un reto e incluye más posibilidades de errores.

Contar con una plataforma única basada en la nube que vincule los diversos aspectos del ciclo de vida de la investigación resolvería muchos de estos problemas. Esto es lo que la Universidad de Lancaster y otras cuatro instituciones de investigación líderes esperan lograr al asociarse con Ex Libris para crear una nueva plataforma de servicios de investigación llamada Esploro.

 

How a Unified Research Platform Can Improve the Efficiency of Academic Libraries
Posted on May 17, 2018

Ver original

Discrepancia entre las percepciones reales del impacto y las métricas que mide el impacto

figure-1

 

 

Rachel Borchardt and Matthew R. Hartings. The academic papers researchers regard as significant are not those that are highly cited. LSE impact blog, 2018

Ver original

 

Durante muchos años, la ciencia ha confiado en el conteo de citas como la principal forma de medir el impacto o la importancia de la investigación, informando de métricas como el Factor de Impacto y el h-index. Pero, ¿hasta qué punto estas métricas se alinean realmente con la evaluación subjetiva del impacto y la importancia de los investigadores? Rachel Borchardt y Matthew R. Hartings informan sobre un estudio que compara las percepciones de los investigadores sobre el significado, la importancia y lo que es altamente citado con los datos de citas reales. Los resultados revelan una discrepancia sorprendentemente grande entre las percepciones del impacto y la métrica que utilizamos actualmente para medirlo. Los trabajos científicos que los investigadores consideran significativos no son aquellos que son muy citados

 

Lo que comenzó como un intento de cuantificar la calidad de la investigación se nos ha escapado y ha cobrado vida propia. Este problema no es particularmente nuevo; ha sido ampliamente reconocido por académicos e investigadores y, como resultado, se está hablando de él más abiertamente. El problema es más sencillo se reduce a definir y medir el impacto.

Una descripción simple para la investigación de impacto es la investigación que se utiliza. Algunas investigaciones tienen la capacidad de transformar la sociedad a través de descubrimientos innovadores, de impactar en la política social y la regulación gubernamental a través de análisis que abren los ojos, y la capacidad de captar la atención del público con investigaciones que son relevantes para sus vidas, su medio ambiente o su bienestar. Este tipo de investigación se suele denominar «de alto impacto» y se ha convertido en el centro de atención de muchas universidades, centros de investigación y administradores que compiten por la financiación de becas, la atracción de los mejores y más brillantes estudiantes, y el prestigio y los rankings.

 

«Lo que comenzó como un intento de cuantificar la calidad de la investigación se nos ha escapado de las manos y ha cobrado vida propia.»

Rachel Borchardt and Matthew R. Hartings

 

Sin embargo, designar la investigación como de alto impacto no es tan sencillo como parece. Durante muchos años, el mundo académico ha confiado en el conteo de citas como la principal forma en que medimos el impacto o la importancia de la investigación. Como resultado, el conteo de citaciones es una de las métricas primarias usadas cuando se evalúa a los investigadores. Los recuentos de citas también forman la base de otras métricas, entre las que destacan el Factor de Impacto de Clarivate y el Índice h, que evalúan respectivamente la calidad/prestigio de la revista y la notoriedad de los investigadores.

Las citas, el JIF y el h-index han servido como el triunvirato de la evaluación de impacto durante muchos años, particularmente en los campos científico y tecnológico, donde los artículos de revistas se publican con frecuencia. Muchos estudios han señalado varios defectos con la confianza en estas métricas, y con el tiempo, se ha creado una multitud de métricas complementarias basadas en citas para tratar de abordar varias competencias. Al mismo tiempo, está emergiendo las medidas del impacto en los medios sociales (altmetrics) como una alternativa o complemento potencial a las citas, donde podemos recolectar diferentes datos sobre las formas en que la investigación es vista, guardada y compartida en línea.

Sin embargo, lo que se discute con menos frecuencia es qué tan bien todas estas métricas se alinean realmente con la evaluación subjetiva del impacto y la importancia misma. Todos hemos llegado a ver las métricas como sinónimo de impacto y, por delegación, de importancia. ¿Pero lo son?

 

Todos hemos llegado a ver las métricas como sinónimo de impacto y, por derivación, de la importancia de una investigación. ¿Pero realmente lo son?

 

Para responder a esta pregunta se encuestó a investigadores de Química para medir que percepciones tenían de aquellos documentos que consideraban importantes y sobre los materiales muy citados. En un artículo en el blog orientado a la química de Matt, se pidió a los lectores que analizaran 63 artículos de una edición de la revista Journal of the American Chemical Society y utilizaran el hastag el #JACSChallenge. Se les pidió que identificaran los tres artículos que consideraban más significativos (permitiéndoles definir el significado de la manera que consideraban adecuada); los más citados; los artículos que compartirían con otros químicos; y los artículos que compartirían más ampliamente. Se analizaron los datos de más de 350 encuestados.

Los resultados, si bien no fueron realmente sorprendentes, fueron sin embargo un claro ejemplo de lo diferentes que son estos conceptos. Para empezar, los encuestados eligieron diferentes artículos para cada una de las cuatro preguntas, aunque algunas preguntas se correlacionaron más que otras. Los artículos significativos y muy citados tenían la correlación más alta en.9, mientras que los artículos para compartir con los químicos y los artículos para compartir ampliamente tenían la correlación más baja.64 Esto demuestra que los encuestados ven diferencias en estos diferentes enfoques de lo que podríamos llamar «investigación de impacto».

Pero quizás el descubrimiento más sorprendente fue cuando empezamos a comparar estas respuestas a las citas. Al comparar las cuatro preguntas con los recuentos de citas 10 y 13 años después de la publicación de los artículos, las correlaciones oscilaron entre 0,06 (artículos para compartir con los químicos) y 0,33 (artículos muy citados). Esto muestra una discrepancia sorprendentemente grande entre las percepciones de los investigadores sobre el impacto y la métrica que utilizamos actualmente para medir el impacto.

 

La investigación demostró que existe una una discrepancia sorprendentemente grande entre las percepciones que los investigadores tienen sobre el impacto y la métrica que utilizamos actualmente para medir el impacto.

 

¿Por qué estas correlaciones son tan bajas? Es probable que haya una serie de razones por las que la práctica real de citación no está más alineada con la percepción de los investigadores, pero resalta cuán diferente es la percepción de la práctica actual.

Estos datos dejan en evidencia que hay un problema importante con las métricas – no están midiendo lo que todos comúnmente asumimos que estamos midiendo, o al menos, no están representando con precisión las percepciones más abstractas de impacto e importancia de los documentos. lo que demuestra que el impacto va más allá del conteo de citas, y más allá del impacto académico. Pero, ¿qué podemos hacer para cambiar la práctica actual?

Parte de la responsabilidad recae en los evaluadores – los administradores, los «benchmarkers» de los rankings de prestigio de las universidades, los financiadores de la investigación. Pero la responsabilidad también recae en los investigadores y sus respectivas sociedades profesionales. Muchas sociedades profesionales tienen declaraciones amplias y generales sobre el papel de las métricas en la evaluación de los investigadores en su campo, pero hay más trabajo por hacer.

Estos datos dejan en evidencia que hay un problema importante con las métricas – no están midiendo lo que todos comúnmente asumimos que estamos midiendo, o al menos, no están representando con precisión las percepciones más abstractas de impacto e importancia de los documentos. lo que demuestra que el impacto va más allá del conteo de citas, y más allá del impacto académico.

Por una parte describir mejor los tipos de impacto en la academia y más allá, y presentarlos en un documento en el que los investigadores puedan confiar cuando se les pida que presenten sus evidencias de investigación para su revisión. Por otra parte sería necesario crear un marco de evaluación que comunique claramente los tipos de resultados de investigación y los modelos para su evaluación. Este tipo de marco se asemejaría al utilizado en el Modelo Becker, creado para la comunidad biomédica, que destaca cinco áreas diferentes de impacto, incluyendo el impacto económico y político, y describe claramente los resultados de la investigación y los modelos de evaluación para cada área de impacto.

Todas las disciplinas académicas estarían bien servidas para examinar con seriedad los resultados de la investigación de su disciplina y proporcionar una orientación significativa sobre su importancia en la comunicación científica de esa disciplina, junto con las mejores prácticas para su evaluación apropiada. Al mismo tiempo, los investigadores también pueden abogar por un cambio en las prácticas de evaluación de la investigación en sus instituciones en forma de documentos de políticas actualizados, incluidas las directrices departamentales para la promoción del investigador, que reflejen con mayor precisión su investigación disciplinaria y su impacto.

Sólo entonces empezaremos a cerrar la brecha entre la práctica «real» de impacto y la evaluación significativa de la investigación.

Esta entrada de blog se basa en el artículo co-escrito por los autores, «Perception of the importance of chemistry research papers and comparison to citation rates«, publicado en PLoS ONE (DOI: 10.1371/journal.pone.0194903).

Crédito de la imagen destacada: Dmitri Popov, via Unsplash (licenciado bajo una licencia CC0 1.0).

 

Laboratorios sociales en universidades: Innovación e impacto en Medialab UGR

 

dlsu199lib

Romero-Frías, E. and N. Robinson-García «Laboratorios sociales en universidades: Innovación e impacto en Medialab UGR.» Comunicar vol. 25, n. 51 (2017).

Texto completo

 

Los laboratorios sociales, como espacios de experimentación y cocreación, se han convertido en una de las principales instituciones de innovación en nuestros días. En este marco, los medialabs surgen como un tipo de laboratorios centrados en la experimentación con tecnologías y medios de comunicación y evolucionan, con el desarrollo de la sociedad digital, hacia laboratorios de mediación ciudadana e innovación social. En los últimos tiempos se ha producido una expansión de estos modelos en el contexto universitario, generando casos de gran interés para el desarrollo de nuevas métricas del impacto académico en la sociedad. El presente trabajo aborda, en primer lugar, el concepto, origen y desarrollo de los laboratorios sociales en España y globalmente, centrándose específicamente en el espacio universitario y en los medialabs. En segundo lugar, expone la problemática de las métricas alternativas del impacto social, aportando una propuesta de análisis basada en Twitter como herramienta para identificar los distintos tipos de públicos que muestran interés y el nivel de participación que despierta su actividad. Por último, se aplica este análisis al caso de Medialab UGR en la Universidad de Granada, un laboratorio de cultura digital enfocado en la cocreación y colaboración social. Los resultados muestran la pluralidad de actores vinculados a este tipo de redes, así como la dificultad y complejidad de establecer indicadores que concilien tanto intereses académicos como sociales.

Los medialabs universitarios pretenden, por un lado, servir de nexo entre la sociedad y la academia, convirtiéndose en un espacio de cocreación y colaboración ciudadana. Muy
relacionado con este perfil, está su carácter docente y divulgador, sirviendo de canal bidireccional a través del cual ciudadanos e investigadores se influyen mutuamente y comparten conocimientos. Por último, destaca su perfil investigador, siendo motor de innovación educativa, social y digital, y perfilándose como el lugar idóneo para la experimentación y el ensayo de nuevas metodologías y fórmulas educativas y de participación ciudadana.

 

Wikipedia en la Universidad: cambios en la percepción de valor con la creación de contenidos.

montaje-realizado-a-partir-de-la-obra-de-miguel-angel-en-la-capilla-sixtina

Soler-Adillon, J., D. Pavlovic, et al. «Wikipedia en la Universidad: cambios en la percepción de valor con la creación de contenidos.» Comunicar vol. 26, n. 54 (2018).  pp. 39-48.

Texto completo

Wikipedia es un recurso muy utilizado por estudiantes universitarios, pero no está necesariamente bien valorado en términos de fiabilidad, ni tampoco es visto como un entorno en el que hacer aportaciones de contenido. Este artículo presenta un proyecto de docencia e investigación que consiste en proponer que los estudiantes editen o creen artículos para la Wikipedia, y en comprobar si la experiencia modifica su valoración de la misma. Se realizó la experiencia en la Universidad Pompeu Fabra (España) y la Universidad de Niš (Serbia) con un total de 240 alumnos. Editaron artículos y respondieron dos cuestionarios, uno antes y otro después de la experiencia. Se compararon las respuestas mediante una serie de pruebas T para muestras emparejadas, a partir de las cuales pudimos comprobar que los datos mostraban un cambio significativo en su percepción sobre la fiabilidad y la utilidad de la Wikipedia y sobre la probabilidad de encontrar información falsa en ella. También cambió su apreciación de la tarea de editar artículos, que se valoró como interesante y representó un reto. En cambio, su valoración del prestigio social de la Wikipedia, tanto en el contexto universitario como el general, no varió significativamente. Adicionalmente, las preguntas abiertas y el feedback informal permitieron recoger informaciones muy valiosas respecto a la valoración del conjunto de la experiencia

Correlación entre las altmetrías a través de Mendeley (F1000) y la calidad de la investigación

42353423662_d6e979faf7_o_d

Bornmann L and H. R «Do altmetrics correlate with the quality of papers? A large-scale empirical study based on F1000Prime data.» PLoS ONE vol. 13, n. 5 (2018). pp.: https://doi.org/10.1371/journal.pone.0197133

 

Este estudio, aborda la cuestión de si (y hasta qué punto, respectivamente) los indicadores altmétricos está relacionada con la calidad científica de los trabajos (medida por las evaluación por pares). Sólo unos pocos estudios han investigado previamente la co-relación entre altmetrics y la evaluación por pares. Primero se analizan las dimensiones subyacentes de la medición para las métricas tradicionales (recuentos de citas) y la altmetría utilizando el análisis de componentes principales (PCA) y el análisis factorial (FA). En segundo lugar, se analiza la relación entre las dimensiones y la calidad de los trabajos (medida por el sistema de revisión por pares posterior a la publicación en las evaluaciones del portal F1000Prime), utilizando un análisis de regresión. Los resultados del PCA y FA muestran que la altmetría opera a lo largo de diferentes dimensiones, mientras que los recuentos de Mendeley están relacionados con los recuentos de citas, y los tweets forman una dimensión separada. Los resultados del análisis de regresión indican que las métricas basadas en citas y los conteos de lectores están significativamente más relacionados con la calidad que con los tweets. Este resultado, por un lado, cuestiona el uso de los recuentos de Twitter para fines de evaluación de la investigación y, por otro lado, indica el uso potencial de los recuentos de lectores de Mendeley.

 

 

STIP Compass portal sobre las tendencias nacionales en materia de políticas de ciencia, tecnología e innovación (CTI).

stipcompass_infographics

STIP Compass

STIP Compass es una iniciativa de la Comisión Europea y la OCDE para reunir en un solo lugar datos cuantitativos y cualitativos sobre las tendencias nacionales en materia de políticas de ciencia, tecnología e innovación (CTI). El portal apoya la vigilancia y el análisis continuos de las políticas de CTI de los países y tiene por objeto convertirse en una plataforma central para la investigación y el asesoramiento en materia de políticas en apoyo de los funcionarios gubernamentales, los analistas y los académicos.

Los datos son de libre acceso según los principios FAIR (Findable, Accesible, Interoperable y Reutilizable). STIP Compass incorpora más de 500 cuadros de mando interactivos y proporciona una sofisticada herramienta de búsqueda con filtrado inteligente que facilita el descubrimiento de políticas,  permitiendo a los usuarios consultar sin problemas la base de datos para determinar las políticas nacionales sobre una amplia gama de cuestiones relacionadas con las políticas de CTI.

Existen dos maneras de acceder a los datos en STIP Compass:

(1) Tableros interactivos para visualizar los datos sobre países, temas políticos, instrumentos políticos y grupos destinatarios de las políticas.

(2) Explorador de políticas para la búsqueda de datos, utilizando palabras clave y criterios de refinamiento.

 

La principal fuente de datos para STIP Compass son las respuestas de los países a la encuesta sobre políticas de CTI CE-OCDE, que se realiza cada dos años. La edición más reciente se administró a finales de 2017. En su mayor parte, se pide a los países que enumeren y caractericen las iniciativas políticas que están llevando a cabo para hacer frente a un desafío concreto, como el déficit de innovación que suelen encontrar las PYME o las lagunas en la transferencia de conocimientos entre las universidades y las empresas.

 

 

 

La antigua y futura biblioteca: el papel de la biblioteca (nacional) en el apoyo a la investigación

uksgi-31-409-g1

Reimer, T. (2018). The once and future library: the role of the (national) library in supporting researchInsights , 31, 19 . DOI: http://doi.org/10.1629/uksg.409

Ver Texto

El entorno mundial de la investigación está cambiando rápidamente y con él el papel de las bibliotecas en apoyo de la investigación. Tomando como ejemplo la Biblioteca Británica, este artículo proporciona un análisis situacional de los desafíos a los que se enfrentan las bibliotecas de investigación en este contexto. Esboza un papel nuevo, o al menos modificado, para las bibliotecas de investigación, tomando como ejemplo la estrategia emergente de servicios de investigación de la Biblioteca Británica y su programa de gestión del cambio » ‘Everything Available’ «. Sostiene que si las bibliotecas quieren seguir añadiendo valor al proceso de investigación, tienen que cambiar su forma de pensar, pasando de centrarse en las colecciones locales a contribuir a un entorno de conocimiento mundial, de manera persistente y abierta.

Cuando te enfrentas a un entorno que cambia rápidamente, tienes tres opciones: no hacer nada, seguir u orientarte hacia el liderazgo. Espero que las bibliotecas aspiren a hacer lo segundo. Las bibliotecas nacionales en particular deberían asumir un papel de liderazgo, no con la idea de que siempre sabemos mejor, sino con el entendimiento de que nuestro cometido nos permite coordinar, facilitar y sostener soluciones. Tenemos que pensar en los problemas a los que se enfrentan nuestros usuarios y no asumir que, por el mero hecho de existir, nuestras colecciones son siempre la respuesta. Junto con otros sectores, estamos pasando de un modelo de contenido local a un modelo de proveedor de servicios de información global. Las bibliotecas deberían tratar de configurar activamente esa transición. Aún así, puedo decir cómodamente que siempre nos encantarán los libros.

 

 

¿Están sobreutilizadas las suscripciones a la biblioteca?

 

ssd-periodicals-price-survey-mobile-blog-image

Are Library Subscriptions Over-Utilized?
By LISA JANICKE HINCHLIFFEMAY The Scholarly Kitchen 22, 2018

Ver completo

El costo por uso es una relación de dos componentes: el numerador (costo) y el denominador (uso). Como tal, existen dos estrategias posibles para mejorar la relación costo por uso como medida de valor, ya sea aumentando el uso o disminuyendo el costo. Las bibliotecas disponen de muchas estrategias para aumentar el uso y los intereses de los editores están alineados con este enfoque, ya que no amenaza los ingresos por suscripciones. De hecho, los propios editores también se esfuerzan mucho por aumentar su uso. El autor plantea algunas estrategias para racionalizar los presupuestos y aumentar la eficiencia de las suscripciones

 

No tenemos que buscar demasiado para encontrar a alguien que argumente que una base de datos de suscripción es un buen valor porque tiene un costo por uso inferior al promedio. Los bibliotecarios y editores son muy dados a plantear este argumento para mostrar que nuestra institución proporciona un alto valor a sus usuarios por la inversión en la suscripción a colecciones. Sin embargo, ¿es siempre así que el bajo costo por uso es un indicador de calidad? Si el verdadero valor de una suscripción está siendo oscurecido por la sobreutilización, ¿deberían las bibliotecas tratar de amortiguar ese exceso con el  fin de disponer de medidas más apropiadas del valor real de una suscripción? Al hacerlo, ¿podría una biblioteca negociar mejores precios para algunos recursos y, por lo tanto, administrar más eficazmente una asignación presupuestaria limitada a fin de servir mejor a su comunidad de usuarios?

En contraste, los bibliotecarios han expresado frustración por su aparente incapacidad para influir en la parte del numerador de la ecuación de costo por uso. Ninguna biblioteca es capaz de comprar o licenciar todo el contenido que sería útil para su comunidad de usuarios; la mayoría de las veces su poder adquisitivo disminuye, ya que sus presupuestos no siguen el ritmo de la inflación y mucho menos de los aumentos de precios. Por lo tanto, el reto al que se enfrentan los bibliotecarios no es cómo gastar cada vez más dinero en cantidades cada vez mayores de contenido, sino más bien cómo gastar cada vez menos dinero de la manera más eficaz posible. En realidad, para muchos bibliotecarios, la tarea principal es saber que es lo que se puede cancelar.

En este ensayo se plantea la posibilidad de que la creciente disponibilidad de contenido de acceso abierto, junto con el potencial de esfuerzos sistematizados para poner ese contenido abierto en el flujo de trabajo de los usuarios, podría ser un mecanismo para que los bibliotecarios obtengan algún control de sus presupuestos y precios. En términos generales, hay pocas razones para pagar por algo que está abiertamente disponible y, sobre todo, cuando se hace así se impide pagar por otras cosas que los usuarios de la biblioteca necesitan.

Las bibliotecas han hecho un gran esfuerzo por desarrollar repositorios institucionales, apoyar los mandatos en acceso abierto a los campus y abogar por la financiación de las APC (Gastos por procesamiento de artículos). Al menos en parte, el objetivo ha sido reducir los costes (y quizás los beneficios de los editores comerciales) además de aumentar el acceso de los lectores. A medida que las versiones en acceso abierto de los artículos estén cada vez más ampliamente disponibles a través de estos y otros esfuerzos, mediante la presentación de versiones abiertas a los usuarios de las bibliotecas, o incluso privilegiando las versiones abiertas, las bibliotecas podrían aprovechar los resultados de sus esfuerzos para negociar precios más bajos. Tales contratos todavía podrían permitir a la biblioteca demostrar el valor de invertir en recursos de suscripción – cambiando el costo por uso, no aumentando el uso de los recursos de suscripción sino disminuyendo sus costos.

El autor  sugiere algunas tácticas, así como las estrategias de empuje de ResearchGate, Google Scholar y otras similares, que podrían darnos una idea de cómo las bibliotecas podrían ofrecer mejor los materiales de acceso abierto en el flujo de trabajo de los usuarios, a través de una serie de enfoques en tres categorías: adquisición, vinculación y entrega.

Ver completo

 

 

Informe Cotec 2018. Situación de la I+D+I en España

 

mockup_portada_versic3b3n-1

Informe Cotec 2018. Madrid, Fundación Cotec, 2018.

Texto completo

 

El Informe Cotec refleja cada año, desde 1996, la situación de la I+D+I en España, a través de los principales indicadores nacionales, autonómicos e internacionales. El documento ofrece además análisis de expertos y propuestas destinadas a que la innovación sea un motor de cambio que contribuya al desarrollo económico y social del país.

El último ejercicio del que se disponen datos, 2016, se debe al empuje del sector privado, que ha conseguido compensar una inversión pública en retroceso. En 2016 se observa también el primer aumento reseñable —desde 2008— en el número de empresas que hacen i+d. Sin embargo, este suave empuje no ha sido suficiente para frenar la caída en el esfuerzo empresarial en i+d en relación al pib, iniciada en 2008, y que contrasta, de nuevo, con el aumento sostenido de los valores de este indicador en la Unión Europea.

Es preciso recordar que la falta de inversión privada en investigación y desarrollo es también —y sobre todo— un reto para las políticas públicas, puesto que son las administraciones las responsables de crear las condiciones de entorno —regulatorio, fiscal, educativo, fi nanciero, cultural…— adecuadas para el desarrollo de un tejido empresarial que apueste defi nitivamente por la i+d. En este sentido según datos de la ocde, España es, a día de hoy, uno de los países desarrollados que, en relación con su PIB, presenta un menor apoyo público a la ciencia, la tecnología y la innovación en el sector privado (ocupa la posición 22) En el año 2010 se inicia una reducción en las partidas de los Presupuestos Generales del Estado destinadas a i+d+i que está lejos de recuperarse.

Además de los sucesivos recortes en lo presupuestado registrados hasta 2015, el descenso drástico en la ejecución ha provocado que la inversión pública haya caído más de un 60% entre 2009 y 2016, bajando en ese periodo de 8£476 millones de euros a 3£182. A falta de conocer el dato definitivo de 2017, las primeras estimaciones de la Fundación Cotec, en base a los datos de ejecución para 2017 facilitados por la Intervención General del Estado —y a la evolución observada en los primeros meses de 2018— no parecen anticipar ninguna mejoría. Un año más, todas estas evidencias recurrentes hacen necesario insistir en la necesidad de revisar las políticas de innovación, sus instrumentos, los fondos que se destinan a ellas y los medios humanos y tecnológicos que se dedican a su gestión. entre los países de la OCDE).

Suecia apoya las revistas científicas digitales de código abierto y boicotea a Elsevier

tear_up_contract

Sweden to open source digital science journals and boycotts Elsevier
Michael Kozlowski

Good e-Reader 

2018, may, 18

 

 

Elsevier es una de las mayores editoriales del mundo especializada en revistas científicas, técnicas y médicas y ediciones digitales. Ganan miles de millones de dólares cada año y las universidades suecas pagaron a Elsevier 1,3 millones de euros por la publicación de artículos y 12 millones de euros por el acceso a los artículos. El año pasado, Suecia exigió que todos los contenidos de investigación presentados desde su país se pusieran a disposición del público y que sus 1.900 revistas estuvieran a disposición de los investigadores y las universidades. Elsevier se negó y ahora Suecia ha suspendido todos los pagos a la empresa y, a partir del 30 de junio, los investigadores suecos ya no publicarán con ellos.

Astrid Söderbergh Widding, presidenta de la Universidad de Estocolmo y presidenta del comité de dirección del consorcio, dijo que los crecientes costes de la comunicación científica están «tensando los presupuestos universitarios a escala mundial, mientras que los editores operan con altos márgenes de beneficio».

«Necesitamos monitorear el costo total de la publicación ya que vemos una tendencia hacia un rápido aumento de los costos de lectura y publicación», dijo la profesora Widding. «El sistema actual de comunicación académica debe cambiar, y nuestra única opción es cancelar los acuerdos cuando no cumplan con nuestras demandas de una transición sostenible hacia el acceso abierto.»

El gobierno sueco quiere implementar el pleno acceso abierto a los artículos de investigación y otros contenidos académicos para 2026. Quieren negociar una serie de acuerdos que incluyan derechos para que los investigadores publiquen todo su trabajo en abierto. Austria, el Reino Unido, Suecia y Finlandia han llegado a acuerdos similares, mientras que Suiza comenzará a negociar sus primeros contratos de acceso abierto este año.