Archivo de la categoría: Investigación

La lucha contra las falsas revistas científicas fraudulentas

 

 

Cada vez son más las estafas que están enmascarando publicaciones que no lo son como revistas académicas que requieren del pago para aceptar y publicar trabajos sin ningún tipo de revisión por pares. Estas revistas son generalmente fáciles de detectar. Pero ahora hay un nuevo problema: el propio proceso de revisión por pares está siendo hackeado gracias a los servicios de terceros a los que se paga para fabricar falsas revisiones por pares.

 

La condición sine quanum para que consideremos que una revista es científica es que haya sido sometida a un proceso de revisión por parte de expertos o pares. El proceso de revisión por pares es crucial para la integridad de las publicaciones académicas, y es una tarea clave para asegurar que la información que se publica se ha examinado a fondo y es lo más precisa posible. Si una revista afirma que los documentos que publica son revisadas por expertos, se supone que este hecho proporciona  a los lectores un grado de confianza de que un grupo de expertos ha evaluado los contenidos que se publican en la misma, y que han pasado un examen concienzudo.

El proceso de revisión científica da validez como tal a una investigación, el desarrollo del proceso de revisión lo lleva a cabo el comité científico de la revista o publicación. El comité científico en general es designado por el editor de la revista entre aquellos expertos más cualificados o con mayor experiencia en ese área de conocimiento.  Cuando un autor envía un original a una revista, el editor designa a dos o tres de esos expertos para que revisen la calidad de la publicación; normalmente este proceso se lleva a cabo por lo que se denomina doble ciego; es decir los revisores no saben quién es el autor de la publicación y a la viceversa, el investigador desconoce quienes son los que hacen la revisión de su publicación. Cuando el comité científico emite el juicio de evaluación normalmente se dan tres posibilidades

1. Publicación del artículo sin modificaciones

2. Aceptación del artículo con modificaciones

3. Rechazo

En resumen los revisores analizan la metodología de investigación utilizada en el trabajo y hacen sugerencias para mejorar y optimizar la calidad de lo publicado. También pueden optar por rechazar un trabajo si la investigación es poco sólida. y como vimos anteriormente los revisores normalmente no tienen contacto directo con los investigadores, si no que les comunican sus comentarios, críticas y preocupaciones por medio de los editores de la revista, sea directamente o a través de la plataforma de la revista (OJS), que luego son quienes deciden finalmente si aceptan o no el documento para su publicación en base al consenso respecto al juicio emitido por aquellos otros. En el caso de que haya una diferencia fuerte de criterio entre ambos revisores se designa a un tercero.

La presencia de entidades falsas que fingen validar la investigación no es nuevo en el mundo académico, pero en los últimos años  con el auge del libre acceso, los falsos informes de investigación fraudulenta han ido siendo objeto cada vez de más atención. El hecho de que el nombre del revisor asignado a un trabajo suene legítimo no quiere decir que en realidad lo sea. Según una noticia aparecida esta semana en The Dai ly Dot, no es ningún secreto que cualquiera puede fingir casi todo en Internet: referencias falsas de trabajos, noticias falsas, falsas audiencias, falsas credenciales académicas y ciencia falsa. Incluso las revistas universitarias que distribuyen importantes investigaciones de universidades de todo el mundo comienzan a ser objeto de estos mismos tipos de influencias, ya que en los últimos años es bastante frecuente encontrar revistas evaluadas por falsos revisores que proliferan en el mundo académico, según Retraction Watch una página web dedicada a la vigilancia científica al menos un total de 250 revistas de este tipo han sido denunciadas en los últimos tres años.

La tendencia reciente que permite a los autores del original e incluso a los propios revisores recomendar a otros investigadores para hacer revisiones por pares de su trabajo ha sido en parte el factor desencadenante de la corrupción en el sistema. En algunos casos incluso se está produciendo el robo de identidad, ya que los pares falsos suelen utilizar nombres de importantes científicos pertenecientes al área de investigación del documento a revisar, sin que los verdaderos científicos sepan que su identidad ha sido robada y está siendo utilizada para la emisión de opiniones falsas sobre una investigación a evaluar.

El proceso está mucho más extendido de lo que podríamos creer en un principio. El número total de documentos con revisiones por pares falsos desde 2012 sólo representa el 15 por ciento del número total de las denuncias hechas por Retraction Watch, una cifra relativamente importante respecto a miles de artículos científicos que se publican cada año en el que además se han visto implicadas importantes firmas editoriales. En el último año la revista Nature informó que parte de su plataforma, un software de gestión y publicación de servicios llamado ScholarOne, había sido utilizado para enlazar a más de un centenar de cuentas falsas de falsos revisores, las cuales redirecionaban  de nuevo a un único autor en Taiwán. Incluso sistemas tan sólidos como el de Elsevier también son vulnerable, aunque se sabe que esta importante editorial está trabajando para no permitir a los usuarios agregar cuentas fraudulentas, o hackear cuentas de editores y asignarlas a  colaboradores fraudulentos.

La buena noticia es que a medida que han ido apareciendo falsas revisiones científicas también lo han hecho los sitios de vigilancia que identifican revistas que ofrecen revisiones por pares falsos, e incluso en algunos casos de estafas por parte de revisores reales que ofrecen a los autores buenas críticas a cambio de dinero para crear reseñas falsas.

Todo esto tiene importantes daños colaterales para muchos autores, ya que muchos de los trabajos de investigación que aparecen en estas revistas fraudulentas son legítimos, y sus autores no tienen nada que ver con el falso proceso de revisión por pares, de modo que estos autores son víctimas de esta pantomima de sistema de revisión por pares, y una vez que sus documentos se retraen, será muy difícil para ellos volver a dar a conocer los resultados de su trabajo legítimos de investigación.

Basado en

Academic journals are facing a battle to weed out fake peer reviews.

El principal reto para la aplicación de métricas alternativas de medición científica es la consistencia en los datos

 

En prácticamente todos los ámbitos de investigación, las herramientas digitales se han convertido en indispensables, la aparición de nuevos paradigmas como el acceso abierto, métricas alternativas y redes sociales son un ejemplo importante de cómo estos cambios han afectado a la forma en que los estudiosos piensan en el futuro de las publicaciones académicas. Estos acontecimientos han creado nuevas posibilidades y desafíos en la evaluación de la calidad de la investigación, también a nivel de investigadores individuales y desarrollos de carrera.  Pero para que esto sea una realidad es muy importante entender las similitudes potenciales o diferencia en las cifras a través de diferentes agregadores altmetrics. Para ello es necesario recurrir a las mejores prácticas en la recopilación de datos altmetric tanto por parte de los proveedores altmetric como de los agregadores y editores. Para ello es conveniente desarrollar normas, directrices y recomendaciones para introducir transparencia y coherencia a través de proveedores y agregadores.

La Declaración Universal de los Derechos Humanos establece la universalidad de la Ciencia como un principio fundamental e igualitario, que incluye el derecho a participar en el progreso científico y en los beneficios de la ciencia “… la libertad de comunicación para científicos, así como el acceso equitativo a los datos, información y recursos para la investigación”.

Esto está en correlación con los principios de las métricas alternativas, ya que según Open access to scientific data and literature and the assessment of research by metrics del International Council of Science. Las métricas utilizadas en la evaluación de la investigación y los investigadores debieran ayudar a promover el acceso abierto abierto y la ciencia abierta, y la comunidad científica debe participar en el plenamente en su diseño.

Los medios sociales están cambiando la forma de interactuar, presentar las ideas e información, y juzgar la calidad de los contenidos y contribuciones. En los últimos años han surgido cientos de plataformas que permiten compartir libremente todo tipo de información y conectarnos a través de redes. Estas nuevas herramientas generan estadísticas de actividad e interacciones entre sus usuarios tales como menciones, retweets, conversaciones, comentarios en Blogs o en Facebook; gestores de referencias que muestran índices de popularidad de las referencias más compartidas por otros investigadores o repositorios que generan estadísticas de visitas, o descargas de artículos.

Los educadores, los estudiantes, investigadores y el público en general utilizan habitualmente los medios sociales para compartir noticias sobre los avances científicos y otros campos de estudio. El impacto de estos cambios en la comunicación científica y en la credibilidad de la información todavía está por verse, pero es evidente que los medios sociales han encontrado una importante tracción en casi todos los sectores de la educación y como consecuencia de ello están generando una influencia en los procesos de comunicación científica y en los hábitos y comportamientos de los investigadores de todas las disciplinas.

La influencia generada por los medios sociales ha sido calificada como Investigación 2.0, Social reference, Altmetrics ..etc. Varios autores han investigado la influencia en Twitter, en Blogs y gestores de referencias (Jiang, He, Ji, 2001) Sin lugar a dudas la mayor parte de los investigadores han trasladado sus actividades de investigación a la web. Y con el éxito de los medios sociales esta situación se ha hecho más evidente, ya que estas herramientas tienen más potencialidad para desarrollar un rango mayor de influencia académica que los entornos tradicionales de publicación. A pesar de que aún las publicaciones impresas siguen teniendo una fuerte influencia en la comunidad académica, los medios sociales como blogs, repositorios, redes sociales y gestores de referencias en línea están empezando a ser considerados con el objetivo de obtener una imagen más completa acerca del impacto de las publicaciones. Sitios como Google Scholar incluyen muchos tipos de publicaciones como preprits, presentaciones, artículos o tesis, que no aparecen en los sistemas tradicionales como Web of Science o Scopus, y que de alguna manera reflejarían una más amplia tipología de impacto (Aguillo, 2010).

La transición a esta nueva era presenta tanto retos como oportunidades. Quienes participan en la administración de la investigación utilizan métricas tradicionales para la evaluación de la importancia y el impacto de la investigación Estas métricas a su vez afectan el comportamiento de investigadores, tales como la elección de revistas, ya que se busca maximizar su desempeño, aspecto que tiene que ver con las métricas utilizadas, lo que contribuye al mantenimiento de los altos precios de las publicaciones. La apertura y el compartir, permite un nuevo reconocimiento del impacto de la investigación a través de nuevas contribuciones y la generación de conjuntos de datos, software, código, blogs, wikis y foros.

Bibliotecas digitales, repositoiros OA, revistas y bases de datos de artículos permiten descargar un documento y disponer de estadísticas de uso, estas tienen un importante potencial para establecer la popularidad de un artículo, y su potencial de lectura, lo que en alguna manera es un buen indicador de su valor o influencia científica. Algunos estudios también han hecho la correlación entre el número de vistas y descargas a un documento y el número de citas recibidas, lo que sugiere en alguna manera que las estadísticas de uso tienen una relación directa con su impacto (Brody, Harnad, Carr, 2006) ; aunque también existen algunos problemas prácticos respecto al uso de estás estadísticas para evaluación de la investigación, como la falta de uniformidad y normalización, o que los propios editores las manipulen para obtener una mayor influencia. Aunque las mayores críticas se centran en decir que se trata de una simple medida de uso, y no de influencia científica (Neylon, Wu, 2009). Una serie de investigadores han trabajado en la identificación de nuevos métodos cuantitativos de evaluación de la investigación para la Web con el objetivos de complementar el análisis de citas tradicional.

En conclusión, Altmetric aporta una medida más real y más objetiva del impacto social de la investigación. Pero el objetivo principal para que la aplicación de las de las métricas alternativas sea adecuada tiene que fundamentalmente con la coherencia de los datos entre los proveedores  altmetrics y agregadores para el mismo conjunto de publicaciones. Por coherencia se entiende tener unas puntuaciones razonablemente similares para fuentes con el mismo DOI a través de diferentes proveedores o agregadores  altmetrics.

El informe Users, narcissism and control – tracking the impact of scholarly publications in the 21st century recomienda iniciar un programa de investigación concertada en la dinámica, propiedades y uso potencial de las métricas web basados en las nuevos sistemas de medición de impacto de la publicación. Su objetivo es contribuir al desarrollo de las herramientas más útiles para la comunidad científica y académica. Este programa considera relevantes para la medición alternativa las siguientes herramientas:  F1000Microsoft Academic ResearchImpact story,PlosONE altmetrics, and Google Scholar. El programa, además deberán desarrollar los siguientes temas: conceptos clave de la investigación de nuevas métricas web y altmetrics, la estandarización de herramientas y de datos, y el uso y la normalización de las nuevas métricas.

Users, narcissism and control – tracking the impact of scholarly publications in the 21st century

.

Hace unos meses anunciamos en Universo Abierto que la Universidad de Utrech estaba haciendo una encuesta sobre las herramientas más populares utilizadas por los investigadores de todo el mundo “Most popular tools for single research activities“ ya disponemos de resultados preliminares al respecto. Estas cifras representan los primeros 1.000 respuestas. En conjunto, los 1.000 encuestados mencionan más de 1000 herramientas diferentes algunas no incluidas en la encuesta preliminar. Estos datos son de gran utilidad para conocer que herramientas están utilizando los investigadores, cuales son las herramientas emergentes que tienen una mayor proyección de futuro, y de esta manera los responsables en bibliotecas universitarias orientar la formación que impartimos a nuestros investigadores hacia estos recursos. Es importante poner de relieve que quienes han contestado a la encuesta son investigadores que utilizan estos recursos.

 

 

A la pregunta de que sitios web utilizan para buscar literatura profesional ponen de manifiesto que la herramientas más utilizadas son Google Schoolar en un 92% de los casos, seguido de Web of Science en un 47%, PubMed un 45%, Scoupus un 29%, Mendeley un 22% y WorldCat en en 20%.

La mayoría de los investigadores recurren al repositorio de su propia institución para depositar y dar visibilidad a sus trabajos de investigación en un 53% de las respuestas. Otro sitio popular para depositar los trabajos de investigación es ResearchGate (50%) en el que difunden sus investigaciones prácticamente la mitad de los autores. De los repositorios temáticos los más populares y utilizados son PubMed y ArXix con un 18 y un 19% respectivamente. En el ámbito de las Ciencias Sociales SSRN (5%)

Además la mitad de los investigadores utilizan Web of Science para medir el impacto de su investigación,Journal Citation Report de Thompson es utilizado por el 45%, y Almetric.com (44%) se configura como la tercera herramienta utilizada para este fin, incluso por delante de Scopus, y otros recursos altmétricos como ImpactStory o Ploos article level metrics.

La comprensión de las diferencias en los recuentos obtenidos utilizando diferentes métodos es importante para el desarrollo de altmetrics. Recientemente se ha publicado el estudio How consistent are altmetrics providers? Study of 1000 PLOS ONE publications using the PLOS ALM, Mendeley and Altmetric.com APIs.  para ello se recogió una muestra aleatoria de 30.000 DOIs obtenidos de Crossref (15.000) y WoS (15.000), publicados en 2013. El resultado del estudio es que se encontraron importantes discrepancias e inconsistencias entre los proveedores de datos de métricas para los mismos conjuntos de datos. Es de destacar que los recuentos de lectores de Mendeley fueron muy similares entre los distintos agregadores, ya que los los datos proceden directamente de Mendeley. Pero sin embargo los resultados para el recuento de tweets y comentarios de Facebook existen diferencias enormes respecto a la recopilación y notificación de estas métricas. entre Altmetric.com y Lagotto la aplicación de código abierto utilizada por Plos Almetrics.

Las posibles razones de inconsistencia son:

– Las diferencias en las métricas de informes (entre datos filtrados y datos en bruto / mensajes públicos y mensajes privados)
– Diferentes metodologías en las métricas de recolección y procesamiento (Twitter API)
– Diferentes actualizaciones: con posible demoras en la recolección de datos o problemas de actualizaciónUtilizando diferentes identificadores (DOI, PMID, Identificación del arXiv) para las métricas de seguimiento
– Dificultades en la especificación de la fecha de  de recogida de datos de influencia la publicación (por ejemplo, diferentes fechas de publicación entre WoS y Crossref)
– Los problemas de accesibilidad que difieren en diferentes plataformas de los editores  (DOI resolver cuestiones URLs, problemas de cookies, denegación de acceso)

Las métricas utilizadas en la evaluación de la investigación y los investigadores debieran ayudar a promover el acceso abierto abierto y la ciencia abierta, y la comunidad científica debe participar en el plenamente en su diseño. Por lo que el Consejo Internacional para la Ciencia hace las siguientes recomendaciones adicionales:

1. Los modelos de negocio para las publicaciones científicas se deben construir en beneficio del bien científico, y tener en cuenta las necesidades de los países en desarrollo y desarrollados científicamente.

2. Los mecanismos para lograr el acceso abierto varían según la disciplina, y para algunos campos de la investigación puede haber restricciones éticas o legales legítimas sobre el acceso a datos de investigación y, en casos muy limitados a los resultados de investigación en sí mismos. Sin embargo, la apertura debe ser la norma, a no ser que existan circunstancias claramente justificadas.

3. Se requiere una vigilancia para que los nuevos modelos de publicación y difusión no comprometan la calidad. Hay una necesidad urgente revindicada desde hace años por las comunidades de investigación y publicación para desarrollar formas de señalización a los autores y los lectores las revistas y repositorios de datos que tienen las garantías necesarias de calidad y archivo seguro a través de los procedimientos implantados.

4. Los editores y redactores de publicaciones científicas requieren que los autores proporcionen referencias explícitas de los trabajos conjuntos de datos de instrumentos subyacentes publicados, utilizando identificadores persistentes individuales. Requiere también que los conjuntos de datos de la investigación sean depositados y disponibles en repositorios digitales fiables y sostenibles. Citándose los datos en las listas de referencia utilizando un formato estándar aceptado.

5. El Consejo Internacional para la Ciencia suscribe los principios y directrices para el acceso a datos de la investigación financiada con fondos públicos de la OCDE  referidos a acceso abierto: “La apertura significa acceso y agrupación en condiciones de igualdad para la comunidad científica internacional a los precios que pueden tener un costo marginal de difusión. El acceso abierto a los datos de investigación con financiación pública debe ser accesible a través de internet, de forma adecuada y fácil de utilizar”.

6. La falta de claridad en lo que a usos permitidos se refiere, o a los requisitos que requieren pedir permiso para usar datos específicos, son obstáculos a la apertura y a la reutilización. Por lo tanto, todos los conjuntos de datos debe ir acompañados de una licencia en regla que aclare los usos permitidos, así también, el generador de los datos debe ser reconocido, y, en su caso los datos de a quien necesita un investigador dirigirse para obtener el correspondiente permiso adicional para usar los datos.

7. Junto con los beneficios que se obtienen a través de la información de completa, abierta y gratuita de datos, los propios científicos tienen la responsabilidad de hacer que sus propios datos y resultados científicos estén ampliamente disponibles tan pronto como sea posible. Los períodos de embargo no contribuyen a  la buena ciencia.

8.  la preparación de la gestión de datos y un plan de difusión y la participación temprana de los administradores de datos “premium” deberían ser “requisitos para todos – o al menos para aquellos financiados con fondos públicos – como proyectos y programas de investigación. La evaluación del desempeño y el éxito de los programas y proyectos de investigación ofrecidos por los financiadores y las partes interesadas incluyen prácticas de gestión y difusión de datos.

9. Editores y redactores de publicaciones científicas requieren que los autores proporcionen referencias explícitas al software o código utilizado.

10.  En la evaluación de la investigación, las métricas deben considerarse como una ayuda, y no como un sustituto, para la buena toma de decisiones. Las citas únicamente no deberían utilizarse de forma aislada para la evaluación al desempeño de los investigadores, como el único método para distribuir fondos a personas o grupos de investigación. Es necesario además la opinión de expertos.

11. El Consejo Internacional para la Ciencia suscribe la Declaración de San Francisco de Evaluación de la Investigación (DORA), en la que se reconoce la necesidad de implementar metodologías sobre como se evalúan los resultados de la investigación.

12. Los términos de los contratos que se rigen para la adquisición de publicaciones periódicas científicas y bases de datos de las bibliotecas de las universidades y centros de investigación debe ser accesibles al público.

También la Organización Nacional de Información de Normas (NISO) ha puesto en marcha un grupo de trabajo sobre la calidad de los datos altmetricos a principios de 2015, NISO Alternative Assessment Metrics (Altmetrics) Initiative, que tiene como objetivo desarrollar directrices claras para la recolección, procesamiento, difusión y reutilización de los datos altmetricos en beneficio de todos los agentes participantes en este proyecto.

En conclusión en prácticamente todos los ámbitos de investigación, las herramientas digitales se han convertido en indispensables, la aparición de nuevos paradigmas como el acceso abierto, métricas alternativas y redes sociales son un ejemplo importante de cómo estos cambios han afectado a la forma en que los estudiosos piensan en el futuro de las publicaciones académicas. Estos acontecimientos han creado nuevas posibilidades y desafíos en la evaluación de la calidad de la investigación, también a nivel de investigadores individuales y desarrollos de carrera.  Pero para que esto sea una realidad es muy importante entender las similitudes potenciales o diferencia en las cifras a través de diferentes agregadores altmetrics.

Para ello es necesario recurrir a las mejores prácticas en la recopilación de datos altmetric tanto por parte de los proveedores altmetric como de los agregadores y editores. Para ello es conveniente desarrollar normas, directrices y recomendaciones para introducir transparencia y coherencia a través de proveedores y agregadores.

.

Ver

Aguillo, I. “Is Google Scholar Useful for Bibliometrics? A Webometrics Analysis.” 3th International Conference of the International Society for Scientometrics & Informetrics.13-14 (2011).Texto completo

Alonso-Arévalo, Julio Alfabetización en Comunicación Científica: Acreditación, OA, redes sociales, altmetrics, bibliotecarios incrustados y gestión de la identidad digital., 2014 . In Alfabetización informacional: Reflexiones y Experiencias, Lima (Perú) , Lima-Perú, 20 Y 21 de marzo del 2014. Texto completo

Alonso Arévalo, Julio. “Los Gestores De Referencias Sociales: Índices De Popularidad Y Descubrimiento Científico.” Comunidades de prácticas 2.0 de la SEDIC (2009). Texto completo

Alonso Arévalo, Julio, José Antonio Cordón García, and Helena Martín Rodero. “Citeulike Y Connotea: Herramientas 2.0 Para El Descubrimiento De La Información Científica.” El Profesional de la Información 19.1 (2010): 86-94. Texto completo

Brody, T. Carr L. Harnad S., and Alma Swan. “Time to Convert to Metrics.” ECS EPrints Repository (2007).  Texto completo

Charlando con Julio Alonso Arévalo sobre visibilidad científica e impacto en la red. Social media en investigación Publicado en Mayo 7, 2015 por julio Leer la entrevista completa

Consistency challenges across altmetrics data providers/aggregators. 2:am amsterdan 2015Texto completo

International Council of Science. (2014). [e-Book]  Open access to scientific data and literature and the assessmentof research by metrics, International Council of Science. Texto completo

Jiepu Jiang, Daqing He, and Chaoqun Ni. “Social Reference: Aggregating Online Usage of Scientific Literature in Citeulike for Clustering Academic Resources.” JCDL’11, June 13–17, 2011, 11 (2011): 401-02. Texto completo

Neylon, Cameron “Re-Use as Impact: How Re-Assessing What We Mean by “Impact” Can Support Improving the Return on Public Investment, Develop Open Research Practice, and Widen Engagement “ Altmetrics (2011).  Texto completo

Wouters, Paul  and Rodrigo  Costas. [e-Book]  Users, narcissism and control – tracking the impact of scholarly publications in the 21st century, SURFfoundation, 2012. Texto completo

Zahedi, Zohreh; Fenner, Martin; Costas, Rodrigo (2014): How consistent are altmetrics providers? Study of 1000 PLOS ONE publications using the PLOS ALM, Mendeley and Altmetric.com APIs. figshare. Texto completo

Desarrollo del primer modulo de revisión científica para repositorios (OPRM)

.

¿Por qué los artículos en arXiv o cualquier otro repositoro de acceso abierto no son acreditados formalmente como publicaciones? ¿Qué es exactamente lo que diferencia a los repositorios de acceso abierto de las editoriales? La respuesta es simple, que las publicaciones en revistas vienen con un indicador de calidad asociado con el prestigio de la revista, además porque sobre todo no van acompañados de ninguna garantía medible de calidad científica.

Con el apoyo de OpenAire Open Scholar coordinará un consorcio de cinco socios para desarrollar el primer módulo de revisión para repositorios de acceso abierto (OPRM). En el que participan el repositorio institucional del Consejo Superior de Investigaciones Científicas español (DIGITAL.CSIC) , el repositorio del Instituto Español de Oceanografía (e-IEO) ,  el Instituto de Investigación en Inteligencia Artificial de Cataluña (IIIA) , el Laboratorio Multidisciplinario de Biblioteconomía y Ciencias de la Computación en Granada (SECABA) , y una empresa de desarrollo y servicios profesionales con DSpace (ARVO)

OPRM pretende capitalizar la infraestructura existente ofrecida por los repositorios de acceso abierto y permitir su conversión en plataformas de evaluación totalmente funcionales con métricas de calidad asociadas. El proyecto prevé la conversión gradual de los repositorios de acceso abierto existente en plataformas de evaluación totalmente funcionales que proporcionen la capacidad necesaria para recuperar el control de calidad de la investigación en favor de la comunidad de investigadores y de este modo ayudar a minimizar la brecha entre las instituciones académicas y editoriales.

OPRM inicialmente se desarrolló como un plugin para repositorios utilizando el paquete de software Dspace, pero se diseñará de forma que facilite su posterior adaptación a otros paquetes de software de repositorios como EPrints y Invenio. La instalación del plugin OPRM en un repositorio de acceso abierto institucional u otro permitirá a la revisión formal de cualquier trabajo de investigación alojado en un repositorio por un número ilimitado de pares. Además, el sistema de reputación incluirá medidas de consenso para fortalecer aún más la validez de los resultados de agregación.

Este proceso de evaluación basado en repositorios se puede ejecutar en paralelo al tradicional de revisión por pares de cualquier revista y sus objetivos son:

  • Permitir a la revisión por pares de cualquier trabajo de investigación depositados en un repositorio, incluyendo datos, software y monografías.
  • Proporcionar nuevas métricas para la evaluación cuantitativa de la calidad de la investigación
  • Crear un sistema de reputación sofisticado para los colaboradores
  • Permitir que la ponderación de las revisiones en base a la calidad de las contribuciones anteriores de los usuarios
  • Facilitar la selección de contenido relevante de los repositorios digitales para distinguir que ha sido validado por los colaboradores mediante etiquetas y filtros de búsqueda avanzada
  • Involucrar a la comunidad de investigadores en un diálogo abierto y transparente sobre la solidez y utilidad del material de investigación

El diálogo entre la ciencia y la comunicación de la ciencia: lecturas contemporáneas

Porto, C., A. Brotas, et al.. [e-Book] Diálogos entre ciência e divulgação científica: leituras contemporâneas. Brasil, EDUFBA, 2011.

Texto completo:

PDF

ePub

Este libro aborda la relación de la ciencia y su difusión, estableciendo diálogos entre investigadores de diferentes temas sobre la ciencia y sus interfaces, acometiendo cuestiones prácticas tales como la relación entre la ciencia y la cultura, y el análisis de las preguntas interesantes, tales como la presencia de la ciencia en la música y el enfoque que los medios de comunicación brasileños dan a cuestiones tales como las células de bioetanol y células madre.

Sostenibilidad de la ciencia para una ciencia fuerte

Tom, Dedeurwaerdere. [e-Book] Sustainability Science for Strong Sustainability, Edward Elgar Publishing, 2014

Texto completo

PDF completo

Capítulos

El dinamismo de la ciencia ha sido catalítico para la prosperidad humana en la historia reciente. Las perspectivas convencionales del modelo de torre de marfil de la ciencia moderna conllevan al fracaso de la humanidad para hacer frente a las crisis globales de carácter económico, ambiental y social. Las soluciones operativas a estas presiones han crecido y se exponen a los peligros de la ciencia moderna. “Sustainability Science for Strong Sustainability”, investiga los conceptos básicos, las herramientas y las estrategias institucionales de la ciencia de la sostenibilidad transdisciplinaria. Programas de investigación prominentes dentro de la economía heterodoxa, las ciencias ambientales y la teoría de la transición se exploran a través de diversos estudios de caso, que revela los retos y avances de la investigación transdisciplinaria. En este libro, la reforma de la ciencia moderna se ve facilitada por la consideración de puntos de acción para superar las barreras institucionales para poner la ciencia de la sostenibilidad en la práctica. Los investigadores, estudiantes y profesionales de la política se beneficiarán de un conocimiento de la práctica de la investigación transdisciplinaria para la sostenibilidad.