Archivo de la categoría: Investigación

Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA

Kuykendall, By Kristal, y 05/30/23. «Turnitin: Of 38M Submissions Since April 4, 3.5% Had At Least 80% AI-Written Text -». Campus Technology. Accedido 2 de junio de 2023. https://campustechnology.com/articles/2023/05/turnitin-says-its-ai-detector-analyzed-38m-submissions-in-six-weeks.aspx.

Según Turnitin, el 3,5% de las consultas que pasaron por el detector de IA contenían más del 80% de texto escrito con IA, y algo menos de una décima parte de los envíos contenían al menos un 20% de texto escrito con IA.

Turnitin informó de que, de 38 millones de consultas realizadas desde el 4 de abril, aproximadamente el 3,5% de ellos contenían al menos un 80% de texto escrito por IA. Esto sugiere que hay una notable presencia de texto generado por IA en los envíos que Turnitin ha procesado.

De manera que en las primeras seis semanas de uso por parte de los educadores de la nueva función de detección de escritura por IA de Turnitin, ha llevado a la plataforma a ajustar el detector y a explicar mejor el significado y los índices de precisión de las puntuaciones de detección.

Las actualizaciones de la función de detección de IA inclyen:

  • Se ha añadido un asterisco a las puntuaciones inferiores al 20%: Ahora aparecerá un asterisco junto al indicador «puntuación» -o el porcentaje de un envío que se considera texto escrito con IA- cuando la puntuación sea inferior al 20%, ya que el análisis de los envíos hasta ahora muestra que los falsos positivos son mayores cuando el detector encuentra que menos del 20% de un documento está escrito con IA. El asterisco indica que la puntuación es menos fiable, según la entrada del blog.
  • Aumento del número mínimo de palabras: El número mínimo de palabras necesario para que el detector de IA funcione se ha aumentado de 150 a 300, porque el detector es más preciso cuanto más largo es un envío, dijo Chechitelli. «Los resultados demuestran que nuestra precisión aumenta con un poco más de texto, y nuestro objetivo es centrarnos en los escritos largos. Es posible que con el tiempo modifiquemos este requisito de palabras mínimas basándonos en la evaluación continua de nuestro modelo.»
  • Cambios en el análisis del detector de frases iniciales y finales: «También observamos una mayor incidencia de falsos positivos en las primeras o últimas frases de un documento», dijo Chechitelli. «Muchas veces, estas frases son la introducción o la conclusión en un documento. Como resultado, hemos cambiado la forma de agregar estas frases específicas para la detección con el fin de reducir los falsos positivos.»

Es importante señalar que la capacidad de Turnitin para detectar texto generado por IA se basa en sus algoritmos y bases de datos que comparan el texto enviado con las fuentes existentes para identificar posibles casos de plagio. Aunque Turnitin puede detectar casos en los que el texto generado por IA se ha copiado directamente de fuentes existentes, puede tener dificultades para identificar el plagio cuando el texto generado por IA es original y no procede de publicaciones existentes.

A medida que siga evolucionando el uso de la IA en la generación de texto, es posible que las herramientas de detección como Turnitin tengan que adaptarse y desarrollar nuevas técnicas para identificar y abordar eficazmente el plagio generado por IA. Las instituciones y organizaciones educativas también pueden necesitar establecer políticas y directrices específicas para abordar el uso de contenidos generados por IA y el plagio en entornos académicos.

Vale la pena mencionar que las cifras proporcionadas por Turnitin ponen de relieve la prevalencia del texto generado por IA, pero sería necesario realizar más análisis e investigaciones para comprender plenamente el impacto y las implicaciones del contenido generado por IA en el contexto de la integridad académica y la detección del plagio.

Más allá del donut: cinco formas de utilizar las «almetrics» para el éxito académico

Impact of Social Sciences. «Beyond the Doughnut – Five Ways to Use Altmetrics for Academic Success», 1 de junio de 2023.

Texto completa

Una década después de su creación, Andy Tattersall analiza cómo los académicos pueden hacer uso de las altmétricas más allá de los recuentos y las métricas.

El artículo analiza el uso de las altmetrics (métricas alternativas) como una herramienta para evaluar el impacto académico más allá de las métricas tradicionales, como las citas en revistas científicas. El autor destaca cinco formas en las que las altmetrics pueden ser utilizadas para lograr el éxito académico:

  1. Comprender el impacto en línea: Las altmetrics permiten rastrear el impacto de la investigación más allá de las publicaciones académicas tradicionales, incluyendo menciones en redes sociales, blogs y medios de comunicación. Esto proporciona una visión más completa del alcance y la influencia de la investigación.
  2. Identificar colaboraciones potenciales: Las altmetrics pueden ayudar a identificar investigadores y grupos de investigación con intereses similares y con un impacto significativo en sus respectivas áreas. Esto facilita la colaboración y el intercambio de conocimientos.
  3. Evaluar el impacto temprano: Las altmetrics pueden proporcionar una evaluación temprana del impacto de la investigación, incluso antes de que se publiquen las citaciones académicas formales. Esto puede ser especialmente útil para investigadores que desean demostrar el impacto de su trabajo en etapas tempranas de sus carreras.
  4. Mejorar la visibilidad y el alcance: Al promover la investigación a través de plataformas en línea y redes sociales, las altmetrics pueden aumentar su visibilidad y alcanzar a audiencias más amplias. Esto puede llevar a un mayor reconocimiento y oportunidades de colaboración.
  5. Recopilar evidencia para evaluaciones: Las altmetrics pueden proporcionar evidencia adicional para complementar las evaluaciones tradicionales basadas en citas. Al incluir datos de altmetrics en los informes de actividad académica, los investigadores pueden demostrar un impacto más amplio y diverso de su trabajo.

En conclusión, el artículo destaca que las altmetrics ofrecen nuevas formas de evaluar y medir el impacto académico, complementando las métricas tradicionales. Su uso puede ayudar a los investigadores a comprender mejor el impacto de su trabajo, identificar oportunidades de colaboración, evaluar el impacto temprano, aumentar la visibilidad y recopilar evidencia adicional para evaluaciones académicas.

Buenas prácticas en materia de datos: Eliminación de barreras a la reutilización de datos con licencias CC0 («Sin derechos reservados»)

The Dryad. «Good Data Practices: Removing Barriers to Data Reuse with CC0 Licensing». Dryad news, 30 de mayo de 2023.

Ver noticia

CC0 “No Rights Reserved”

CC0 permite a científicos, educadores, artistas y otros creadores y propietarios de contenidos protegidos por derechos de autor o bases de datos renunciar a esos intereses sobre sus obras y, de ese modo, ponerlas lo más completamente posible en el dominio público, de modo que otros puedan basarse libremente en ellas, mejorarlas y reutilizarlas para cualquier fin sin restricciones en virtud de la legislación sobre derechos de autor o bases de datos.

¿Por qué CC0 es una gran opción para los datos abiertos?

A los autores que envían datos a Dryad se les pide que consientan la publicación de sus datos bajo Creative Commons Public Domain Dedication, más comúnmente conocida como CC0. Al hacerlo, se pide a los autores que confirmen que cualquier material que haya sido publicado previamente por otro autor o grupo de trabajo se publicó en condiciones compatibles con CC0 y que aceptan publicar de forma novedosa cualquier material no publicado previamente bajo esta exención.

Las licencias Creative Commons (CC) son un estándar ampliamente adoptado para los productos académicos y también se emplean para una amplia gama de otros medios difundidos digitalmente (muchas imágenes de Wikipedia están alojadas bajo una licencia CC, por ejemplo). La licencia CC BY (Atribución) es particularmente común en las comunidades de investigación, ya que es la licencia bajo la cual se publican con frecuencia los artículos de acceso abierto. También existen muchas otras licencias abiertas estándar, como las específicas para software.

En cambio, CC0 no es una licencia, sino una renuncia a los derechos de autor del propietario o creador. Dedica una obra al dominio público sin restricciones ni condiciones para su reutilización, modificación o redistribución.

La reutilización de datos es el objetivo ideal de compartir datos abiertos. Las afirmaciones indebidas de derechos de autor y restricciones de licencias sobre material que probablemente no esté amparado por la ley de derechos de autor hace que los usuarios potenciales tengan que descifrar los textos legales para determinar si el contenido está sujeto a derechos de autor. Esto puede resultar bastante oneroso y crear aversión a la reutilización por miedo a acciones legales por uso indebido, especialmente en el caso de las licencias más restrictivas. Incluso si hay poca ambigüedad sobre si se puede hacer una reclamación de derechos de autor, la incertidumbre sobre cómo seguir las condiciones prescritas también puede sofocar la reutilización por miedo a acciones legales. Por ejemplo, todas las licencias CC exigen la atribución, pero ésta debe hacerse de la forma específica prescrita por el creador o creadores. Cuando se recopilan muchas obras con este tipo de licencias, esto puede crear mayor ambigüedad y cargas para los usuarios.

Con CC0, no hay ambigüedad sobre las restricciones de los datos, lo que, de nuevo, no autoriza a los usuarios potenciales a ignorar las normas establecidas por la comunidad, como la citación o la colaboración. Además, evita complicaciones en torno al llamado «apilamiento de atribuciones», cada vez más común a medida que los investigadores compilan grandes conjuntos de datos procedentes de muchas obras con licencias independientes (un inconveniente típico de CC BY en comparación con CC0). Por último, libera al editor de los datos de la carga legal de supervisar la reutilización de sus datos y, en caso necesario, de emprender acciones legales contra acciones percibidas como indebidas (algo para lo que muchas personas carecen de tiempo o recursos).

El concepto de renunciar a los derechos de autor de los productos académicos suele resultar desconcertante para los investigadores, que esperan que se reconozca el mérito de su trabajo. CC0 no exime ni excluye a los usuarios de los resultados publicados bajo esta exención de observar las normas establecidas de la comunidad, de las cuales la citación adecuada es sólo una de muchas. Las expectativas de citación y la práctica de hacerlo deben considerarse como una contribución positiva a una comunidad de investigación, no como una acción tomada bajo coacción por temor a acciones legales.

ChatGPT: la inteligencia artificial y la generación de textos académicos. Planeta biblioteca 2023/05/31

ChatGPT: la inteligencia artificial y la generación de textos académicos.

Planeta biblioteca 2023/05/31

ESCUCHAR EL PROGRAMA

Ir a descargar

Video Conferencia Argentina

Video «Cómo funciona CHATGPT»

ChatGPT es un modelo de lenguaje basado en IA desarrollado por OpenAI que puede ser una herramienta valiosa para los educadores. Permite interactuar con un asistente virtual inteligente para obtener respuestas y generar ideas sobre tendencias. Sin embargo, su uso plantea preocupaciones éticas y de privacidad, como el acceso y uso indebido a datos personales, el sesgo algorítmico, el plagio académico y las implicaciones de la toma de decisiones automatizada en temas sensibles.

Herramientas gratuitas para detectar tesis, trabajos de investigación, tareas, documentación y blogs generados por modelos de IA. ChatGPT, GPT-4, Bard y Claude

«Top 10 Tools for Detecting ChatGPT, GPT-4, Bard, and Claude». KDnuggets (blog). Accedido 30 de mayo de 2023. https://www.kdnuggets.com/top-10-tools-for-detecting-chatgpt-gpt-4-bard-and-claude.html.

Vivimos en una época de auge de la inteligencia artificial (IA), en la que cada semana aparecen nuevos modelos lingüísticos de gran tamaño (LLM) que pueden escribir como los humanos. Estos modelos pueden generar contenidos muy creativos y, por desgracia, algunos estudiantes y profesionales los utilizan indebidamente para plagiar.

Como resultado, las herramientas de detección de IA se han convertido en algo esencial en todas las aulas, lugares de trabajo e institutos de investigación. Todas las herramientas mencionadas en este blog son gratuitas, y algunas de ellas incluso vienen con extensiones de Chrome para que puedas detectar contenidos sobre la marcha.

  1. GPTZero

GPTZero se ha mejorado significativamente. Ahora es muy preciso, fácil de usar e incluye una extensión para Chrome. Puede utilizarlo para detectar una amplia gama de texto generado por IA, incluido el texto de los últimos modelos como Bard (PalM 2), ChatGPT, GPT-4 y otros modelos de código abierto. Además, es rápido y resalta el texto generado para facilitar su identificación.

  1. OpenAI AI Text Classifier

AI Text Classifier de OpenAI es muy preciso, pero no proporciona información adicional sobre el contenido. Funciona para New Bard, ChatGPT, GPT-4 y otros modelos basados en LLaMA.

  1. CopyLeaks

CopyLeaks. Es un verificador de plagio rápido y preciso que viene con una simple extensión de Chrome. Incluso puedes pasar el ratón sobre el texto resaltado para comprobar la popularidad de la IA. Puede detectar Bard, ChatGPT, GPT-4 y otros grandes modelos lingüísticos (LLM).

  1. Typeset

Academic AI Detector es un poco diferente de las otras herramientas mencionadas. Es muy preciso, pero se diseñó específicamente para detectar contenido académico en PDF. No hay opción de copiar y pegar por el momento, pero el equipo técnico está trabajando para añadir esa característica. Puedes cargar cualquier tipo de trabajo académico como PDF y Typeset generará resultados. Typeset detecta contenido generado por Bard, ChatGPT y HuggingChat, y lo ha detectado todo con precisión.

  1. Moderación de Hive

La detección de contenidos generados por AI Generative Content Detection a veces identifica erróneamente contenidos generados por humanos como IA. Para garantizar resultados fiables, es aconsejable disponer de una herramienta de respaldo cuando se utilice como recurso principal. Además, ofrece la capacidad de detectar imágenes generadas por IA de plataformas como DALL-E, Midjourney y Stable Diffusion.

  1. Content at Scale

AI Content Detector de Content at Scale es fácil de usar y produce informes bastante precisos sobre predictibilidad, probabilidad y patrón. Funciona con todo tipo de modelos lingüísticos de gran tamaño (LLM) más recientes y destaca el contenido en función de la probabilidad variable de que la IA genere trabajo…

  1. Hello Simple AI

 ChatGPT Detector de Hello Simple AI es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por ChatGPT. Está alojada en Hugging Face Spaces y proporciona resultados rápidos y bastante precisos. El detector no es tan preciso como OpenAI AI Text Classifier, pero proporciona dos métricas (GLTR y probabilidad PPL) que pueden ayudar a determinar si el contenido está generado por IA o no.

  1. OpenAI Detector

OpenAI Detector es una herramienta gratuita y de código abierto que puede utilizarse para detectar texto generado por el modelo de lenguaje GPT de OpenAI. Está alojado en Hugging Face Spaces y proporciona resultados rápidos. Sin embargo, el detector puede ser muy impreciso, especialmente cuando se trata de detectar versiones más recientes de los modelos de OpenAI y otros modelos de lenguaje de gran tamaño de código abierto.

  1. AI Detector 

AI Detector  es una herramienta bastante precisa que puede utilizarse para detectar texto generado por ChatGPT, Bard y otras versiones antiguas de grandes modelos lingüísticos (LLM). Sin embargo, no es capaz de detectar versiones más recientes de LLM. Esto se debe a que funciona analizando la sintaxis y la semántica del texto, y los LLM más recientes son mejores generando texto que no se distingue del texto escrito por humanos.

  1. Writer.com

El Detector de Contenido AI de Writer se presenta como la opción menos precisa con una limitación de 1500 caracteres. Sirve como solución alternativa cuando otras herramientas no están disponibles o son ineficaces.

Los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Wikipedia and open access». arXiv, 23 de mayo de 2023. https://doi.org/10.48550/arXiv.2305.13945.

Wikipedia es una conocida plataforma de difusión del conocimiento, y las fuentes científicas, como los artículos de revistas, desempeñan un papel fundamental en apoyo de su misión. El movimiento de acceso abierto tiene como objetivo hacer que el conocimiento científico esté disponible abiertamente, e intuitivamente podríamos esperar que el acceso abierto ayude a promover la misión de Wikipedia. Sin embargo, se desconoce en gran medida el alcance de esta relación. Para llenar este vacío, se analizaron un gran conjunto de datos de citas de Wikipedia cuyo objetivo era analizar el papel del acceso abierto en los patrones de citación de Wikipedia.

Se descubrió que los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia. Es más, muestran una probabilidad un 15% mayor de ser citados en Wikipedia en comparación con los artículos de acceso cerrado, después de controlar los factores de confusión. Este efecto de citación del acceso abierto es particularmente fuerte en el caso de los artículos con bajo número de citas, incluidos los publicados recientemente.

Los resultados demuestran que el acceso abierto desempeña un papel clave en la difusión del conocimiento científico, entre otras cosas al proporcionar a los editores de Wikipedia acceso oportuno a resultados novedosos. Estas conclusiones tienen importantes implicaciones para investigadores, responsables políticos y profesionales del campo de la ciencia y la tecnología de la información.

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto?

Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto? por Julio Alonso Arévalo

Universidad Dr. José Matías Delgado San Salvador (El Salvador) 23/05/2023

VIDEO

Quienes llevamos publicando durante años, a veces no somos conscientes de la importancia que tienen algunos conceptos básicos en torno a la publicación científica. Este video-tutorial tiene como finalidad servir de ayuda a aquellas personas e investigadores noveles que se enfrentan a como publicar.

Publicaciones falsas en ciencias biomédicas: el método Red-Flagging indica una producción masiva

Sabel, Bernhard A., Emely Knaack, Gerd Gigerenzer, y Mirela Bilc. «Fake Publications in Biomedical Science: Red-Flagging Method Indicates Mass Production». medRxiv, 8 de mayo de 2023. https://doi.org/10.1101/2023.05.06.23289563.

La integridad de las publicaciones académicas se ve cada vez más socavada por las publicaciones científicas falsas producidas masivamente por «servicios de edición» comerciales (las llamadas «fábricas de artículos»). Estos servicios utilizan técnicas de producción automatizadas y asistidas por IA a gran escala y venden publicaciones falsas a estudiantes, científicos y médicos presionados para avanzar en sus carreras. Dado que se desconoce el alcance de las publicaciones falsas en biomedicina, hemos desarrollado un método sencillo para identificarlas y estimar su número.

Para identificar indicadores capaces de señalizar publicaciones falsas (RFP ed-flagged fake publications), enviamos cuestionarios a los autores. A partir de las respuestas de los autores, se identificaron tres indicadores: «correo electrónico privado del autor», «coautor internacional» y «afiliación hospitalaria». Estos indicadores se utilizaron para analizar 15.120 publicaciones incluidas en PubMed® con respecto a la fecha, la revista, el factor de impacto y el país del autor, y se validaron en una muestra de 400 falsificaciones conocidas y 400 presuntas no falsificaciones emparejadas utilizando reglas de clasificación (recuento) para marcar en rojo las posibles falsificaciones. Para una submuestra de 80 artículos se utilizó un indicador adicional relacionado con el porcentaje de citas RFP.

Resultados Las reglas de clasificación que utilizaron dos (tres) indicadores tuvieron sensibilidades del 86% (90%) y tasas de falsas alarmas del 44% (37%). De 2010 a 2020 la tasa de RFP aumentó del 16% al 28%. Teniendo en cuenta los 1,3 millones de publicaciones biomédicas incluidas en Scimago en 2020, estimamos el alcance de >300.000 RFP anuales. Los países con la mayor proporción de RFP son Rusia, Turquía, China, Egipto e India (39%-48%), siendo China, en términos absolutos, el mayor contribuyente de todas las RFP (55%).

Conclusiones Las publicaciones potencialmente falsas pueden señalarse mediante reglas de clasificación validadas y fáciles de usar para someterlas a un examen posterior. Los índices de RFP están aumentando, lo que sugiere que los índices reales de falsificación son más elevados que los registrados anteriormente. La magnitud y proliferación de las publicaciones falsas en biomedicina pueden dañar la confianza en la ciencia, poner en peligro la salud pública y repercutir en el gasto económico y la seguridad. Unos métodos de detección de falsificaciones fáciles de aplicar, como los que aquí se proponen, o unos métodos automatizados más complejos pueden ayudar a evitar más daños al registro científico permanente y permitir la retractación de publicaciones falsas a escala.

Resultados de la encuesta sobre el estado de la métrica responsable de 2021 (2022)

Figura 8 Fuentes de datos utilizadas para acceder a los datos de las métricas

Price, Robyn. «Results from the 2021 Responsible Metrics State of the Art Survey». The Bibliomagician (blog), 4 de agosto de 2022.

Ver completo


Ya están aquí los resultados de la séptima encuesta anual sobre el estado de la métrica responsable. Con un poco de retraso sobre nuestro calendario habitual de publicación, a continuación encontrará el resumen de los resultados de la encuesta de 2021 y algunas reflexiones sobre las tendencias desde que la comunidad de Bibliometría LIS inició la encuesta en 2015. Los resultados de las encuestas de años anteriores también están disponibles.

Se recibieron un total de 91 respuestas a la encuesta de 2021. Esta cifra es inferior a la recibida en 2020 (139 respuestas), que a su vez supuso un descenso sustancial con respecto a 2019 (218 respuestas). Aunque desconocemos la razón de este descenso (¿carga de trabajo por la pandemia? ¿Fatiga por las encuestas?), estamos muy agradecidos a los que respondieron y espero que muchos encuentren útil esta información.

La variedad de países representados en las respuestas muestra que el 73% de los encuestados trabajan fuera del Reino Unido.

DORA


La proporción de encuestados que informan que ya han firmado o es probable que firmen DORA sigue aumentando año tras año, del 30% en 2019; 32% en 2020 al 40% en 2021. Los factores contextuales en torno a esto podrían incluir el Wellcome Trust nombrando explícitamente a DORA como una ruta para que las organizaciones de financiación cumplan con su política de acceso abierto en 2018 y el nombramiento explícito de DORA por cOAlition S. Del 17% de los encuestados que informaron estar considerando activamente pero aún no decididos, los comentarios sobre la consideración de «perspectiva(s) disciplinaria(s)» y la firma potencial de DORA a un «‘nivel de unidad’ en lugar de un nivel universitario» indican perspectivas potencialmente diferentes sobre DORA a través de las líneas de la facultad o escuela.

Desarrollo de principios institucionales

Las organizaciones también pueden desarrollar su propio conjunto de principios de métrica responsable, y el porcentaje de encuestados que afirman haber creado o estar desarrollando sus propios principios ha aumentado de forma constante, llegando al 44% de los encuestados en 2021. Las organizaciones también pueden ser signatarias de DORA y desarrollar sus propios principios.

Fuentes de datos y herramientas

Las fuentes de datos que las instituciones encuestadas podían seleccionar para indicar que las utilizan para obtener informes de métricas muestran una popularidad sostenida de Scopus (23%) y Web of Science (20%) con respecto a los informes del año anterior, así como las plataformas institucionales (el CRIS y el Repositorio Institucional) y Google Scholar como fuentes. (Fig.8)

También se preguntó a los encuestados qué herramientas utilizan, lo que muestra la gran variedad de tipos de herramientas y estilos de análisis utilizados en el sector. La popularidad de herramientas como SciVal, Altmetric e InCites muestra la preferencia por herramientas que no necesitan conocimientos de codificación para recuperar datos y pueden crear indicadores con una construcción y un mantenimiento mínimos. SQL, VOSViewer y Bibliometrix/Biblioshiny demuestran la experiencia y los recursos del sector bibliométrico en materia de ciencia de datos y conocimientos de programación para crear soluciones personalizadas. La presencia de Google Big Query y PowerBI es especialmente interesante, ya que ninguno de los dos aparecía en los resultados de la encuesta de 2020, pero su uso cada vez mayor sugiere que, junto con Tableau, las instituciones están cada vez más interesadas en crear sus propios cuadros de mando de inteligencia empresarial y análisis, quizás para el acceso autoservicio a los datos de los usuarios que pueden conectarse a los almacenes de datos institucionales y fusionar múltiple (Fig. 9)

Figura 9 Herramientas utilizadas para construir métricas

Conclusiones

Dos tendencias continuas realmente positivas de 2015 a 2021 son el aumento del porcentaje de encuestados que afirman que su institución ha creado su propia política de métricas responsables (40% de los encuestados en 2021) y que ya se han comprometido o se comprometerán con DORA (40% de los encuestados en 2021). Esto, en mi interpretación, sugiere que hay un impulso en las instituciones para construir de manera significativa sus propios enfoques de evaluación basados en valores, así como para comprometerse con el programa global DORA y buscar su fortaleza. La intersección con otros marcos, como el Manifiesto de Leiden, y la adaptación de las políticas de otras instituciones también sugieren una cultura de flexibilidad e intercambio.

Algunas de las repercusiones citadas por los encuestados de sus políticas de métrica responsable en sus procesos institucionales son bastante notables, y algunas personas describen cambios positivos y tangibles que afectan a los procedimientos de RRHH y de evaluación. Algunos, por supuesto, también admitieron la lentitud de estos cambios y cierto apego persistente al Factor de Impacto en la evaluación. Entre las áreas en las que quizás todavía no se han tomado medidas para informar, o no se está dispuesto a hacerlo, se encuentran los mecanismos de cumplimiento. Esto puede estar relacionado con el 25% de los encuestados que afirmaron que la respuesta académica a las políticas de métricas responsables era «neutral», lo que sugiere que, en realidad, esto es difícil de captar y categorizar.

El número cada vez menor de encuestados que se someten a esta encuesta de 2019 a 2021 es una causa para que los autores contemplen si esto sigue siendo un recurso útil creado a partir del tiempo voluntario del Comité LIS-Bibliometrics. Si usted es lector y opina lo contrario, ¡háganoslo saber! Los comentarios, como siempre, están abiertos, al igual que el listserv y nuestra cuenta de Twitter.

Contribuciones: Encuesta de 2021 elaborada y distribuida por Nicolas Robinson Garcia, basada en encuestas históricas elaboradas por Lizzie Gadd; con análisis y redacción de 2021 por Robyn Price.

Ciencia abierta: guía práctica para investigadores noveles

Loek Brinkman, Elly Dijk, Hans de Jonge, Nicole Loorbach, & Daan Rutten. (2023). Open Science: A Practical Guide for Early-Career Researchers (1.0). Zenodo. https://doi.org/10.5281/zenodo.7716153

Texto completo

El consorcio holandés de Bibliotecas Universitarias y la Biblioteca Nacional de los Países Bajos (UKB), junto con las Universidades de los Países Bajos (UNL), el centro nacional holandés de expertos y repositorio de datos de investigación (DANS) y el Consejo de Investigación Holandés (NWO), ha publicado una guía práctica sobre Ciencia Abierta.

Los investigadores principiantes son un eslabón importante en la transición a la Ciencia Abierta, por lo que esta guía está dirigida a doctorandos, estudiantes de máster en investigación e investigadores noveles de todas las disciplinas en universidades e institutos de investigación holandeses. Está diseñada para acompañar a los investigadores en cada paso de su investigación, desde la fase de preparación de su proyecto de investigación y el descubrimiento de los recursos pertinentes (capítulo 2) hasta la fase de recopilación y análisis de datos (capítulo 3), la redacción y publicación de artículos, datos y otros resultados de la investigación (capítulo 4), y la divulgación y evaluación (capítulo 5). Cada capítulo le proporciona las mejores herramientas y prácticas para aplicar la Ciencia Abierta de forma inmediata.