Archivo de la categoría: Investigación

IOP Publishing (IOPP) proporciona comentarios a los revisores sobre sus informes de revisión para mejorar la calidad de la revisión por pares y fortalecer las mejores prácticas

Cullen, Cait. «IOP Publishing Unveils Industry-Leading Feedback System for Reviewers». IOP Publishing, 14 de noviembre de 2023. https://ioppublishing.org/news/iop-publishing-unveils-industry-leading-feedback-system-for-reviewers/


IOP Publishing (IOPP) ahora ofrece retroalimentación a los revisores sobre sus informes de revisión para mejorar la calidad de la revisión por pares y fortalecer las mejores prácticas en las ciencias físicas.

IOPP ha implementado el nuevo programa de manera voluntaria en todas sus revistas propietarias. Cuando los revisores optan por recibir comentarios sobre su informe, IOPP compartirá una evaluación numérica de qué tan útil fue el informe para los editores internos en una escala del 1 al 5, siendo 5 excepcional y 1 indicando que el informe no es adecuado para tomar una decisión. Luego, los revisores pueden ver información constructiva sobre la estructura y utilidad de los informes que explica la evaluación.

Una encuesta que incluyó a más de 1.200 investigadores que han revisado o sido invitados a revisar con IOPP muestra que recibir comentarios sobre sus informes de revisión mejoraría su experiencia en la revisión por pares, ya sea ser notificados sobre la decisión final sobre el artículo o recibir información sobre la calidad de su informe. En particular, los resultados muestran que los comentarios sobre la calidad de los informes son más valorados por los investigadores en etapas tempranas de sus carreras, donde estos comentarios pueden ser invaluables para desarrollar sus habilidades de investigación.

El lanzamiento sigue a una prueba exitosa del programa en tres revistas de IOP Publishing, incluyendo Engineering Research Express, Environmental Research Letters y Plasma Physics and Controlled Fusion. Más del 85% de los revisores involucrados en la prueba indicaron que recibir comentarios sobre su informe fue útil o muy útil. Desde que IOPP extendió el programa a todas sus revistas propietarias en septiembre, más de 2,700 revisores ya han optado por recibir comentarios sobre sus informes.

Laura Feetham, Gerente de Compromiso de Revisores en IOPP, dice: «El trabajo de nuestros expertos en revisión por pares es crucial para el avance de la ciencia, y sin embargo, los revisores rara vez (si es que alguna vez) reciben comentarios de los editores sobre la calidad de sus informes y en qué medida influyeron en la decisión editorial. Queríamos cambiar esto en nombre de nuestras comunidades de revisión por pares. Ahora, nuestros revisores pueden optar por recibir una evaluación honesta de su informe, directamente del editor. Nuestra esperanza es que esto mejore la transparencia en el sistema de revisión por pares y ayude a los investigadores en etapas tempranas de sus carreras a construir sus habilidades de revisión por pares».

La introducción de la retroalimentación a los revisores es la última de una serie de innovaciones en la revisión por pares en IOPP, que incluye una nueva política de co-revisión y el programa Peer Review Excellence.

Estado de los Datos Abiertos 2023

Science, Digital, Mark Hahnel, Graham Smith, Henning Schoenenberger, Niki Scaplehorn, y Laura Day. «The State of Open Data 2023». Report. Digital Science, 14 de noviembre de 2023. https://doi.org/10.6084/m9.figshare.24428194.v1.

Texto completo

El informe anual «The State of Open Data» destaca que casi tres cuartas partes de los investigadores encuestados afirmaron no recibir el apoyo necesario para compartir abiertamente sus datos. Estos datos resaltan la creciente necesidad de una mayor colaboración comunitaria y herramientas para respaldar a los investigadores en la transición hacia prácticas sostenibles de ciencia abierta.

Para el 23% restante de los encuestados que buscaron y recibieron apoyo para compartir datos, este apoyo provino principalmente de fuentes internas (colegas/supervisores – 61%), seguido por bibliotecas institucionales (31%), la oficina de investigación o la experiencia interna institucional (26%), editoriales (21%) y financiadores (17%).

Más de 6000 investigadores respondieron a nivel mundial, con la mayor proporción de respuestas provenientes de India (12%), China (11%) y Estados Unidos (9%). Por primera vez, este año se preguntó a los encuestados sobre sus experiencias en el uso de inteligencia artificial (IA) para recopilar y compartir datos. En un momento en que casi tres cuartas partes de los investigadores encuestados dicen que nunca han recibido apoyo para hacer que sus datos estén abiertamente disponibles, explorar el potencial de las tecnologías de inteligencia artificial (IA) para respaldar el proceso de intercambio de datos y medir las actitudes actuales puede permitir a los interesados en todo el ecosistema de investigación considerar el papel futuro que la IA podría desempeñar en el proceso de investigación.

Otros hallazgos clave de este informe muestran que:

  • El 60% de los encuestados creen que no reciben suficiente crédito por compartir sus datos, lo que sigue siendo una preocupación continua que ha aparecido en los informes «The State of Open Data» durante los últimos 8 años. Esto obstaculiza la promoción de la ciencia abierta y las prácticas sostenibles de intercambio de datos al socavar los incentivos, la confianza y la colaboración.
  • Se necesita un enfoque global más matizado para la gestión de datos de investigación: una talla única no sirve para todos. Por ejemplo, hubo un consenso general a favor de un mandato nacional para los datos de investigación abierta (64%), con respuestas de India y Alemania mostrando niveles más altos de apoyo (ambas 71%) en comparación con otros países.
  • La etapa de la carrera no es un factor significativo en la conciencia o los niveles de apoyo a los datos abiertos; se necesita un alcance más inclusivo al organizar discusiones, foros y paneles en el espacio de investigación abierta.
  • La conciencia sobre la IA aún no se ha traducido en acción: aunque casi la mitad de los encuestados eran conscientes de las herramientas de IA generativas para la recopilación de datos, el procesamiento y la creación de metadatos, la mayoría aún no las está utilizando.

Panorama global de la excelencia científica: análisis de los investigadores altamente citados 2023 y el cambio en las dinámicas globales de investigación

Highly Cited Researchers

La distribución de estas designaciones muestra una concentración destacada en ciertos campos. Los Investigadores Altamente Citados provienen de 67 países/regiones, pero el 83.8% procede de solo 10, y el 72.7% de los cinco primeros, evidenciando una concentración significativa de talentos. Estados Unidos lidera con 2,669 investigadores, aunque su cuota mundial ha disminuido desde 2018, a diferencia de China continental, que ha experimentado un aumento del 10%.


Clarivate™ ha anunciado este año 7,125 designaciones de Highly Cited Researchers para 6,849 individuos. El número de designaciones supera al de individuos debido a que algunos investigadores reciben reconocimiento en más de un campo de Essential Science Indicators™ (ESI). Estas designaciones se distribuyen de manera desigual por campos, reflejando el tamaño de cada uno.

Los Investigadores Altamente Citados de 2023 provienen de unos 67 países/regiones, pero el 83.8% proviene de solo 10, y el 72.7% de los cinco primeros, lo que destaca una concentración significativa de talentos.

Estados Unidos sigue teniendo la mayor concentración de investigadores muy citados, con 2,669 en 2023, representando el 37.5% del grupo. China continental mantiene la segunda posición con 1,275 investigadores (17.9%). El Reino Unido ocupa el tercer lugar con 574 investigadores (8.1%). Otros países en el top 10 son Alemania, Australia, Canadá, Países Bajos, Francia, Hong Kong e Italia.

Se destaca el aumento significativo de la proporción de investigadores muy citados en China continental en los últimos años, mientras que Estados Unidos ha experimentado una pérdida de cuota. En 2023, China continental ha aumentado su cuota mundial en un 10% desde 2018, mientras que Estados Unidos ha experimentado una disminución del 5.9%.

En cuanto a las instituciones, Harvard lidera la lista con 237 investigadores muy citados, seguida por la Universidad de Stanford. La Academia China de Ciencias encabeza la lista de instituciones con 270 investigadores muy citados, seguida por los Institutos Nacionales de Salud de EE.UU., la Sociedad Max Planck, el Memorial Sloan Kettering Cancer Center y el Broad Institute.

Cuando los autores declaran más de una filiación deben poner en primer lugar la universidad en la que trabajan


Press, Europa. «Comité de Ética en Investigación pone orden: los autores deben poner primero la principal Universidad en la que trabajan». Europa Press, 3 de noviembre de 2023.

Texto completo

El Comité Español de Ética de la Investigación ha señalado que, cuando los autores declaran más de una afiliación, «es importante el orden o prioridad con el que se declaran dichas afiliaciones, que debe corresponderse con la relación contractual del autor».

En abril del año pasado, un informe de la consultora Siris reveló que varios investigadores españoles que figuraban en la lista de Highly Cited Researchers de Clarivate con afiliación principal en instituciones españolas cambiaron su afiliación principal a universidades de Arabia Saudita. Este cambio, destacado en el informe, tiene implicaciones significativas, ya que contar con investigadores altamente citados es crucial para la reputación de las universidades y su posición en el Ranking Académico de Shanghai. En este contexto, la investigación destacó que un solo investigador altamente citado puede permitir que una universidad suba hasta 200 lugares en el Ranking de Shanghái. Además, el informe subraya la importancia de clarificar los detalles de afiliación, así como el derecho de las entidades a preservar la afiliación en el caso de autores que cambian de institución, sugiriendo la necesidad de códigos éticos que aborden estos aspectos.

Así, el informe del comité, encargado por el Ministerio de Ciencia e Innovación, establece que la autoría científica debe estar vinculada a la afiliación y que ambas informaciones son inseparables en la producción científica. Se reconoce que los autores pueden tener varias afiliaciones, pero se destaca que la entidad principal, que corresponde a la entidad empleadora principal, debe ser declarada primero. Además, se señala que los cambios en la afiliación deben reflejar adecuadamente el período de la investigación y que los códigos éticos de las instituciones deben destacar la importancia de la afiliación en la autoría. El Comité Español de Ética en la Investigación es un órgano independiente que vela por la integridad y la ética en la investigación científica y técnica en España, y ha sido establecido en conformidad con la nueva Ley de la Ciencia, la Tecnología y la Innovación.

Así se refleja en el primer informe del órgano consultivo sobre autoría y filiaciones en trabajos científicos y técnicos, recogido por Europa Press, a raíz de un encargo del Ministerio de Ciencia e Innovación.

El informe explica que la autoría científica se indica siempre junto con la afiliación y subraya que ambos datos son inseparables y deben figurar en todo tipo de producción científica (publicaciones, presentaciones en congresos, etc.).

La afiliación, añade el documento, indica las entidades, instituciones o empresas a las que está asociado cada uno de los autores de una publicación científica.

En este sentido, el Comité de Ética de la Investigación destaca que es habitual que los autores tengan múltiples afiliaciones. Por ejemplo, en el ámbito de las ciencias de la salud, muchos autores indican simultáneamente su afiliación hospitalaria y universitaria porque la vinculación (y el espacio de trabajo) de ambos cargos suele ser compartida.

En cualquier caso, advierte de que la afiliación primaria distingue a la entidad principal, que corresponde a la entidad empleadora primaria, de las afiliaciones secundarias. «Cuando los autores tienen afiliaciones secundarias con segundas y terceras entidades, es natural declarar esta conexión cuando sea pertinente», especifica la organización.


‘ChatGPT Detector’ detecta documentos generados por IA con una precisión sin precedentes

Prillaman, McKenzie. «‘ChatGPT Detector’ Catches AI-Generated Papers with Unprecedented Accuracy». Nature, 6 de noviembre de 2023. https://doi.org/10.1038/d41586-023-03479-4.

Los grandes modelos lingüísticos como ChatGPT pueden generar textos que parecen auténticos a la velocidad del rayo, si bien, la gran mayoría de editores de revistas rechazan los modelos lingüísticos como autores de manuscritos. Por tanto, se necesita inmediatamente un medio para distinguir con precisión el texto generado por humanos del generado por inteligencia artificial (IA).

Según un estudio publicado el 6 de noviembre en Cell Reports Physical Science, una herramienta de aprendizaje automático puede identificar fácilmente cuándo los documentos de química están escritos utilizando el chatbot ChatGPT. El clasificador especializado, que superó a dos detectores de inteligencia artificial (IA) existentes, podría ayudar a las editoriales académicas a identificar documentos creados por generadores de texto de IA.

Se trata de un detector preciso de texto de IA para revistas científicas probando su capacidad en una serie de situaciones complejas, incluido el texto humano de una amplia variedad de revistas de química, el texto de IA del modelo de lenguaje más avanzado disponible públicamente (GPT-4) y, lo que es más importante, el texto de IA generado mediante mensajes diseñados para ocultar el uso de IA. En todos los casos, los textos humanos y de IA se asignaron con gran precisión. El texto generado por ChatGPT puede detectarse fácilmente en las revistas de química; este avance es un requisito previo fundamental para entender cómo afectará la generación automatizada de texto a las publicaciones científicas de ahora en adelante.

«La mayoría de la comunidad de análisis de texto busca un detector realmente general que funcione en cualquier cosa», dice la coautora Heather Desaire, una química de la Universidad de Kansas en Lawrence. Pero al crear una herramienta que se centra en un tipo específico de documento, «realmente estábamos buscando la precisión».

Los hallazgos sugieren que los esfuerzos para desarrollar detectores de IA podrían mejorar al adaptar el software a tipos específicos de escritura, dice Desaire. «Si puedes construir algo rápidamente y fácilmente, entonces no es tan difícil construir algo para diferentes dominios».

Lista mundial de especies digitales en peligro de extinción: Día Internacional de la Preservación Digital

«Is data loss a choice? Global ‘Bit List’ of Endangered Digital Species 2023 released on World Digital Preservation Day – Digital Preservation Coalition». Accedido 3 de noviembre de 2023. https://www.dpconline.org/news/it-list-2023-is-data-loss-a-choice.

Texto completo

La Coalición para la Preservación Digital (Digital Preservation Coalition) ha publicado hoy, Día Mundial de la Preservación Digital, su edición 2023 de la «List’ of Endangered Digital Species»

La Lista Mundial de Especies Digitales en Peligro de la DPC, es un recurso abierto para la defensa de la preservación digital, es una lista comunitaria de materiales digitales en peligro que se revisa cada dos años. Las entradas de la lista son propuestas por la comunidad, que está a la vanguardia de los esfuerzos de preservación digital, y son revisadas por el Consejo de la Bit List, un grupo de organizaciones internacionales que representan la experiencia mundial en la preservación de las especies digitales incluidas en la lista.

En 2023, la Bit List incluye 87 entradas, lo que supone un notable aumento con respecto a las 73 de 2021. Aunque entre las nuevas entradas más significativas se incluye «‘First Nations Secret/Sacred Cultural Material», otras entradas se han reestructurado, fusionado y desagregado, lo que ha contribuido a este aumento general.

En respuesta a la aparente inercia, y en un contexto de riesgo cada vez mayor, el CPD tiene una serie de recomendaciones básicas.

  • Hace un llamamiento a auditores, reguladores y legisladores para que formulen planes que exijan un mayor nivel de competencia y atención a la preservación digital en el contexto de las industrias reguladas y las autoridades públicas para prevenir la pérdida de datos, reconociendo los perjuicios reputacionales y reales para las partes interesadas, para ellas mismas y para las generaciones futuras que se derivan, y que son totalmente evitables.
  • Pide a los tribunales y a las fuerzas y cuerpos de seguridad que utilicen todo el peso de la ley para perseguir las pérdidas de datos que se produzcan por negligencia criminal o prevaricación, especialmente aquellas supresiones que pongan de manifiesto una mala conducta profesional o impidan la rendición pública de cuentas.
  • Pide a los responsables del tratamiento de datos, a los directores de tecnología y a los comités de auditoría de las empresas que reconozcan que los compromisos a largo plazo no pueden cumplirse únicamente a base de proyectos y que, por tanto, integren los proyectos de preservación digital a corto plazo y exploratorios en planes estratégicos a más largo plazo.

El informe 2023 Bit List también es alentador y recuerda a los usuarios que la preservación digital es factible. Las «honrosas excepciones» a las que se refiere el Dr. Currie son dos entradas que han pasado a clasificaciones de menor riesgo. La reclasificación de los «Datos de investigación publicados anexos a artículos de revistas» y de los «Datos de investigación no publicados» se basa en mejoras sólidas y materiales. En estos casos y en el pequeño número de tendencias de mejora, el consejo de la Lista de Bits ha podido identificar el impacto de las aclaraciones políticas y los lugares en los que se han aplicado el esfuerzo y la experiencia.

Los editores de revistas publican unas orientaciones sobre el uso de la IA en la publicación científica

Kaebnick, Gregory E., David Christopher Magnus, Audiey Kao, Mohammad Hosseini, David Resnik, Veljko Dubljević, Christy Rentmeester, Bert Gordijn, y Mark J. Cherry. «Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing». Hastings Center Report n/a, n.o n/a. Accedido 2 de noviembre de 2023. https://doi.org/10.1002/hast.1507.

Los editores de siete revistas académicas publicaron recomendaciones sobre el uso responsable de herramientas de inteligencia artificial generativa por parte de autores, revisores y editores. Las recomendaciones prohíben que las herramientas de IA generativa sean consideradas como autores, pero permiten su uso para generar texto e ilustraciones.

«Estas restricciones son necesarias en parte para proteger la calidad académica, como han señalado otras declaraciones, pero también son vitales por razones sociales más amplias», afirmó Gregory E. Kaebnick, autor principal de las recomendaciones y editor del Informe del Hastings Center.

Estas herramientas «tienen el potencial de transformar la publicación académica de maneras que pueden ser perjudiciales pero también valiosas», dice la declaración, que fue publicada en varias de las revistas de bioética y humanidades editadas por los autores y firmantes. Entre los firmantes se encuentran Karen J. Maschke, editora de la revista Ética e Investigación Humana del Hastings Center, y Laura Haupt, editora jefe del Informe del Hastings Center y Ética e Investigación Humana. Seis editores adicionales también son firmantes.

Las cinco recomendaciones son las siguientes:

  1. Las LLMs [modelos de lenguaje grandes] u otras herramientas de IA generativa no deben figurar como autores en los artículos.
  2. Los autores deben ser transparentes sobre su uso de la IA generativa, y los editores deben tener acceso a herramientas y estrategias para garantizar la transparencia de los autores.
  3. Los editores y revisores no deben depender únicamente de la IA generativa para revisar los artículos enviados.
  4. Los editores tienen la responsabilidad final de seleccionar revisores y deben ejercer una supervisión activa de esa tarea.
  5. La responsabilidad final de la edición de un artículo recae en los autores y editores humanos.

Si bien estas recomendaciones son coherentes con las tomadas por el Comité de Ética en Publicación y muchos editores de revistas, difieren en algunos aspectos. Por un lado, abordan las responsabilidades de los revisores hacia los autores. Además, la nueva declaración toma una posición diferente a la de la revista Science, que sostiene que no solo una herramienta de IA generativa no puede ser considerada autora, sino que «el texto generado por ChatGPT (u otras herramientas de IA) no puede ser utilizado en el trabajo, ni pueden los gráficos, imágenes o ilustraciones ser producto de tales herramientas».

«Una prohibición así es demasiado amplia y puede ser imposible de hacer cumplir, en nuestra opinión», afirma la nueva declaración.

Las recomendaciones son preliminares. «No pretendemos haber resuelto las numerosas cuestiones sociales que creemos que la IA generativa plantea para la publicación académica, pero en aras de fomentar una conversación más amplia sobre estas cuestiones, hemos desarrollado un conjunto preliminar de recomendaciones sobre la IA generativa en la publicación académica», señala la declaración. «Esperamos que las recomendaciones y argumentos aquí establecidos ayuden a la comunidad académica a avanzar hacia una comprensión más profunda de las fortalezas, limitaciones y desafíos de la IA para el trabajo académico responsable».

Investigadores de la Universidad de Stanford diseñan un modelo de revisión por pares utilizando ChatGPT-4 con resultados sorprendentes

Stanford HAI. «Researchers Use GPT-4 To Generate Feedback on Scientific Manuscripts». Accedido 31 de octubre de 2023. https://hai.stanford.edu/news/researchers-use-gpt-4-generate-feedback-scientific-manuscripts.

Combinando un amplio modelo lingüístico (LLM) y artículos científicos revisados por pares de código abierto, investigadores de Stanford han creado una herramienta basada en inteligencia Artificial que esperan pueda ayudar a otros investigadores a pulir y mejorar sus borradores.

La investigación científica tiene un problema con poder disponer de pares que analicen la validez de los artículos. No hay suficientes revisores cualificados para evaluar todos los estudios. Este problema afecta sobre todo a los investigadores jóvenes y a los de instituciones menos conocidas, que a menudo no tienen acceso a mentores experimentados que puedan dar su opinión a tiempo. Además, muchos estudios científicos son rechazados sumariamente sin revisión por pares.

Intuyendo una crisis creciente en una época de aumento de los estudios científicos, investigadores de IA de la Universidad de Stanford han utilizado el gran modelo lingüístico GPT-4 y un conjunto de datos de miles de artículos publicados anteriormente -repletos de los comentarios de sus revisores- para crear una herramienta que pueda «revisar previamente» los borradores de manuscritos.

«Esperamos que los investigadores puedan utilizar esta herramienta para mejorar sus borradores antes de presentarlos oficialmente a congresos y revistas», afirma James Zou, profesor adjunto de Ciencia de Datos Biomédicos en Stanford y miembro del Instituto de IA Centrada en el Ser Humano (HAI) de Stanford. Zou es el autor principal del estudio, publicado recientemente en arXiv.

Los investigadores empezaron comparando los comentarios realizados por un gran modelo lingüístico con los de revisores humanos. Afortunadamente, una de las revistas científicas más importantes, Nature, y sus quince subrevistas (Nature Medicine, etc.), no sólo publica cientos de estudios al año, sino que incluye los comentarios de los revisores de algunos de esos trabajos. Y Nature no es la única. La International Conference on Learning Representations (ICLR) hace lo mismo con todos los trabajos -tanto los aceptados como los rechazados- de su conferencia anual sobre aprendizaje automático.

«Entre los dos, curamos casi 5.000 estudios y comentarios revisados por pares para compararlos con los comentarios generados por GPT-4», dice Zou. «El modelo lo hizo sorprendentemente bien».

Las cifras se asemejan a un diagrama de Venn de comentarios superpuestos. Entre los cerca de 3.000 artículos de la familia Nature incluidos en el estudio, había una intersección entre GPT-4 y los comentarios humanos de casi el 31 por ciento. En el caso de ICLR, las cifras eran aún mayores: casi el 40% de los comentarios de GPT-4 y humanos coincidían. Es más, si se consideran únicamente los artículos rechazados del ICLR (es decir, los artículos menos maduros), el solapamiento de comentarios entre GPT-4 y humanos aumentó hasta casi el 44%: casi la mitad de todos los comentarios de GPT-4 y humanos coincidían.

La importancia de estas cifras se hace más patente si se tiene en cuenta que, incluso entre los humanos, existe una variación considerable entre los comentarios de los distintos revisores de un mismo artículo. El solapamiento entre humanos fue del 28% en las revistas Nature y del 35% en ICLR. Según estos parámetros, el rendimiento de GPT-4 es comparable al de los humanos.

Pero aunque las comparaciones entre ordenadores y humanos son instructivas, la verdadera prueba es si los autores de los artículos revisados valoran los comentarios aportados por uno u otro método de revisión. El equipo de Zou llevó a cabo un estudio de usuarios en el que investigadores de más de 100 instituciones enviaron sus artículos, incluidos muchos preprints, y recibieron los comentarios de GPT-4. La mitad de los investigadores participantes consideraron que GPT-4 era el método más eficaz. Más de la mitad de los investigadores participantes consideraron que los comentarios de GPT-4 eran «útiles/muy útiles» y el 82 por ciento los consideraron «más beneficiosos» que ciertos comentarios de algunos revisores humanos.

En el artículo, Zou se apresura a señalar que el método tiene sus limitaciones. En particular, los comentarios de GPT-4 pueden ser a veces más «genéricos» y no detectar los problemas técnicos más profundos del artículo. El GPT-4 también tiende a centrarse sólo en aspectos limitados de los comentarios científicos (por ejemplo, «añadir experimentos con más conjuntos de datos») y se queda corto a la hora de profundizar en los métodos de los autores.

Zou insistió en que el equipo no está sugiriendo que la GPT-4 elimine al «experto humano (par)» de la revisión por pares y sustituya a la revisión humana. La revisión por expertos humanos «es y debe seguir siendo» la base de la ciencia rigurosa, afirma.

«Pero creemos que la retroalimentación de la IA puede beneficiar a los investigadores en las primeras etapas de la redacción de sus artículos, sobre todo si se tienen en cuenta las crecientes dificultades para obtener a tiempo la opinión de los expertos sobre los borradores», concluye Zou. «Desde ese punto de vista, creemos que GPT-4 y la retroalimentación humana se complementan bastante bien».

Métricas de la producción académica : evaluación de la investigación desde América Latina y el Caribe

Métricas de la producción académica : evaluación de la investigación desde América Latina y el Caribe / Lorena Ruiz Serna … [et al.] ; compilación de Gabriel Vélez Cuartas … – 1a ed . – Ciudad Autónoma de Buenos Aires: CLACSO; Medellín : Latmétricas, 2022.

Texto completo

Este libro propone una alternativa concreta, así como acciones conjuntas para la evaluación científica a nivel regional. Los criterios impuestos por parte del paradigma internacional de calidad, con fuerte influencia de empresas comerciales que producen las bases de datos bibliográficas y de las oficinas de fomento a la investigación que actúan como organismos evaluadores, tienen consecuencias perversas para las revistas de nuestra región, muchas de las cuales tienen un rol importante en la comunicación científica regional, ya que abordan temáticas de interés local, llenan brechas y tienden puentes de conocimiento, al tiempo que contribuyen a la capacitación de investigadores en principio de carrera.

Política, gestión y evaluación de la investigación y la vinculación en América Latina y el Caribe

Política, gestión y evaluación de la investigación y la vinculación en América Latina y el Caribe / Diego Aguiar… [et al.] ; editado por Liliana Córdoba ; Laura Rovelli ; Pablo A. Vommaro ; prólogo de Liliana Córdoba ; Laura Rovelli ; Pablo A. Vommaro. – 1a ed. – Ciudad Autónoma de Buenos Aires : CLACSO, 2021

Texto completo

Construir conocimientos con perspectiva crítica es un sentido fundante que orienta a la Facultad de Ciencias Sociales de la Universidad Nacional de Córdoba y al Consejo Latinoamericano de Ciencias Sociales. Actualizar lo que entendemos por perspectivas críticas es una tarea permanente del pensamiento emancipatorio y este libro pretende ser un aporte más en ese esfuerzo colectivo.

Por ello, nos proponemos desnaturalizar, cuestionar y deconstruir el conocimiento perezoso, el autorreferenciado, el “superior”, el inalcanzable, el incomprensible para otros, el dogmático en tanto legitima solo lo igual a sí mismo, el que impone un espacio y un tiempo, el que prioriza las causas e ignora las consecuencias, el que no se deja conmover, el que promueve la neutralidad.

Aspiramos a construir un conocimiento científico público, abierto, que circule, se mueva, que dialogue con otr0s, que sea comprendido por otros y que comprenda a otr0s, que reconozca y se interese por espacios y tiempos diversos, el situado, el que considere siempre las consecuencias, el que se conmueve.