Archivo de la categoría: Investigación

La ciencia al final del imperio: Los expertos y el desarrollo del Caribe británico, 1940-62

Clarke, S. Science at the end of empire: Experts and the development of the British Caribbean, 1940-62. Manchester University Press,2018.

Texto completo

Este libro supone un importante replanteamiento de la historia del desarrollo después de 1940 a través de una exploración de las ambiciones británicas de industrialización en sus colonias caribeñas. El desarrollo industrial es un tema olvidado en las historias del Imperio Colonial Británico, y sabemos muy poco de los planes para las colonias británicas del Caribe en general a finales del periodo colonial, a pesar del papel desempeñado por los disturbios en la región a la hora de impulsar un aumento del gasto en desarrollo. Este informe muestra la importancia del conocimiento y la experiencia en la promoción de un modelo de desarrollo caribeño que se describe mejor como liberal que como autoritario y centrado en el Estado. Explora cómo en el periodo de posguerra la Oficina Colonial intentó reactivar las economías caribeñas transformando el azúcar de caña de un producto alimenticio de escaso valor en un lucrativo compuesto de partida para fabricar combustibles, plásticos y productos médicos. Además, demuestra que a medida que los territorios caribeños avanzaban hacia la independencia y Estados Unidos trataba de configurar el futuro de la región, el asesoramiento científico y económico se convirtió en una estrategia clave para el mantenimiento del control británico sobre las colonias antillanas. Gran Bretaña necesitaba contrarrestar los intentos de los expertos respaldados por Estados Unidos de promover un enfoque muy diferente del desarrollo industrial después de 1945, basado en las prioridades de la política exterior estadounidense.

Transformar la excelencia investigadora

Kraemer-Mbula, E., Tijssen, R., Wallace, M. L., & McClean, R. (Eds.). Transforming Research Excellence: New Ideas from the Global South. African Minds, 2019

Texto completo

La ciencia moderna está sometida a una gran presión. Una potente mezcla de expectativas crecientes, recursos limitados, tensiones entre competencia y cooperación y la necesidad de una financiación basada en pruebas está provocando cambios importantes en la forma de hacer y percibir la ciencia. En medio de esta «tormenta perfecta» se encuentra el atractivo de la «excelencia investigadora», un concepto que impulsa las decisiones de universidades y financiadores y define las estrategias de investigación y las trayectorias profesionales de los científicos. Pero, ¿qué es la ciencia «excelente»? ¿Y cómo reconocerla? Tras décadas de investigación y debate, aún no hay una respuesta satisfactoria. ¿Nos estamos equivocando de pregunta? ¿Es la realidad más compleja y la «excelencia científica» más difícil de alcanzar de lo que muchos están dispuestos a admitir? ¿Y cómo debe definirse la excelencia en las distintas partes del mundo, especialmente en los países de renta más baja del «Sur Global», donde se espera que la ciencia contribuya a acuciantes problemas de desarrollo, a pesar de contar a menudo con escasos recursos? Muchos se preguntan si el Sur Global está importando, con o sin consentimiento, las defectuosas herramientas de evaluación de la investigación de Norteamérica y Europa, que no son adecuadas para su propósito. Este libro adopta una visión crítica de estas cuestiones, abordando temas conceptuales y problemas prácticos que surgen inevitablemente cuando la «excelencia» está en el centro de los sistemas científicos.

ChatGPT y ética de la investigación: la posición del Committee on Publication Ethics (COPE)

COPE: Committee on Publication Ethics. «Authorship and AI Tools». Accedido 16 de febrero de 2023. https://publicationethics.org/cope-position-statements/ai-author.

El uso de herramientas de inteligencia artificial (IA) como ChatGPT o Large Language Models en las publicaciones de investigación se está extendiendo rápidamente. COPE se une a organizaciones como WAME y la Red JAMA, entre otras, para afirmar que las herramientas de IA no pueden figurar como autoras de un artículo.

Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar los derechos de autor y los acuerdos de licencia.

Los autores que utilicen herramientas de IA en la redacción de un manuscrito, la producción de imágenes o elementos gráficos del artículo, o en la recogida y análisis de datos, deben ser transparentes al revelar en los Materiales y Métodos (o sección similar) del artículo cómo se ha utilizado la herramienta de IA y qué herramienta se ha utilizado. Los autores son plenamente responsables del contenido de su manuscrito, incluso de las partes producidas por una herramienta de IA, y por tanto son responsables de cualquier infracción de la ética de publicación.

Productos y servicios de captación de usuarios y marketing para bibliotecas públicas

Breeding, Marshall. “Patron Engagement and Marketing Products and Services for Public Libraries,” Library Technology Reports vol. 58, no. 2 (February/March 2022),

Texto completo

Este número de Library Technology Reports (vol. 58, nº 2), «Patron Engagement and Marketing Products and Services for Public Libraries», ofrece una visión general de los productos tecnológicos disponibles actualmente para apoyar las estrategias de difusión y marketing de las bibliotecas. En respuesta al interés de las bibliotecas públicas por el marketing proactivo de sus programas, servicios y colecciones, se han introducido diversos productos nuevos. Cada uno de ellos adopta un enfoque diferente a la hora de proporcionar a las bibliotecas herramientas sofisticadas para apoyar las campañas de marketing u otras iniciativas destinadas a reforzar el compromiso con sus comunidades. Muchos implican la recopilación de datos y la producción de análisis y visualizaciones que tienen como objetivo proporcionar información sobre el rendimiento estratégico de la biblioteca y la eficacia de sus esfuerzos de marketing.

OASPA y DOAJ lanzan este año un Toolkit para revistas de acceso abierto

OASPA and DOAJ Announce the Launch of an Open Access Journals Toolkit

Toolkit

Open Access Scholarly Publishing Association (OASPA) y el Directory of Open Access Journals (DOAJ) se complacen en anunciar el próximo lanzamiento del Open Access (OA) Journals Toolkit, cuyo lanzamiento está previsto para la segunda mitad de 2023.

OA Journals Toolkit es una iniciativa comunitaria financiada por OASPA y DOAJ, cuyo objetivo es ayudar a las revistas nuevas y establecidas a navegar por el panorama rápidamente cambiante de la publicación acceso abierto. El toolkit será un sitio web de acceso gratuito que ofrecerá artículos útiles y material de lectura adicional sobre temas que abarcan todo el ciclo de desarrollo de la revista, desde la creación y financiación de la revista, la dotación de personal y el desarrollo de políticas, hasta la indexación y los aspectos técnicos clave.

OASPA y DOAJ han sido cada vez más conscientes de la necesidad de un recurso de este tipo y han evaluado los requisitos de contenido y el uso probable en diferentes regiones del mundo a través de una consulta con expertos en OA, directores de revistas y editores. Research Consulting llevó a cabo las entrevistas de consulta y los talleres para OASPA y DOAJ en 2022. El compromiso con estas comunidades confirmó que un recurso centrado en las revistas de acceso abierto sería una valiosa recurso para la situación editorial actual, y por ello ha puesto en marcha el emocionante proceso de desarrollo del conjunto de herramientas.

The MIT Press anuncia shift+OPEN, una nueva iniciativa para convertir las revistas por suscripción existentes en un modelo editorial de acceso abierto al diamante

«The MIT Press Announces New Initiative to Flip Existing Subscription-Based Journals to a Diamond Open Access Publishing Model». MIT Press (blog), 2 de febrero de 2023.

Ver completo

En consonancia con su misión y su compromiso de aumentar el acceso a la erudición, MIT Press acaba de anunciar shift+OPEN. Esta nueva iniciativa está concebida para transformar las revistas por suscripción existentes en un modelo de publicación de acceso abierto al diamante. Shift+OPEN cuenta con el generoso apoyo del Arcadia Fund.

The MIT Press acepta propuestas de publicaciones en inglés de cualquier campo y de cualquier parte del mundo. Destinado a títulos ya existentes, shift+OPEN cubrirá los gastos de transición de una revista al modelo de acceso abierto durante un periodo de tres años, proporcionará el conjunto completo de servicios editoriales y apoyará el desarrollo de un modelo de financiación sostenible para el futuro. El plazo de presentación de solicitudes finaliza el 31 de marzo de 2023.

«Shift+OPEN pretende catalizar el cambio necesario en la publicación de revistas, presentar a los autores a nuevos lectores y aumentar el alcance de la vital investigación que anteriormente ha estado encerrada tras barreras de pago», afirma Nick Lindsay, director de revistas y acceso abierto de MIT Press. «Gracias al generoso apoyo del Arcadia Fund, estamos encantados de ofrecer esta oportunidad a revistas de todo el mundo».

El MIT Press tiene un largo historial a la vanguardia de la publicación de revistas de acceso abierto. Desde la apertura del acceso a Computational Linguistics en 2010 hasta la publicación de la revista superpuesta Rapid Reviews: COVID-19 en 2020, la editorial ha asumido la necesidad de ampliar la difusión de sus revistas al tiempo que desarrolla nuevos modelos que funcionan para todos, incluidos autores, editores, sociedades y universidades.

En relación con esta iniciativa, MIT Press organizará un seminario web titulado Going Open Access: Una perspectiva editorial, el lunes 6 de marzo a las 12:00 horas. Únase a Vincent Larivière, editor jefe entrante de Quantitative Science Studies, Ludo Waltman, editor jefe saliente de Quantitative Science Studies, y Nick Lindsay para explorar la transición de la publicación tradicional Journal of Informetrics a un modelo de acceso abierto. Gratuito y abierto al público.

Los creadores de ChatGPT han lanzado una herramienta para detectar texto escrito con IA

AI Text Classifier

Con las nuevas tecnologías basadas en Inteligencia artificial que están llegando al mercado, es esencial detectar si un documento es original o escrito por un chatbot de IA. AI Classifier es una herramienta de IA que distingue si una persona ha generado un texto a través de una aplicación o lo ha escrito manualmente.

AI Text Classifier es una nueva herramienta de la empresa Open AI, los mismos creadores de ChatGPT, que detecta si un pasaje de texto ha sido escrito o no con ChatGPT y herramientas de escritura de IA similares. Para utilizar AI Text Classifier es necesario registrarse para obtener una cuenta gratuita en Open AI. Una vez que tengas una cuenta, podrás utilizar AI Text Classifier. Para utilizar AI Text Classifier sólo tiene que pegar un bloque del documento a analizar (al menos 1.000 caracteres, aproximadamente 175 palabras) en el campo de texto y hacer clic en el botón de envío. AI Text Classifier clasificará el texto como muy improbable, probable, poco probable, posiblemente o probablemente escrito con una herramienta de Inteligencia artificial

Para detectar si los contenidos son escritos por un humano o un chatbot, la herramienta trabaja a partir de:

Análisis aritmético. En este enfoque, se calculan varias cifras, como la regularidad de los términos, la extensión de las frases y la construcción lingüística, a partir de una enorme cantidad de texto generado por la IA y de contenido escrito por humanos. A continuación, el clasificador de IA establece una equivalencia entre las cifras del contenido introducido y los datos de la escritura humana y la generada por la IA en el cuerpo del texto para realizar un cálculo. La herramienta se entrena de tal modo que detecta cómo un usuario ha expuesto el contenido y lo ha hecho suyo, para ello necesita actualizarse regularmente para determinar realmente si un texto está generado por IA.

Aprendizaje profundo. El sistema aprende a detectar formas en el contenido y a hacer predicciones sobre su origen basándose en estas formas y patrones. Hay formas en las que AI Text Classifier aprende por sí mismo y sigue mejorando a medida que profundiza en el contenido.

Dispersión lingüística natural. Esta táctica comprende el consumo de procedimientos como el escrutinio del sentimiento, denominado identificación de objetos, y la clasificación lingüística, para extraer datos evocadores del contenido. A continuación, el clasificador de IA utiliza estos datos para hacer una estimación aproximada sobre la fuente del contenido.

En cuanto a las limitaciones de la herramienta. AI Classifier no es fiable al 100%, ya que no puede detectar contenidos con total precisión. Hay ocasiones en las que el clasificador de IA etiquetará contenido escrito por humanos con contenido generado por IA, ya que es posible que después de que una herramienta de IA genere el texto, una persona pueda editarlo manualmente y retocarlo para que parezca escrito por un humano, lo que es difícil de detectar por la herramienta.

Bibliografía:

Greyling, Cobus. «Testing OpenAI’s New AI Text Classifier For Identifying AI-Written Content». Medium (blog), 1 de febrero de 2023. https://cobusgreyling.medium.com/testing-openais-new-ai-text-classifier-for-identifying-ai-written-content-7b2ec3c3a35.

Cubix. «How is AI Classifier Detecting AI-Generated Text», 8 de febrero de 2023. https://www.cubix.co/blog/ai-classifier-detecting-ai-generated-text.

OpenAI. «New AI Classifier for Indicating AI-Written Text», 31 de enero de 2023. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/.

«The Makers of ChatGPT Have Launched a Tool to Detect Text Written With AI». Accedido 13 de febrero de 2023. https://www.freetech4teachers.com/2023/02/the-makers-of-chatgpt-have-launched.html.

Guía para la presentación de tesis

Cuenca, Angela Maria Belloni, Maria Teresinha Dias De Andrade, Daisy Pires Noronha, Maria Lúcia Evangelista De Faria Ferraz, Cássia Maria Buchalla, y José Estorniolo Filho. Guia de apresentação de teses. Portal de Livros Abertos da USP, 2021.

Texto completo

Se trata de una actualización de la segunda edición de la Guía de Presentación de Tesis, que pretende orientar a los estudiantes de postgrado de la Facultad de Salud Pública de la Universidad de São Paulo en la elaboración de sus tesinas y tesis, proporcionándoles instrucciones sobre cómo presentarlas en sus diversos aspectos de forma, abordando los principales tipos de estudios desarrollados en el ámbito de la salud pública

Clarivate añade un índice de citas de preprints a Web of Science

Preprint Citation Index

Clarivate ha añadido «Preprint Citation Index»a la plataforma Web of Science, se trata una colección multidisciplinar de preprints procedentes de una amplia gama de los principales repositorios de preprints. La finalidad de este cambio es que los investigadores puedan localizar y enlazar a preprints junto a otros contenidos de confianza en la base de datos, para agilizar el proceso de investigación y ayudar a establecer conexiones significativas más rápidamente.

En la publicación académica, un preprint es una versión de un trabajo de investigación o resultado disponible públicamente en repositorios en línea antes de la revisión por pares. El acceso a los preprints en la Web of Science agiliza y facilita a los investigadores su inclusión en los flujos de trabajo de investigación existentes. Permite el acceso inmediato a preprints actualizados, agregados y con capacidad de búsqueda desde repositorios seleccionados vinculados a los perfiles de los autores.

En el momento de su lanzamiento, Preprint Citation Index ofrece casi dos millones de preprints de los repositorios arXiv, bioRxiv, chemRxiv, medRxiv y Preprints.org. A lo largo de 2023 se añadirán documentos de más de una docena de repositorios adicionales. Los registros de preprints se pueden encontrar junto con otros resultados académicos en Web of Science y están conectados a las versiones finales de los registros, si procede. Aparecen claramente marcados en los resultados de búsqueda y no se incluyen en ninguna métrica de citas, como Times Cited Counts o Journal Impact Factor™ (JIF) dentro de Web of Science Core Collection™ o Journal Citation Reports™.

El Preprint Citation Index permite a los usuarios:

  • Localizar versiones de registro (cuando proceda) de preprints: Encontrar y referenciar artículos revisados por pares con enlaces desde los preprints en Web of Science Core Collection.
  • Conectar preprints con artículos de revistas: Descubrir conexiones entre preprints de vanguardia indexados en el Preprint Citation Index y artículos de revistas indexados en Web of Science Core Collection mediante enlaces de citas.
  • Amplíar la visión de la experiencia de un investigador: Sitúa los preprints en el contexto de la carrera de un investigador con los preprints mostrados en el perfil de investigador de Web of Science de un autor.
  • Supervisar las nuevas investigaciones en varios repositorios: Un autor puede establecer una alerta por palabras clave o por un investigador de su interés para recibir una notificación cuando estén disponibles preprints relevantes.

Cada registro del producto contiene metadatos bibliográficos estándar como autor, resumen, palabras clave, términos descriptores, etc. Los metadatos mejorados incluyen las direcciones completas de los autores, la financiación de las subvenciones y las referencias citadas. No se incluyen metadatos completos de versiones.

FUENTE: Clarivate. «Clarivate Adds Preprint Citation Index to the Web of Science», 9 de febrero de 2023. https://clarivate.com/news/clarivate-adds-preprint-citation-index-to-the-web-of-science/.

Los rankings universitarios y sus críticos: ¿una relación simbiótica?

Impact of Social Sciences. «University Rankings and Their Critics – a Symbiotic Relationship?», 6 de febrero de 2023. https://blogs.lse.ac.uk/impactofsocialsciences/2023/02/06/university-rankings-and-their-critics-a-symbiotic-relationship/.

A pesar de ser objeto de críticas constantes, los rankings universitarios han demostrado ser una característica resistente de la vida académica. Julian Hamann y Leopold Ringel analizan esta relación y sugieren que los que elaboran las clasificaciones y sus críticos se refuerzan mutuamente.

Recientemente, las prestigiosas facultades de Derecho y Medicina de Estados Unidos anunciaron su retirada de los rankings de U.S. News & World Report. Esto se convirtió inmediatamente en noticia, porque los rankings y las instituciones de enseñanza superior (IES) de élite han desarrollado una dependencia mutua: los rankings dependen de la participación de las IES de élite y de su prestigio para mejorar su propia reputación. Las IES de élite dependen de las clasificaciones porque los antiguos alumnos, los solicitantes y los responsables políticos las juzgan en función de su clasificación.

Sin embargo, algunas IES de élite estaban dispuestas a poner fin a esta relación. En noviembre de 2022, el decano de la Facultad de Derecho de Yale declaró que «las clasificaciones sólo son útiles cuando siguen una metodología sólida y limitan sus parámetros a lo que los datos pueden captar razonablemente». En un tono similar, el decano de la Facultad de Derecho de Harvard expresó su «preocupación por algunos aspectos de la metodología de clasificación de U.S. News». Otras facultades de Derecho y Medicina siguieron su ejemplo.

¿cómo prevalecen las rankings universitarias a pesar de enfrentarse a críticas generalizadas (y a veces hostiles)? Este estudio podría ofrecer algunas pistas al respecto.

Una idea importante de nuestro estudio es que las críticas sonoras no son nada nuevo. Si los rankings son un modelo de negocio de éxito, también lo es la investigación crítica sobre los rankings (recibir una invitación para escribir en este blog es un ejemplo de ello). Identificamos dos modos de crítica de las clasificaciones que dominan tanto el discurso académico como los debates en el dominio público.

El primer modo llama la atención sobre los efectos negativos. Los rankings supuestamente producen y consolidan desigualdades, inculcan un comportamiento oportunista por parte de quienes intentan anticiparse a los criterios de clasificación y atentan contra la independencia de la educación superior y la ciencia. La segunda modalidad se refiere a las deficiencias metodológicas. Los críticos sostienen que las medidas utilizadas son demasiado burdas y simplistas, que la metodología y los datos no son suficientemente transparentes y que ni la validez ni la fiabilidad son suficientes. Sorprendentemente, las últimas críticas de las facultades de Derecho y Medicina de Estados Unidos reflejan exactamente este sentimiento, ya que invocan cuestiones metodológicas.

¿Cómo sortean los rankings estos retos? Los creadores de los rankings han desarrollado dos modos de respuesta. La primera podría caracterizarse como defensiva: Los responsables de los rankings o bien restan importancia a su propia influencia y afirman que existen muchos enfoques para medir el rendimiento de las universidades, o bien hacen hincapié en que los rankings son inevitables y «están aquí para quedarse». El segundo modo (respuestas seguras) reivindica una amplia demanda de evaluaciones del rendimiento universitario, demuestra competencia científica o temporaliza los rankings enmarcándolas como siempre necesitadas de mejora. Al hablar de cuestiones de mejora, los responsables de los rankings aluden a menudo a la importancia de obtener ayuda de los investigadores. Por ejemplo, en un folleto sobre la metodología de los Impact Rankings, Times Higher Education invita a la crítica afirmando: «¡podemos mejorar el enfoque!». En la misma línea, los representantes de los rankings de U.S. News & World Report esbozan esta postura ostentosamente constructiva: «Aunque la metodología es el resultado de años de investigación, perfeccionamos continuamente nuestro enfoque basándonos en los comentarios de los usuarios, las conversaciones con escuelas y expertos en educación superior, las revisiones bibliográficas, las tendencias de nuestros propios datos, la disponibilidad de nuevos datos y la participación de decanos e investigadores institucionales en conferencias sobre educación superior».

El punto general aquí es que los clasificadores intentan dispersar la responsabilidad mediante la asunción de sus críticos. Cabe señalar que, para que esta estrategia tenga éxito, los críticos tienen que aceptar la oferta y participar realmente en conversaciones públicas. La crítica metodológica, al parecer, es la palanca clave para iniciar y mantener este compromiso mutuo: incluso cuando se acaloran, este tipo de debates siguen siendo constructivos en el sentido de que, según su lógica subyacente, los rankings deberían ser más rigurosas, fiables y válidas.

Creemos que nuestro estudio supone una importante contribución a la investigación sobre educación superior, que sólo ha prestado una atención menor al «trabajo discursivo» que hace que los rankings universitarios sean resistentes. Para una comprensión exhaustiva del tema, es necesario seguir explorando los rankings universitarios como fenómenos discursivos, lo que implica tratar en igualdad de condiciones tanto los elogios como las críticas que reciben. Esto también implica que debemos ser más conscientes de nuestra propia agencia: nos guste o no, como investigadores críticos podemos contribuir involuntariamente a la institucionalización de los rankings universitarios.

¿Cómo debemos interpretar, entonces, las recientes abandonos de las clasificaciones universitarias en la enseñanza superior estadounidense? Teniendo en cuenta nuestras conclusiones, y la última promesa de U.S. News & World Report de escuchar a los críticos y mejorar la metodología, nos inclinamos a proyectar que la empresa volverá con una clasificación totalmente nueva el año que viene. Lo más probable es que este episodio no sea el final del régimen de clasificación, sino que resulte ser una oportunidad más para crear resiliencia discursiva.