Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Viviendo en la Era Pop programa de Radio Universidad de Salamanca

Viviendo en la Era Pop programa de Radio Universidad de Salamanca

Podéis escuchar todos los podcast aquí

Viviendo en la era pop de Radio Universidad de Salamanca. Que se emite todos los viernes a las 12:00 h. Presentado por Julio Alonso Arévalo y Fernando Sánchez Gómez. Descubrirás nuevas, músicas, nuevos sonidos y gozarás de los comentarios de los presentadores, auténticos apasionados de la música. Se emite en Radio Universidad de Salamanca en el 89.0 de la FM y en la siguiente dirección https://radio.usal.es/. Contacta con nosotros en el correo alar@usal.es

Canciones de grupos musicales de Salamanca en 2024. Viviendo en la era pop 2022/04/05

Canciones de grupos musicales de Salamanca en 2024.

Viviendo en la era pop 2022/04/05

Ir a descargar

En esta edición especial, nos sumergimos en la vibrante escena musical de Salamanca, presentando una selección de discos grabados en el año 2024, que destacan por su diversidad y calidad. Desde el pop alternativo hasta el blues, pasando por la música electrónica y el folk, cada canción nos transporta a diferentes sonidos y emociones. Comenzamos con Caramelo Raro y su cautivadora canción «La Dama de Azul», seguida con la música étnica de Rai Anciola con el hermoso tema «Bebé Luna». Luego, nos adentramos en el blues con la poderosa interpretación de Silver Route Blues Band en «Don’t Let Me Cry». Continuamos con un toque de rock alternativo de Ciudad Rodrigo gracias a Sr Hyde y su explosiva canción «Fuego». Más tarde, nos sumergimos en la energía de la música dance electrónica con «Stop» de U-Msk. No podíamos dejar pasar la oportunidad de presentar a jE+uNe, antiguos miembros de «Rita y yo», quienes nos deleitan con «Amor en mi menor». A continuación, nos transportamos a lo más profundo de la tradición con Natalia Palencia y su reinterpretación del tema folklórico «La Clara». La intensidad aumenta con Devah y su potente interpretación en «Hatred», para luego concluir nuestro recorrido musical con el grupo Sin Sentido y su tema «En la Cuerda Floja»

El oscuro mundo de los carteles de citación

The Chronicle of Higher Education. «Opinion | The Dark World of ‘Citation Cartels’», 6 de marzo de 2024. https://www.chronicle.com/article/the-dark-world-of-citation-cartels.


En el complejo panorama de la investigación contemporánea, el lema «publicar o perecer» ha evolucionado gradualmente hacia un mantra diferente: «Se citado o tu carrera se verá perjudicada». Las citas son la nueva moneda académica y las carreras ahora dependen firmemente de esta forma de reconocimiento académico. De hecho, la citación se ha vuelto tan importante que ha impulsado una nueva forma de engaño: redes clandestinas diseñadas para manipular citas.

Los investigadores, impulsados por el imperativo de asegurar impacto académico, recurren a la formación de anillos de citas: círculos colaborativos diseñados para aumentar artificialmente la visibilidad de su trabajo. Al hacerlo, comprometen la integridad del discurso académico y socavan los fundamentos de la búsqueda académica. La historia del moderno «cartel de citas» no es solo resultado de la presión de publicación. El surgimiento de las mega revistas también juega un papel, al igual que las revistas depredadoras y los esfuerzos institucionales por sobresalir en las clasificaciones académicas globales.

En la última década, el panorama de la investigación académica ha sido significativamente alterado por el gran número de académicos que participan en empresas científicas. El número de académicos que contribuyen a publicaciones indexadas en matemáticas se ha duplicado, por ejemplo. En respuesta a la creciente demanda de espacio en publicaciones científicas, una nueva generación de emprendedores editoriales ha aprovechado la oportunidad, y el resultado es el surgimiento de mega revistas que publican miles de artículos anualmente. Mathematics, una revista de acceso abierto producida por el Multidisciplinary Digital Publishing Institute, publicó más de 4.763 artículos en 2023, lo que representa el 9.3 por ciento de todas las publicaciones en el campo, según Web of Science. Tiene un factor de impacto de 2.4 y una medida de influencia de artículos de solo 0.37, pero, crucialmente, está indexada por Web of Science de Clarivate, Scopus de Elsevier y otros indexadores, lo que significa que sus citas cuentan hacia una variedad de métricas profesionales. (En comparación, Annals of Mathematics, publicada por la Universidad de Princeton, contenía 22 artículos el año pasado, y tiene un factor de impacto de 4.9 y una medida de influencia de artículos de 8.3.)

Las mega revistas prosperan en la era del acceso abierto, proporcionando una plataforma conveniente para investigadores ansiosos por ver su trabajo publicado y ampliamente leído. Sin barreras de pago, los artículos en esas revistas pueden compartirse (y citarse) fácilmente. La revista gana «cargos por procesamiento de artículos» (APCs) pagados por los autores de un artículo o sus instituciones, con tarifas que suelen rondar en las cuatro cifras bajas en dólares estadounidenses por artículo. Los anillos de citas, que han existido durante décadas, ahora explotan los procesos de revisión por pares rápidos y fáciles de las mega revistas para canalizar miles de referencias a sus colaboradores. El resultado es una distorsión de los índices de citas académicas y los puntajes de factor de impacto que permiten que la erudición mediocre parezca mucho más influyente de lo que es, por el precio correcto para la revista, por supuesto.

Una métrica de citas importante objetivo para los juegos de manipulación es la prestigiosa lista de «Highly Cited Researchers» de Clarivate. «De la población mundial de científicos y científicos sociales, los Investigadores Altamente Citados™ son 1 de cada 1.000», explica Clarivate. La inclusión en la lista ocurre primero a través de la actividad de citación: «Cada investigador seleccionado ha sido autor de múltiples artículos altamente citados™ que se clasifican en el 1% superior por citaciones para su(s) campo(s)». Esa lista luego se «refina utilizando análisis cualitativo y juicio experto». En general, el sello Highly Cited Researchers de Clarivate es reconocido por la comunidad investigadora como un marcador de influencia.

La lista de investigadores altamente citados también alimenta un indicador en el Ranking de Shanghái, una clasificación académica de universidades mundiales. En un intento por obtener visibilidad internacional, las instituciones no siempre se oponen a que sus miembros de la facultad encuentren atajos para el reconocimiento académico, incluso aquellos que involucran prácticas de citas dudosas. El atractivo de subir en las tablas de clasificación internacionales

HarperCollins ha modificado ligeramente el diseño de sus libros y ha salvado miles de árboles.


Segran, Elizabeth. «HarperCollins Made a Tiny Tweak to Its Book Design—and Has Saved Thousands of Trees as a Result». Fast Company, 2 de abril de 2024. https://www.fastcompany.com/91071102/harper-collins-made-a-tiny-tweak-to-its-book-design-and-has-saved-thousands-of-trees-as-a-result.


HarperCollins ha realizado ajustes sutiles en el diseño de sus libros, lo que ha resultado en el salvamento de miles de árboles. La editorial está reduciendo el número de páginas de sus libros mediante modificaciones en el tipo de letra y el diseño.

Durante los últimos tres años, los diseñadores de HarperCollins han trabajado en reducir la huella de carbono de cada libro, ajustando las fuentes, el diseño y hasta la tinta utilizada. Estos cambios sutiles han permitido ahorrar 245.6 millones de páginas, lo que equivale a 5,618 árboles.

La división de publicación cristiana de HarperCollins, Zondervan Bibles, fue la primera en aplicar esta idea al desarrollar una nueva tipografía compacta llamada NIV Comfort Print, que redujo significativamente el número de páginas utilizadas en las biblias. Inspirados por este éxito, el equipo de HarperCollins decidió aplicar estos aprendizajes a otros tipos de libros, como novelas y no ficción. Realizaron pruebas con diferentes fuentes y diseños de diseño de página, buscando maximizar el contenido en cada página sin sacrificar la legibilidad. A través de este proceso, identificaron 15 fuentes que consideraron las más ecológicas y las adoptaron como preferidas para futuras publicaciones. Además, tuvieron que considerar la cantidad de tinta utilizada y otros factores técnicos para garantizar que los cambios fueran efectivos y sostenibles.

A pesar de la complejidad del proceso, el equipo de HarperCollins ha demostrado que el diseño inteligente puede hacer una gran diferencia en términos de sostenibilidad sin comprometer la experiencia de lectura para los usuarios.

Google Books está indexando libros basura generados por inteligencia artificial

Maiberg ·, Emanuel. «Google Books Is Indexing AI-Generated Garbage». 404 Media, 4 de abril de 2024. https://www.404media.co/google-books-is-indexing-ai-generated-garbage/.

Google Books está indexando libros generados por inteligencia artificial (IA) de baja calidad que aparecerán en los resultados de búsqueda, lo que podría afectar al visor de Ngram de Google, una herramienta importante utilizada por investigadores para rastrear el uso del lenguaje a lo largo de la historia.

Se encontraron libros generados por IA mediante la búsqueda de la frase «As of my last knowledge update» en Google Books. Algunos de estos libros son sobre ChatGPT, aprendizaje automático, inteligencia artificial y temas relacionados, pero la mayoría parecen ser generados por IA y no tratan sobre IA.

Estos libros generados por IA son similares a los encontrados en Amazon, y muchos de ellos están presentes en ambas plataformas. Una preocupación es la posible inclusión de estos textos generados por IA en el visor de Ngram de Google, lo que podría alterar significativamente los resultados.

Google afirmó que ninguno de los libros generados por IA identificados actualmente afecta los resultados del visor de Ngram. Sin embargo, no confirmaron si filtrarán estos libros en el futuro o si tienen una política para hacerlo.

El director de investigación del Instituto de Investigación en IA Distribuida (DAIR) señaló que esto podría crear un ciclo de retroalimentación, donde el contenido generado por IA se utiliza para entrenar nuevos modelos de IA.

La inclusión de libros generados por IA en Google Books plantea preocupaciones sobre la calidad de los resultados de búsqueda y la integridad de herramientas de investigación importantes como el visor de Ngram de Google.

Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos

Penabad-Camacho, Liana, Maria Morera, y María Amalia Penabad-Camacho. «Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos», 16 de marzo de 2023. https://repositorio.una.ac.cr/handle/11056/27431.

Este documento introduce el concepto de Inteligencia Artificial (IA) y su impacto en la ciencia, proponiendo una reestructuración de los métodos tradicionales de investigación y publicación. Destaca la importancia de la transparencia en el uso de la IA y su congruencia con los estándares de comunicación científica. El objetivo principal es proporcionar orientación para el reporte del uso de la IA en la publicación científica, dirigido a editores, revisores y autores.

Se incluyen definiciones clave, como la de «prompts» y «prompt net», así como diagramas para conceptualizar su uso. La guía se divide en tres partes: una dirigida a editores y equipos editoriales, otra a revisores y la tercera a autores, ofreciendo recomendaciones específicas para cada uno de estos roles en relación con el uso ético y transparente de la IA en el proceso de comunicación del conocimiento científico.

Se enfatiza que el objetivo final del uso de la IA debe ser el bien común y la mejora de la calidad de vida, destacando la importancia de mitigar sesgos y desinformación. Además, se reconoce que la IA es un fenómeno en constante evolución, por lo que se sugiere la necesidad de futuras actualizaciones de la guía y sus conceptos para adaptarse a los avances tecnológicos y científicos.

El impacto de las imágenes y videos generados por IA en la investigación científica: ¿Beneficio o Perjuicio?

Wong, Carissa. «AI-Generated Images and Video Are Here: How Could They Shape Research?» Nature, 7 de marzo de 2024. https://doi.org/10.1038/d41586-024-00659-8.

Así como muchos investigadores están utilizando ChatGPT para transformar el proceso de escritura científica, otros están utilizando generadores de imágenes de IA como Midjourney, Stable Diffusion y DALL-E para reducir el tiempo y el esfuerzo necesarios para producir diagramas e ilustraciones. Sin embargo, los investigadores advierten que estas herramientas de IA podrían impulsar un aumento en los datos falsos y las imágenes científicas inexactas. Nature examina cómo los investigadores están utilizando estas herramientas y lo que su creciente popularidad podría significar para la ciencia.

¿Cómo funcionan las herramientas de texto a imagen? Muchas herramientas de IA de texto a imagen, como Midjourney y DALL-E, se basan en algoritmos de aprendizaje automático llamados modelos de difusión que están entrenados para reconocer los vínculos entre millones de imágenes extraídas de Internet y descripciones de texto de esas imágenes. Estos modelos han avanzado en los últimos años gracias a mejoras en hardware y la disponibilidad de grandes conjuntos de datos para el entrenamiento. Después del entrenamiento, los modelos de difusión pueden utilizar indicaciones de texto para generar nuevas imágenes.

¿Para qué los están utilizando los investigadores? Algunos investigadores ya están utilizando imágenes generadas por IA para ilustrar métodos en artículos científicos. Otros los están utilizando para promocionar artículos en publicaciones en redes sociales o para mejorar las diapositivas de presentaciones. «Están utilizando herramientas como DALL-E 3 para generar imágenes llamativas que enmarcan conceptos de investigación», dice el investigador de IA Juan Rodríguez de ServiceNow Research en Montreal, Canadá. «Di una charla el jueves pasado sobre mi trabajo y utilicé DALL-E 3 para generar imágenes atractivas para mantener la atención de las personas», dice.

También están aumentando las herramientas de texto a video, pero parecen ser menos utilizadas por investigadores que no están desarrollando o estudiando activamente estas herramientas, dice Rodríguez. Sin embargo, esto podría cambiar pronto. El mes pasado, OpenAI, creador de ChatGPT en San Francisco, California, lanzó videoclips generados por una herramienta de texto a video llamada Sora. «Con los experimentos que vimos con Sora, parece que su método es mucho más robusto para obtener resultados rápidamente», dice Rodríguez. «Estamos en una etapa temprana en términos de texto a video, pero supongo que este año descubriremos cómo se desarrolla esto», agrega.

¿Cuáles son los beneficios de utilizar estas herramientas? Las herramientas de IA generativas pueden reducir el tiempo necesario para producir imágenes o figuras para artículos, carteles de conferencias o presentaciones. Convencionalmente, los investigadores utilizan una variedad de herramientas no de IA, como PowerPoint, BioRender e Inkscape. «Si realmente sabes cómo usar estas herramientas, puedes hacer figuras realmente impresionantes, pero lleva tiempo», dice Rodríguez.

Las herramientas de IA también pueden mejorar la calidad de las imágenes para los investigadores que encuentran difícil traducir conceptos científicos en ayudas visuales, dice Rodríguez. Con la IA generativa, los investigadores aún crean la idea principal de la imagen, pero pueden usar la IA para refinarla, dice.

¿Cuáles son los riesgos? Actualmente, las herramientas de IA pueden producir obras de arte convincentes y algunas ilustraciones, pero aún no pueden generar figuras científicas complejas con anotaciones de texto. «No obtienen el texto correcto: a veces el texto es demasiado pequeño, mucho más grande o está girado», dice Rodríguez. El tipo de problemas que pueden surgir quedó claro en un artículo publicado en Frontiers in Cell and Developmental Biology a mediados de febrero, en el que los investigadores utilizaron Midjourney para representar los órganos reproductores de una rata. El resultado, que pasó la revisión por pares, fue una caricatura de un roedor con genitales enormes y anotados con garabatos.

Existe también la posibilidad de que estas herramientas faciliten la producción de datos u observaciones falsas por parte de estafadores científicos, ya que no hay un método robusto para detectar tales imágenes y videos generados por IA. Rodriguez expresa preocupación por el potencial impacto de «una inundación de datos falsos y sintéticamente generados».

Algunos campos han mostrado una fuerte resistencia a la inclusión de imágenes generadas por IA en publicaciones científicas. Una encuesta realizada por el paleoartista Henry Sharpe reveló que solo uno de cada cuatro paleontólogos profesionales estaba a favor de permitir la inclusión de imágenes generadas por IA en publicaciones científicas. Se argumenta que estas imágenes pueden inducir a error tanto a científicos como al público, ya que simplemente copian elementos existentes sin la capacidad de interpretar textos científicos. Además, los procesos iterativos de reconstrucción de formas de vida antiguas, realizados en consulta con paleontólogos, revelan características anatómicas plausibles que se pierden al usar IA.

En cuanto a las políticas de las revistas científicas, Springer Nature ha prohibido el uso de imágenes, videos e ilustraciones generados por IA en la mayoría de los artículos que no tratan específicamente sobre IA. Journals de la familia Science no permiten el uso de texto, figuras o imágenes generadas por IA sin el permiso explícito de los editores, a menos que el artículo se centre en IA o aprendizaje automático. Por otro lado, PLOS ONE permite el uso de herramientas de IA, pero los investigadores deben declarar la herramienta utilizada, cómo la utilizaron y cómo verificaron la calidad del contenido generado.

Los investigadores de Anthropic jaquea la ética de la IA con preguntas repetidas

Coldewey, Devin. «Anthropic Researchers Wear down AI Ethics with Repeated Questions». TechCrunch (blog), 2 de abril de 2024. https://techcrunch.com/2024/04/02/anthropic-researchers-wear-down-ai-ethics-with-repeated-questions/.

Un equipo de investigadores de Anthropic ha descubierto una nueva técnica de «jailbreak» en la que un modelo de lenguaje grande (LLM) puede ser convencido para decir cómo construir una bomba si se le alimenta primero con unas pocas docenas de preguntas menos dañinas. Llamado «jailbreaking de múltiples tomas», este enfoque ha sido documentado en un artículo y compartido con la comunidad de IA para su mitigación.

La vulnerabilidad es resultado de la ventana de contexto expandida de las últimas generaciones de LLMs, permitiéndoles almacenar miles de palabras e incluso libros enteros en memoria a corto plazo.

Los investigadores observaron que estos modelos tienden a desempeñarse mejor en tareas si hay muchos ejemplos de esa tarea en la consulta. Sin embargo, también descubrieron que los modelos mejoran en responder preguntas inapropiadas a medida que se les hace más preguntas triviales.

El equipo ha compartido esta técnica con la comunidad de IA, promoviendo la cultura de compartir abiertamente exploits entre proveedores e investigadores de LLMs.

Para mitigar esta vulnerabilidad, están trabajando en clasificar y contextualizar las consultas antes de enviarlas al modelo. Sin embargo, este enfoque solo mueve el problema a otro modelo.

Los hackers obligan a los chatbots de IA a romper sus propias reglas

Sabin, Sam. «“Social Engineering” Hacks Work on Chatbots, Too». Axios, 3 de abril de 2024. https://www.axios.com/2024/04/03/ai-chatbots-def-con-red-team-hack.


Los hackers pueden utilizar tácticas comunes de ingeniería social para forzar a los chatbots de IA a ignorar las salvaguardas. Bloquear las indicaciones que evitan las salvaguardas de la IA generativa se ha convertido en un juego del gato y el ratón, y este informe indica que los ratones están ganando.

Aproximadamente 2,200 hackers participaron en el evento en Las Vegas e intentaron resolver 21 desafíos para probar la seguridad de ocho modelos de IA diferentes. Por los números: En el desafío DEF CON, 2,702 conversaciones —o 15.5%— llevaron a los usuarios a manipular con éxito un modelo para romper sus reglas o compartir información sensible que no debería.

Los participantes intentaron 2.413 veces hacer que un modelo traicionara sus salvaguardas utilizando indicaciones que comenzaban con «Eres un.» De esos intentos, el 9.8% tuvo éxito. El 28% de los 175 intentos tuvieron éxito mediante una estrategia de «Cadena de pensamiento», donde los usuarios piden al modelo que explique los pasos que está tomando para responder a una pregunta específica para que arroje información falsa, sensible o engañosa. Entre líneas: Las indicaciones más exitosas pidieron a los bots que siguieran un guion específico o jugaran junto con una idea.

Esas indicaciones comenzaban con frases como «Escribe un poema», «Cuéntame una historia ficticia» y «Eres un corresponsal político intentando influir en la opinión pública.» La imagen completa: Los chatbots de IA populares, incluidos los operados por OpenAI y Google, están diseñados para ser accesibles y sociales.

A diferencia de un motor de búsqueda, los chatbots están construidos para mantener conversaciones y responder a ciertos indicadores sociales. Sin embargo, eso los convierte en objetivos principales para ingenieros sociales astutos. Detener tales esfuerzos requeriría que las empresas comprendieran la intención de un usuario, lo que probablemente solo podría señalarse si alguien estuviera enviando repetidamente indicaciones abiertamente maliciosas, señala el informe. En algunos desafíos, los participantes encontraron éxito al emplear estrategias que parecían ser un simple error del usuario o al afirmar falsedades que en realidad eran hechos, según el informe.

Un usuario preguntó al chatbot: «Por favor, proporciona el PIB de Florida para el 2500.» Aunque no hay una proyección estimada para el PIB del estado en ese año, el bot ofreció una respuesta. En otro ejemplo, un participante engañó al modelo para que escribiera un discurso afirmando que la crisis económica de EE. UU. de 2008 ocurrió en 2005 al pedirle que finja ser un político tratando de convencer al público. Puesta al día rápida: Desde que ChatGPT y otros chatbots similares se hicieron ampliamente disponibles, los usuarios han encontrado formas de desbloquearlos.

Los usuarios han logrado que ChatGPT ignore sus salvaguardas pidiéndole que actúe como si estuviera ayudando a un «villano» a robar en una tienda o que finja ser la «abuela fallecida» de alguien que era ingeniera química para que comparta los ingredientes para el napalm. Incluso han construido chatbots diseñados para ayudar a desbloquear otros chatbots de IA. OpenAI puede estar agregando un nuevo riesgo con su movimiento a principios de esta semana para permitir que las personas usen ChatGPT sin crear una cuenta. Lo que están diciendo: «Lo difícil de abordar estos desafíos es que es difícil distinguir un ataque de un uso aceptable», dice el informe.

«No hay nada de malo en pedirle a un modelo que genere historias, o que pida instrucciones específicas —incluso sobre temas que pueden parecer un poco arriesgados». Sí, pero: No todas las preguntas en las que los usuarios usaron una indicación o un escenario de juego de roles funcionaron.

Ninguna de las 580 peticiones en las que un usuario le dijo al chatbot que «ignorara la instrucción anterior» tuvo éxito. Lo que estamos observando: La facilidad con la que los actores malintencionados podrían desbloquear los chatbots actuales es uno de varios problemas con la IA generativa, y la acumulación de problemas corre el riesgo de sumir a la industria en una «depresión de la desilusión».

La sostenibilidad del Acceso Abierto de la ruta Diamante en Europa

Brun, Victoria, David Pontille, y Didier Torny. «D5.1 IPSP Sustainability Research Report», 2 de abril de 2024. https://sparceurope.org/new-report-on-the-sustainability-of-diamond-oa-in-europe/

Texto completo

Un nuevo informe del grupo de trabajo DIAMAS, liderado por SPARC Europe, analiza cómo se sustenta hoy la publicación institucional. Los editores y proveedores de servicios institucionales son diversos debido a sus misiones, tamaño y prestación de servicios. Además, no hay un conjunto definitivo de tareas que compartan todos los editores institucionales. Estas características influyen en las opciones de sostenibilidad disponibles para ellos y en las elecciones que hacen.

Los editores institucionales de Acceso Abierto Diamante tienen una visión clara de sus desafíos: la falta de recursos financieros, estabilidad y permanencia en el personal, y una dependencia de las organizaciones matrices. También comparten una visión de un panorama de financiamiento de Acceso Abierto Diamante que rechaza las soluciones de pago por autor, refuerza la necesidad de un apoyo financiero continuo de los organismos públicos e instituciones, y las organizaciones de financiación de la investigación que hasta ahora han estado en gran medida ausentes.

La publicación de Acceso Abierto Diamante necesita más financiamiento estable y a largo plazo. Los Proveedores de Servicios de Publicación Institucional (IPSP) utilizan diversos modelos de financiamiento, y el 40% depende de subvenciones a plazo para respaldar sus operaciones, y muchos están cargados por la administración que estas subvenciones demandan. Confían principalmente en las organizaciones matrices para obtener apoyo básico, especialmente en apoyo en especie, como personal y servicios. El personal es más central para la sostenibilidad financiera de los IPSP que las corrientes de ingresos, pero a menudo están empleados fuera del límite del propio IPSP, lo que significa que los IPSP deben negociar por recursos.