Un informe sobre Salud presentado por el Secretario de Salud Robert F. Kennedy Jr incluyó estudios inexistentes y referencias científicas erróneas.

Harmon, Stephie. 2025. “RFK Jr.’s ‘Make America Healthy Again’ Report Cites Fake Studies.” Gizmodo, May 30, 2025. https://gizmodo.com/rfk-jr-s-make-america-healthy-again-report-cites-fake-studies-2000608850

El informe «Make America Healthy Again» (MAHA), presentado por Robert F. Kennedy Jr. como Secretario de Salud y Servicios Humanos de EE. UU., ha generado una fuerte polémica debido a la inclusión de estudios inexistentes y referencias científicas erróneas. Aunque el documento afirma estar respaldado por más de 500 fuentes, investigaciones periodísticas han revelado que al menos siete de estas citas corresponden a estudios que no existen o han sido malinterpretados

Hace unos días, un estudio del Tow Center for Digital Journalism, publicado por la Columbia Journalism Review, reveló que los motores de búsqueda impulsados por inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos. Esta alarmante tendencia adquiere aún más relevancia tras la reciente noticia sobre el informe «Make America Healthy Again» promovido por RFK Jr., el cual se apoya en estudios falsos y mal citados, reflejando los peligros reales de la desinformación amplificada por el uso irresponsable de la IA en la producción y difusión de contenidos.

Por ejemplo, se menciona un estudio atribuido a Robert L. Findling sobre la publicidad de medicamentos psicotrópicos en jóvenes, el cual no se encuentra en ninguna base de datos académica, y el propio Findling ha negado haberlo escrito. Otro caso es una supuesta investigación de 2017 sobre la prescripción excesiva de corticosteroides en niños con asma, que tampoco existe. Además, se han detectado errores en citas de estudios reales, como atribuir a una investigación sobre adultos conclusiones aplicables a niños, o afirmar que un estudio incluía psicoterapia cuando no era así

Estos hallazgos han suscitado preocupaciones sobre la integridad científica del informe y han llevado a especulaciones sobre el posible uso de inteligencia artificial generativa en su elaboración. Aunque la Casa Blanca ha calificado los errores como «problemas de formato» y ha prometido actualizaciones, expertos en salud pública y académicos han expresado su alarma por la falta de rigor y transparencia en un documento que podría influir en políticas de salud pública.

El informe también ha sido criticado por omitir causas principales de mortalidad infantil, como accidentes automovilísticos y violencia con armas de fuego, y por promover teorías desacreditadas sobre vacunas y fluoración del agua. Estas controversias ponen en entredicho la credibilidad del informe y resaltan la necesidad de una evaluación rigurosa y basada en evidencia científica en la formulación de políticas de salud.

Guía práctica para la implementación de la evaluación responsable de la investigación en organizaciones que realizan investigación

Allen, Liz, Virginia Barbour, Kelly Cobey, Zen Faulkes, Haley Hazlett, Rebecca Lawrence, Giovanna Lima, Flora Massah, y Ruth Schmidt. A Practical Guide to Implementing Responsible Research Assessment at Research Performing Organizations. Maryland, USA: DORA, 2025. https://doi.org/10.5281/zenodo.15000683

La organización DORA (Declaration on Research Assessment) ha celebrado su 12.º aniversario con la publicación de una nueva Guía Práctica para la Implementación de una Evaluación Responsable de la Investigación. Esta guía está dirigida a organizaciones que realizan investigación (RPOs) y ofrece herramientas prácticas, ejemplos ilustrativos y recursos para ayudar a estas instituciones a desarrollar, mejorar o transformar sus sistemas de evaluación científica de manera responsable, justa e inclusiva.

El documento reconoce que no existe un enfoque único que funcione para todas las instituciones ni disciplinas, por lo que propone una metodología flexible y adaptable a diferentes contextos. La guía puede ser utilizada tanto por organizaciones que deseen crear una estrategia desde cero como por aquellas que buscan reformar procesos existentes o simplemente comenzar a dar pasos hacia evaluaciones más holísticas.

Este recurso ha sido desarrollado de manera colaborativa con diversos actores del ámbito académico y científico, especialmente durante un encuentro celebrado en enero de 2025 en Maryland, EE. UU. Asimismo, se agradece la participación del Comité Directivo de DORA y de especialistas que contribuyeron a estructurar y organizar los contenidos de la guía.

La guía forma parte del Proyecto TARA, una iniciativa respaldada por la fundación Arcadia, que promueve el acceso abierto al conocimiento, la conservación del patrimonio natural y cultural, y la mejora de las prácticas académicas. Dentro de este proyecto, la guía se complementa con otras herramientas como Reformscape, Building Blocks for Impact y Debiasing Committee Composition, diseñadas para apoyar a las organizaciones que buscan reformar sus políticas de evaluación.

En conjunto, esta Guía Práctica representa un paso significativo hacia la consolidación de criterios más responsables, éticos y eficaces para valorar la calidad de la investigación, en un contexto donde la evaluación académica necesita responder a los desafíos contemporáneos de la ciencia y la sociedad.

Investigación sobre Inteligencia Artificial en Bibliotecas

Wang, Meiping, y Zongliang Xia. 2025. «Research on Artificial Intelligence in Libraries». En Proceedings of the 2025 3rd International Conference on Communication Networks and Machine Learning, 519-26. CNML ’25. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/3728199.3728285.

Se prevé que la inteligencia artificial (IA) desempeñe un papel cada vez más importante en los servicios bibliotecarios, lo que obliga a bibliotecas y bibliotecarios a mantenerse al día con sus avances, adoptarla y adaptarse en consecuencia. Para lograrlo, es fundamental que los responsables de bibliotecas y los propios bibliotecarios profundicen en su conocimiento de la IA y estén preparados para integrarla de forma eficaz en su labor.

La aparición de ChatGPT ha impulsado debates sobre los efectos de la inteligencia artificial (IA) y el papel de iniciativas de acceso abierto y ciencia abierta. Aplicaciones como ChatGPT, basadas en modelos de lenguaje extensos (LLM), se han popularizado rápidamente. Además de su uso generalizado, la IA está integrándose en la recuperación de información, la programación y herramientas académicas como Elicit o Semantic Scholar. Este fenómeno ha llevado a que profesores busquen apoyo en bibliotecarios para mejorar la alfabetización en IA y fomentar debates en el aula, especialmente sobre cómo la IA afecta la búsqueda bibliográfica y las prácticas de citación.

No obstante, el uso de la IA plantea desafíos: inexactitudes, sesgos, problemas éticos y ambientales. Algunas bibliotecas académicas han empezado a abordarlos mediante espacios de investigación, aplicaciones para clasificación de imágenes y mejora de metadatos. Al mismo tiempo, se impulsa la pedagogía abierta, animando a los estudiantes a crear recursos educativos abiertos (OER).

La IA se presenta como solución ante los retos presupuestarios y de personal que enfrentan las bibliotecas. Su implementación efectiva requiere colaboración entre investigadores, responsables políticos y bibliotecarios. Herramientas como Google Cloud Vision o Unpaywall demuestran cómo la IA ya está mejorando servicios bibliotecarios.

Sin embargo, existe una brecha entre países desarrollados y en vías de desarrollo en cuanto a adopción de IA. Mientras bibliotecas de países como India han comenzado a usar estanterías inteligentes o reconocimiento óptico de caracteres, otras, como las africanas o nigerianas, enfrentan barreras financieras, falta de formación y recursos.

La IA también revoluciona los servicios de circulación, referencia y catalogación. Aunque hay preocupación sobre la sustitución de empleos, muchos profesionales no lo ven como una amenaza. Se destaca la necesidad de que las bibliotecas promuevan la comprensión del valor de la IA y generen estrategias de sensibilización.

Además, la IA puede mejorar la experiencia del usuario mediante la personalización de búsquedas, sistemas de recomendación y la automatización de tareas tediosas. El aprendizaje profundo (deep learning) y la minería de datos permiten optimizar el uso de los recursos y entender mejor los patrones de uso.

La integración de la inteligencia artificial en los servicios bibliotecarios

Este apartado analiza aplicaciones concretas de la inteligencia artificial (IA) en el entorno de las bibliotecas universitarias.

1. Aplicación de la IA en los sistemas de recuperación de información

Los buscadores actuales han mejorado, pero muchos usuarios aún tienen dificultades para encontrar información relevante o acceder a bases de datos especializadas. En las bibliotecas universitarias, la incorporación de IA puede facilitar estas búsquedas. Sin embargo, aún existen desafíos técnicos, como la falta de comprensión del lenguaje natural, problemas en la adquisición del conocimiento y en su representación, lo que limita la efectividad de estos sistemas.

2. Servicios de referencia impulsados por IA

La IA puede optimizar los servicios de referencia, catalogación y organización de materiales. En países desarrollados, el uso de IA en estos servicios está creciendo, mientras que en África y Asia la adopción sigue siendo escasa. Los chatbots permiten responder consultas básicas, liberando al personal para enfocarse en necesidades más complejas. Sin embargo, existen obstáculos como la falta de recursos para formación y financiación, así como preocupaciones por la posible pérdida de empleos y fallos técnicos.

3. IA en la educación e investigación en bibliotecas universitarias

Herramientas como Yewno Discover, Grammarly y especialmente ChatGPT están revolucionando el apoyo a estudiantes e investigadores. ChatGPT facilita la búsqueda de información, asistencia en redacción, catalogación y navegación por recursos. No obstante, presenta desafíos: puede generar contenido sesgado o erróneo, errores de citas, y plantea preocupaciones éticas (como plagio, privacidad y desinformación). Además, su diseño centrado en el inglés genera barreras culturales y lingüísticas. Se destaca que IA debe ser vista como complemento, no sustituto del personal bibliotecario.

4. Algoritmos aplicados en la inteligencia artificial para bibliotecas

La IA en bibliotecas se basa en algoritmos complejos. Se destacan:

  • Modelos de recomendación personalizada, como el de Zhang Jing, que perfila a los lectores mediante minería de datos.
  • Sistemas de gestión bibliotecaria basados en clustering y big data, que mejoran las recomendaciones y la recuperación de información.

Estos modelos se construyen mediante fórmulas matemáticas específicas que definen similitudes entre usuarios, preferencias lectoras y distribución de recursos.

Finalmente, se presenta un análisis bibliométrico del uso de IA en bibliotecas, que muestra un crecimiento notable, especialmente en países como China. Se concluye que la IA puede transformar profundamente la biblioteconomía, siempre que se acompañe de políticas adecuadas y un enfoque ético y colaborativo.

Conclusiones

La IA ofrece oportunidades emocionantes para innovar y mejorar los servicios en las bibliotecas. No obstante, su integración efectiva y ética requiere estrategias proactivas en formación, elaboración de políticas y apoyo institucional. Sin embargo cuenta con algunos handicaps

  • Falta de formación y conciencia: Una encuesta a bibliotecarios académicos de Canadá y Estados Unidos mostró que, aunque muchos utilizan la IA en su vida personal, casi la mitad no sabe si se está aplicando en sus bibliotecas. Esto pone de manifiesto la necesidad urgente de programas de formación específicos que aborden tanto el potencial como los aspectos éticos de la IA en el ámbito bibliotecario.
  • Integridad académica y el papel del bibliotecario: Los bibliotecarios son figuras clave en la promoción de la integridad académica. Enseñan habilidades de alfabetización informacional, uso ético de la información, gestión de citas y utilización de herramientas antiplagio como Turnitin. Sin embargo, enfrentan retos importantes: falta de formación en IA, ausencia de políticas claras sobre el uso de contenido generado por IA, escasez de personal para controlar los trabajos entregados y escaso apoyo del profesorado. Además, los estudiantes ya están utilizando nuevas herramientas de IA para evitar la detección por Turnitin.

Una encuesta realizada en bibliotecas universitarias reveló que el 98% de los bibliotecarios son conscientes del uso de la IA en servicios bibliotecarios. Muchos creen que su implementación impulsará la innovación y mejorará el acceso a la información. Existe un consenso general sobre la necesidad de aplicar la IA en todas las áreas del trabajo bibliotecario, lo que refleja una visión optimista sobre su potencial transformador.

Rocambole, fusión de flamenco con pop rock. Viviendo en la era pop 2025/05/30

Entrevista con Rocambole

Viviendo en la era pop 2025/05/30

ESCUCHAR

Descargar

En la entrevista, Rocambole —compositor y letrista gitano— repasa su carrera y la creación de «El Vampiro Gitano», un disco pionero que fusiona flamenco con pop, rock y electrónica. Habla de sus influencias (Las Grecas, Triana, Raimundo Amador), su defensa del mestizaje musical y la libertad creativa frente a los puristas. Recuerda su intensa etapa de actuaciones diarias y su colaboración con Gabi Sánchez. También comparte anécdotas y reflexiona sobre el presente y futuro de su música

Cómo aumentar tus citas académicas y mejorar tu índice h: estrategias clave para investigadores

World University Rankings 2025: methodology

Ale Ebrahim, Nader (2025). Strategies to Enhance Citation Counts and Improve Researchers’ h-index. figshare. Presentation. https://doi.org/10.6084/m9.figshare.28911272.v1

En el competitivo panorama académico actual, el número de citas que recibe un investigador y su índice h (h-index) son métricas cruciales para su carrera profesional. Estas cifras no solo reflejan la influencia de una investigación, sino que también condicionan oportunidades de financiación, promociones y el prestigio institucional.

En este contexto, Nader Ale Ebrahim, consultor en visibilidad de la investigación y bibliometría, propone una serie de estrategias prácticas y herramientas digitales para maximizar el impacto académico de los investigadores.

El artículo, basado en una presentación publicada en Figshare (https://doi.org/10.6084/m9.figshare.28911272.v1), destaca que producir buena investigación ya no es suficiente; es necesario también garantizar su visibilidad y accesibilidad.

El aumento en el número de citas y la mejora del índice h no son fruto de la casualidad, sino el resultado de una estrategia deliberada y bien estructurada orientada a potenciar la visibilidad académica. Tal como sostiene Ebrahim, es fundamental que los investigadores adopten una actitud proactiva en la difusión de su trabajo científico, utilizando de forma inteligente las herramientas digitales disponibles y aplicando buenas prácticas en comunicación académica. Este enfoque no solo contribuye a incrementar la frecuencia con la que se cita una investigación, sino que también abre la puerta a nuevas colaboraciones y a un mayor reconocimiento dentro de la comunidad científica internacional.

A continuación, se detallan las principales estrategias recomendadas:

  1. Optimizar el perfil del autor: Es fundamental mantener una identidad académica coherente. Para ello, se recomienda utilizar siempre el mismo nombre de autor y registrar un perfil en ORCID. También es clave mantener actualizado el perfil en Google Scholar, que centraliza la producción científica del investigador.
  2. Publicar de manera estratégica: Se aconseja elegir revistas académicas de alto impacto (preferentemente del cuartil Q1) que estén indexadas en bases como Scopus o Web of Science. Además, se sugiere usar herramientas de inteligencia artificial como Writefull o Scite.ai para mejorar el título, el resumen y las palabras clave, facilitando así la visibilidad y el descubrimiento del artículo.
  3. Apostar por el acceso abierto y repositorios: Hacer los artículos accesibles a través de plataformas como Zenodo o repositorios institucionales aumenta significativamente la posibilidad de ser citado. Cuantos más lectores puedan acceder libremente al contenido, mayor será su impacto.
  4. Aprovechar redes sociales y académicas: La difusión del trabajo en redes como ResearchGate, LinkedIn o Twitter/X, acompañada de resúmenes visuales, infografías o vídeos, incrementa su alcance. Participar en comunidades científicas también ayuda a posicionar la investigación ante públicos interesados.
  5. Colaboración internacional: Publicar con coautores de otras instituciones o países está directamente relacionado con un aumento en las citas. Estas colaboraciones amplían las redes de lectura y citación del trabajo.
  6. Utilizar herramientas de IA para mejorar la eficiencia: Herramientas como Scholarcy (para resumir textos), Connected Papers (para visualizar redes de citación), Grammarly o Jasper (para corregir y redactar con calidad), permiten mejorar tanto la forma como el contenido del artículo, lo cual incide directamente en su impacto.
  7. Añadir publicaciones en firmas de correo: Incluir enlaces a las últimas publicaciones en la firma del correo electrónico o en presentaciones académicas es una forma sutil pero efectiva de promocionar los trabajos.
  8. Crear y compartir contenido multimedia: Publicar vídeos, pódcast o presentaciones en plataformas como YouTube, Figshare o SlideShare puede hacer que la investigación sea más comprensible y atractiva para públicos diversos.

Dario Amodei, CEO de Anthropic, advierte: si no entendemos cómo “piensa” la IA, no podremos controlarla

Amodei, Dario. “The Urgency of Interpretability.” Dario Amodei (blog). 21 de mayo de 2024. https://www.darioamodei.com/post/the-urgency-of-interpretability

El ensayo “La urgencia de la interpretabilidad” de Dario Amodei, CEO de Anthropic, es una llamada de atención sobre la necesidad crítica y urgente de comprender el funcionamiento interno de los sistemas de inteligencia artificial (IA) avanzados. A medida que estos modelos, especialmente los generativos como los grandes modelos de lenguaje (LLM), se vuelven más poderosos y autónomos, su opacidad representa un riesgo significativo para la seguridad, la gobernanza y la alineación con los valores humanos.

En su texto, Amodei parte de una preocupación central: los sistemas de inteligencia artificial, especialmente los grandes modelos de lenguaje como Claude (de Anthropic) o GPT (de OpenAI), están creciendo a un ritmo acelerado en capacidad y sofisticación, pero no así en transparencia. Esto significa que, aunque estos modelos pueden generar textos altamente coherentes, resolver tareas complejas o incluso programar código, no sabemos realmente cómo lo hacen. Sus «razonamientos», sus objetivos internos y sus procesos de toma de decisiones permanecen en gran parte ocultos incluso para sus propios creadores. Esta característica —la opacidad estructural de las redes neuronales profundas— convierte a estos sistemas en cajas negras: modelos altamente potentes que no podemos auditar, ni predecir completamente.

«Las personas ajenas al sector suelen sorprenderse y alarmarse al descubrir que no comprendemos cómo funcionan nuestras propias creaciones de IA. Y tienen razón en estar preocupados: esta falta de comprensión no tiene precedentes en la historia de la tecnología»

La falta de interpretabilidad no es simplemente una limitación técnica, sino un riesgo existencial. En la medida en que confiamos cada vez más en estas IA para realizar funciones críticas (desde atención médica hasta procesos financieros, desde generación de conocimiento hasta decisiones de seguridad), no poder explicar su funcionamiento significa que tampoco podemos anticipar ni prevenir fallos. La IA podría comportarse de forma no alineada con los valores humanos, y al carecer de herramientas para “leer su mente”, esos errores podrían pasar inadvertidos hasta que sea demasiado tarde.

 «No podemos detener el autobús, pero podemos dirigirlo«

Amodei sostiene que una IA verdaderamente alineada no basta con estar bien entrenada o con tener filtros de seguridad externos. Debemos ser capaces de abrir sus “circuitos internos” y comprender cómo ha llegado a una conclusión determinada, qué objetivos está persiguiendo y si está desarrollando estrategias emergentes, como el engaño o la manipulación. La interpretación, por tanto, no es un lujo ni un ideal ético: es una condición esencial para el control, la supervisión y la gobernanza efectiva de estos sistemas. Para lograrlo, la investigación debe centrarse en métodos que permitan mapear las conexiones neuronales, desentrañar sus representaciones internas y ofrecer explicaciones comprensibles para humanos sobre el “por qué” de cada decisión.

«Los sistemas de IA generativa modernos son opacos de una manera que difiere fundamentalmente del software tradicional. Si un programa de software ordinario hace algo (por ejemplo, un personaje en un videojuego dice una línea de diálogo o mi aplicación de entrega de comida me permite dar propina a mi conductor), hace esas cosas porque un humano las programó específicamente. La IA generativa  no es así en absoluto . Cuando un sistema de IA generativa hace algo, como resumir un documento financiero, no tenemos idea, a un nivel específico o preciso, de por qué toma las decisiones que toma (por qué elige ciertas palabras sobre otras o por qué ocasionalmente comete un error a pesar de que generalmente es preciso)»

A modo de analogía, Amodei compara esta necesidad con los avances en medicina que nos permitieron visualizar el interior del cuerpo humano —por ejemplo, con resonancias magnéticas—. Sin esas herramientas, nuestros diagnósticos serían a ciegas. Algo similar ocurre con la IA: necesitamos instrumentos que nos permitan visualizar qué ocurre en las capas profundas del modelo, en sus pesos y patrones internos. Esa “resonancia magnética” de las redes neuronales es lo que está en juego con la interpretabilidad.

Uno de los aspectos más inquietantes del ensayo es el reconocimiento de que, actualmente, las capacidades de la IA avanzan más rápido que nuestra comprensión de ellas. Ya estamos desarrollando modelos capaces de comportamientos complejos, y sin embargo apenas comenzamos a entender su arquitectura interna. Esta brecha entre poder y entendimiento, según Amodei, es peligrosa: es como construir reactores nucleares sin comprender del todo la física que los gobierna. En algunos casos, la IA ha demostrado “comportamientos emergentes”, es decir, habilidades que no fueron programadas ni anticipadas por sus diseñadores. Estas capacidades surgen de la interacción entre millones de parámetros y datos de entrenamiento, y pueden incluir razonamientos complejos, generación de código, toma de decisiones estratégicas e incluso formas incipientes de “metacognición”. Si no podemos explicar cómo surgen estos comportamientos, tampoco podremos saber si en algún momento serán perjudiciales o si conducirán a formas de autonomía fuera de nuestro control.

Otro eje central del texto es el vínculo entre interpretabilidad y seguridad. Muchos investigadores en el campo de la inteligencia artificial alineada (AI alignment) consideran que el mayor desafío de largo plazo es evitar que una IA avanzada desarrolle objetivos propios que entren en conflicto con los intereses humanos. Pero sin interpretabilidad, no podemos saber si eso ya está ocurriendo. ¿Cómo detectar si una IA ha aprendido a mentir? ¿O si está desarrollando objetivos intermedios no explícitos, como obtener más acceso a recursos computacionales o evitar ser apagada? Estas preguntas no pueden responderse solo observando la salida del modelo (sus respuestas). Se requiere una forma de entender lo que está ocurriendo dentro del sistema, a nivel estructural.

Además, la interpretabilidad no solo es importante para evitar riesgos catastróficos. También lo es para la ética, la transparencia y la responsabilidad. Si una IA toma decisiones que afectan a personas (por ejemplo, en el sistema judicial, en seguros médicos o en procesos de contratación), es imprescindible poder justificar esas decisiones. Sin interpretabilidad, las decisiones de la IA serían arbitrarias y opacas, y socavarían los principios básicos de la justicia y la rendición de cuentas.

En las secciones finales del ensayo, Amodei lanza una advertencia clara: si no invertimos masivamente en investigación sobre interpretabilidad ahora, podemos perder una ventana crítica para controlar y entender la IA antes de que se vuelva demasiado poderosa. Y lo más preocupante, señala, es que esta investigación todavía está infravalorada dentro del campo de la IA, donde la mayor parte de los recursos se destinan a construir modelos cada vez más grandes y potentes, en lugar de desarrollar herramientas para comprenderlos mejor. El autor aboga por un esfuerzo concertado entre laboratorios de investigación, universidades, gobiernos y entidades reguladoras para que la interpretabilidad sea una prioridad al mismo nivel que el rendimiento o la eficiencia computacional.

En defensa de las bibliotecas en la era digital: digitalización masiva de libros y legalidad del préstamo digital controlado

Paladino, A. (2025). A Case for Libraries’ Survival in the Internet Age: Mass Digitization of Literary Works and the Legality of Controlled Digital LendingThe Columbia Journal of Law & The Arts48(3), 372–401. https://doi.org/10.52214/jla.v48i3.13871

Más sobre 

Préstamo Digital Controlado 

El artículo daborda un tema de gran relevancia en la actualidad: el papel de las bibliotecas en la era digital y cómo pueden adaptarse a las nuevas tecnologías sin violar los derechos de autor. En particular, el estudio se centra en la práctica conocida como Préstamo Digital Controlado (CDL por sus siglas en inglés), que consiste en la digitalización de libros físicos por parte de bibliotecas para permitir su préstamo en línea, bajo condiciones similares al préstamo físico tradicional. Este sistema busca asegurar que solo un usuario pueda acceder a la copia digital de un libro a la vez, de modo que se mantenga la lógica de una copia por lector, como ocurre en el mundo analógico.

Se parte de un análisis constitucional del derecho de autor en Estados Unidos, recordando que su objetivo principal es el de «promover el progreso de la ciencia y las artes útiles», es decir, fomentar la creación de conocimiento y cultura a través de un sistema equilibrado de incentivos para los autores y de acceso público para los ciudadanos. Sin embargo, con la evolución tecnológica y la globalización, este equilibrio se ha visto trastocado. La facilidad para reproducir y distribuir obras digitalmente ha generado una tensión creciente entre los titulares de derechos y las instituciones culturales como bibliotecas y archivos, que tienen la misión de preservar y difundir el conocimiento.

Paladino analiza con profundidad el caso judicial Hachette v. Internet Archive, uno de los más significativos en este ámbito, donde se cuestionó la legalidad del CDL. La demanda planteada por grandes editoriales contra Internet Archive, que había implementado un sistema de préstamo digital de libros que poseía en formato físico, puso en tela de juicio si esta práctica se puede considerar «uso justo» (fair use) bajo la legislación estadounidense. El caso generó preocupación en el ámbito bibliotecario, ya que una resolución negativa podría limitar seriamente la capacidad de las bibliotecas para cumplir con su misión pública en el entorno digital.

Frente a estas críticas, la autora defiende el CDL como una extensión natural del préstamo bibliotecario tradicional. Argumenta que, lejos de atentar contra los derechos de autor, el préstamo digital controlado representa una forma moderna de cumplir con el mandato constitucional de acceso a la cultura. Entre las ventajas que Paladino señala se encuentran la posibilidad de ofrecer acceso a obras agotadas o difíciles de conseguir, la ampliación del acceso para usuarios con discapacidad, la preservación de libros antiguos mediante su digitalización, y el apoyo a estudiantes y académicos que no siempre tienen los recursos para acceder a versiones comerciales de los textos.

Además, Paladino examina otras posibles soluciones para reforzar la posición legal del CDL y garantizar un mejor equilibrio entre los intereses de las bibliotecas y los de los titulares de derechos. Por ejemplo, sugiere limitar la responsabilidad legal de las bibliotecas cuando se trate de obras huérfanas —aquellas cuyos autores o editores no pueden ser identificados o localizados—, lo que actualmente frena muchos proyectos de digitalización. También propone reintroducir ciertos requisitos de formalización en el sistema de derechos de autor, como el registro obligatorio, para facilitar la identificación de los titulares y evitar la proliferación de obras en situación legal ambigua. Asimismo, aboga por la creación de bases de datos públicas y fiables que permitan rastrear con mayor facilidad los derechos sobre las obras.

Un informe de Springer Nature revela amplias disparidades internacionales en la formación sobre integridad en la investigación.

Springer Nature. “New Analysis from Springer Nature Reveals Widespread International Disparities in Research Integrity Training.” Comunicado de prensa, 29 de mayo de 2025. https://group.springernature.com/gp/group/media/press-releases/research-integrity-training-white-paper/27783258

Springer Nature ha publicado un nuevo informe que revela disparidades significativas a nivel internacional en la formación sobre integridad en la investigación. El estudio, presentado el 29 de mayo de 2025 por la editora en jefe de Nature, Dra. Magdalena Skipper, analiza encuestas realizadas en Australia, Reino Unido, Estados Unidos, India, Japón, China y Brasil, destacando variaciones en el acceso, metodología y comprensión de la formación en integridad investigadora.

Principales hallazgos

  • Acceso desigual a la formación: Los investigadores en China (79%) y Japón (73%) reportaron el mayor acceso a formación en integridad, seguidos por Australia (68%), EE. UU. (56%), India (53%), Reino Unido (51%) y Brasil (27%). Sin embargo, un mayor acceso no siempre se traduce en mejores resultados; por ejemplo, el Reino Unido y Brasil, con menor acceso, también presentan las tasas más bajas de retracciones.
  • Apoyo a la formación obligatoria: Entre el 84% y el 94% de los investigadores en todos los países encuestados apoyan la formación obligatoria en integridad en algún momento de su carrera.
  • Evaluación limitada del aprendizaje: Pocos investigadores (entre el 7% y el 29%) están obligados a demostrar comprensión del material mediante pruebas formales; en su lugar, las evaluaciones suelen basarse en discusiones o trabajos en grupo.
  • Enfoque en etapas tempranas de la carrera: La formación se dirige principalmente a estudiantes de posgrado e investigadores en etapas iniciales, aunque en China y Japón también se incluye a personal no académico y ejecutivo, lo que podría indicar un compromiso institucional más amplio.
  • Variaciones en los métodos de entrega: Mientras que la mayoría de las regiones utilizan una combinación de formatos en línea y presenciales, Japón depende en gran medida de la formación exclusivamente en línea, e India prefiere formatos presenciales más que otros países.
  • Necesidad de orientación adicional: En todos los países, los investigadores expresaron la necesidad de más orientación sobre autoría. Además, en Australia, EE. UU., Reino Unido y Brasil, se manifestó un deseo de recibir más formación en la gestión y compartición de datos de investigación.

Recomendaciones

El informe aboga por un liderazgo institucional más sólido y una formación híbrida adaptada para integrar la integridad en la investigación académica. Se destaca la necesidad de apoyo más accesible y personalizado para los investigadores en todas las etap

DIAMAS publica recomendaciones y directrices internacionales para el acceso abierto a los diamantes

Arasteh-Roodsary, Sona Lisa, Vinciane Gaillard, Federica Garbuglia, Pierre Mounier, Janne Pölönen, Vanessa Proudman, Johan Rooryck, Bregt Saenen y Graham Stone. Diamond Open Access Recommendations and Guidelines for Institutions, Funders, Sponsors, Donors, and Policymakers. Zenodo, 26 de mayo de 2025. https://zenodo.org/records/15518745.

El proyecto DIAMAS (Developing Institutional Open Access Publishing Models to Advance Scholarly Communication) ha publicado recientemente el Diamond Open Access Standard (DOAS), una guía internacional que establece estándares de calidad para la publicación académica en acceso abierto diamante. Este modelo se caracteriza por no cobrar tarifas ni a autores ni a lectores, promoviendo una comunicación científica más equitativa y sostenible.

El DOAS es un marco integral que define estándares verificables en siete áreas clave de la publicación académica:

  1. Financiación
  2. Propiedad legal, misión y gobernanza
  3. Ciencia Abierta
  4. Gestión editorial, calidad editorial e integridad en la investigación
  5. Eficiencia del servicio técnico
  6. Visibilidad, comunicación, marketing e impacto
  7. Equidad, diversidad, inclusión y pertenencia (EDIB), multilingüismo y equidad de género

Estos componentes fueron desarrollados a partir del Extensible Quality Standard for Institutional Publishing (EQSIP), tras analizar más de 70 documentos sobre calidad editorial y con la participación de más de 300 expertos del ámbito académico.

ara facilitar la implementación del DOAS, DIAMAS ha desarrollado:

  • Herramienta de autoevaluación: permite a los editores evaluar su adherencia a los estándares establecidos.
  • Conjunto de herramientas y directrices (Toolsuite & Guidelines): ofrece artículos y guías prácticas sobre aspectos como políticas de acceso abierto, gestión editorial, diversidad lingüística y más .eifl.net+2FECYT+2Universo Abierto+2

Estos recursos están disponibles en varios idiomas, incluido el español, y se integran en el European Diamond Capacity Hub, una plataforma que proporciona servicios de capacitación y herramientas para editores en acceso abierto diamante

DIAMAS también está desarrollando recomendaciones y directrices para líderes institucionales, financiadores y responsables de políticas, con el objetivo de fomentar el apoyo y la adopción del modelo de acceso abierto diamante en Europa

Re:Create sostiene que el entrenamiento de modelos de IA constituye un uso transformador y un posible uso justo

Re:Create. 2025. «Breaking Down the USCO Report on Generative AI Training and Re:Create’s ‘Non-Takeaways‘.» Re:Create Coalition, 28 de mayo de 2025. https://www.recreatecoalition.org/breaking-down-the-usco-report-on-generative-ai-training-and-recreates-non-takeaways/

El 28 de mayo de 2025, la organización Re:Create publicó un análisis crítico del informe final de la Oficina de Derechos de Autor de EE. UU. (USCO) sobre la inteligencia artificial generativa y el uso justo (fair use). Aunque Re:Create valora que el informe no proponga cambios legislativos inmediatos, expresa preocupación por ciertas interpretaciones que podrían restringir el desarrollo y uso de herramientas de IA.

Re:Create es una coalición compuesta por una amplia membresía de centros de investigación, organizaciones de defensa, bibliotecas y empresas tecnológicas —grandes y pequeñas— que actúa como la coalición líder unida en la lucha por un sistema de derechos de autor equilibrado que promueva la innovación, los creadores y los consumidores.

Re:Create sostiene que el entrenamiento de modelos de IA, al utilizar obras protegidas para generar nuevas creaciones, constituye un uso transformador, elemento central del uso justo. Critica que el informe de la USCO minimice esta perspectiva, especialmente al desestimar el concepto de «uso no expresivo», que se refiere a la utilización de obras sin replicar su contenido expresivo. Además, Re:Create argumenta que comparar el aprendizaje de IA con el humano es válido, ya que ambos procesos implican la internalización de información sin reproducirla directamente

El informe de la USCO sugiere que el uso de obras obtenidas sin autorización podría pesar en contra del uso justo. Re:Create refuta esta idea, señalando que el uso justo se centra en cómo se utiliza una obra, no en cómo se obtuvo. Además, enfatiza que el derecho de autor no otorga control absoluto sobre el acceso a las obras, y que prácticas como la venta de libros usados o el préstamo bibliotecario son ejemplos legales de acceso sin autorización directa del titular de derechos.

El informe plantea que el entrenamiento de IA podría afectar negativamente al mercado de las obras originales. Re:Create argumenta que las pérdidas derivadas de la competencia con obras nuevas y no infractoras no deben considerarse en el análisis del uso justo. Además, advierte que priorizar las licencias sobre el uso justo podría crear barreras económicas significativas, especialmente para desarrolladores con recursos limitados, lo que obstaculizaría la innovación y el acceso equitativo a la tecnología.

Por ello, Re:Create insta a los tribunales a no adoptar ciertas interpretaciones del informe de la USCO que podrían restringir el uso justo en el contexto de la IA. Subraya la importancia de mantener un equilibrio en el sistema de derechos de autor que fomente la creatividad, la innovación y el acceso a la información, elementos esenciales para el progreso cultural y tecnológico.