Archivo de la categoría: Informes

El auge de la censura de libros en EE. UU.: análisis de tendencias y su impacto en la libertad intelectual y la educación pública (2020-2025)

Forrest, Marianne Wood. 2025. The Censorship Acceleration: An Analysis of Book Ban Trends After 2020. EveryLibrary Institute. https://www.everylibraryinstitute.org/censorship_acceleration_report.

El informe The Censorship Acceleration (2025), elaborado por la investigadora Marianne Wood Forrest para el EveryLibrary Institute, analiza el auge de la censura de libros en escuelas y bibliotecas públicas de EE. UU. desde 2020. A diferencia de incidentes aislados impulsados por preocupaciones locales, las prohibiciones de libros se han convertido en una estrategia política nacional orquestada por grupos conservadores bien financiados, como Moms for Liberty y Citizens Defending Freedom. Estos grupos han transformado la censura en una táctica central de una guerra cultural más amplia, orientada a desestabilizar la educación pública, suprimir voces históricamente marginadas y promover la privatización escolar.

Hallazgos clave del informe

  • Motivaciones políticas y religiosas: Las prohibiciones de libros ya no responden a quejas individuales de padres, sino a campañas organizadas por grupos políticos y religiosos con agendas ideológicas claras.
  • Conexión con la privatización educativa: Las campañas de censura están estrechamente vinculadas a esfuerzos para promover la privatización de las escuelas y desmantelar iniciativas de diversidad, equidad e inclusión (DEI).
  • Nacionalización de conflictos locales: Lo que antes eran disputas locales en juntas escolares ahora se han convertido en campañas coordinadas a nivel nacional, con estrategias y recursos compartidos.
  • Impacto del Project 2025: Las políticas propuestas en el Project 2025, como la eliminación de fondos federales para bibliotecas y la criminalización de bibliotecarios, agravan la erosión de la libertad intelectual y la democracia.
  • Resistencia emergente: Se observa un crecimiento en la resistencia, especialmente desde movimientos estudiantiles y estados que han promulgado leyes que protegen el derecho a leer.

Desarrollos en los mercados de inteligencia artificial: nuevos indicadores

OECD. 2025. Developments in Artificial Intelligence Markets: New Indicators Based on Model Characteristics, Prices and Providers. OECD Artificial Intelligence Papers, no. 37. París: OECD Publishing. Publicado el 17 de junio de 2025. https://doi.org/10.1787/9302bf46-en.

El tercer informe presenta indicadores nuevos para analizar los mercados de IA a partir de características de modelos, precios y proveedores. Utiliza una extensa base de datos sobre modelos generativos, incluyendo su rendimiento, coste, origen (empresas desarrolladoras), infraestructuras de nube y aplicaciones derivadas. Se detecta una tendencia hacia la baja de los precios ajustados por calidad, un aumento de la variedad de modelos disponibles y una expansión del número de actores en el mercado, lo que sugiere un dinamismo saludable. Sin embargo, también se identifican riesgos que podrían frenar el crecimiento del sector, como cuellos de botella relacionados con datos, capacidad computacional y escasez de talento especializado. Estas limitaciones podrían derivar en una concentración excesiva del mercado y obstaculizar el acceso abierto y competitivo a los beneficios de la IA.

Modelos de IA confiables mediante tecnologías que mejoran la privacidad (PETs)

OECD. 2025. Sharing Trustworthy AI Models with Privacy‑Enhancing Technologies. OECD Artificial Intelligence Papers, no. 38. París: OECD Publishing. https://doi.org/10.1787/a266160b-en.

El documento aborda el papel de las tecnologías que mejoran la privacidad (Privacy-Enhancing Technologies, PETs) en el desarrollo de modelos de IA confiables. Clasifica los usos de estas tecnologías en dos grandes grupos: por un lado, aquellas que permiten mejorar el rendimiento de los modelos sin exponer los datos, como el federated learning, los entornos de ejecución confiables (TEEs) o la computación multipartita segura (SMPC); por otro, tecnologías que posibilitan la creación y compartición confidencial de modelos, como la privacidad diferencial y el cifrado homomórfico. Estas herramientas son fundamentales para proteger la privacidad y la propiedad intelectual, y para fomentar la colaboración en entornos sensibles. El informe señala que, si bien estas tecnologías tienen un gran potencial, no son soluciones mágicas: su utilidad requiere combinaciones cuidadosas y equilibradas, y todavía presentan desafíos en términos de eficiencia y facilidad de uso. Por ello, se recomienda que los gobiernos impulsen su adopción mediante marcos regulatorios flexibles, apoyo a la I+D y espacios de prueba como los regulatory sandboxes.

El uso de tecnologías como trusted execution environments (TEEs), federated learning, y secure multi-party computation para procesar y ensayar datos sin comprometer su confidencialidad. El uso de datos sintéticos y differential privacy ayuda a reducir la dependencia de datos reales. Para colaborar o compartir modelos sin revelar información protegida, se combinan herramientas como MPC, federated learning, HE, TEE y differential privacy. Estas herramientas permiten crear y utilizar modelos manteniendo su confidencialidad y la de sus datos subyacentes.

Aunque prometedoras, las PETs enfrentan retos técnicos —como complejidad, eficiencia, usabilidad y equilibrio entre utilidad y privacidad— y barreras regulatorias o institucionales que dificultan su adopción amplia.

El informe sugiere que los gobiernos fomenten el uso de PETs mediante:

  • Orientaciones y guías reguladoras
  • Regulatory sandboxes para innovación controlada
  • Apoyo a I +D +i
  • Desafíos o concursos para estimular el desarrollo
  • Compras públicas estratégicas
  • Desarrollo de habilidades y competencias institucionales

Efectos de la IA generativa en la productividad, la innovación y el emprendimiento

Calvino, Flavio; Jelmer Reijerink; y Lea Samek. 2025. The effects of generative AI on productivity, innovation and entrepreneurship. OECD Artificial Intelligence Papers, No. 39. OECD Publishing. https://doi.org/10.1787/b21df222‑en

Este primer informe examina cómo la inteligencia artificial generativa afecta la productividad y transforma el panorama de la innovación y el emprendimiento. Destaca el potencial de la IA para automatizar tareas, amplificar capacidades humanas y modificar las operaciones empresariales. También señala su papel en la estimulación de la creatividad, la aceleración del I+D y la reducción de barreras de entrada para nuevos actores económicos. Sin embargo, el estudio advierte que la eficacia de la IA depende en gran medida del nivel de experiencia del usuario y del tipo de tarea realizada. La colaboración entre humanos y sistemas de IA emerge como una clave para maximizar beneficios. Además, se identifican vacíos importantes en la investigación actual, especialmente en lo referente a los efectos a largo plazo de la IA en los negocios y a la comprensión limitada de sus restricciones por parte de los trabajadores. El informe llama a profundizar en estos aspectos para orientar un uso ético y efectivo de estas tecnologías.

1. Automatización, aumento de habilidades y transformación empresarial

  • La IA generativa puede automatizar tareas rutinarias—como redacción, traducción y resúmenes—, con mejoras en eficiencia de hasta un 40 % y calidad entre un 18–40 % .
  • En la traducción y síntesis de textos complejos —por ejemplo, fallos judiciales—, los modelos actuales igualan o superan sistemas especializados .
  • En programación, herramientas como GitHub Copilot permiten desarrollar código un 55 % más rápido .

2. Colaboración humano‑IA como factor clave

  • La sinergia entre humanos y IA es fundamental: el usuario y el contexto determinan el éxito, y no es un sustituto sino un complemento ft.com.
  • Esta colaboración es particularmente efectiva para tareas con alta carga cognitiva, liberando tiempo para tareas estratégicas .

3. Estímulo a la creatividad e innovación

  • En generación de ideas, la IA puede potenciar creatividad, especialmente para personas sin experiencia, aunque puede generar resultados menos diversos o más homogéneos arxiv.org+1arxiv.org+1.
  • En entornos de I+D, la IA acelera la definición de problemas, diseño experimental y fases iniciales del desarrollo de productos y servicios oecd.org.
  • Para grupos de innovación, estudios revelan que herramientas con IA mejoran la originalidad, claridad y calidad de las ideas oecd.org+1arxiv.org+1.

4. Rendimiento económico y mercados de capital

  • El lanzamiento de ChatGPT se asoció con un rendimiento diario superior en acciones de empresas con alta exposición a IA generativa (≈ 0.45 %) oecd.org.
  • Cuando Italia bloqueó ChatGPT temporalmente, las empresas expuestas sufrieron una caída del 9 % en cotización .

5. Vacíos en investigación y recomendaciones

  • Existen lagunas: pocos estudios sobre efectos a largo plazo, comprensión y confianza de los trabajadores, y la evolución del mercado laboral .
  • Se destaca la necesidad de nuevos estudios longitudinales y microeconómicos que examinen la productividad y capacidad de absorción de las empresas arxiv.org.
  • Los autores enfatizan la importancia del capital humano, la formación continua, el rol del pensamiento crítico y políticas que apoyen el despliegue responsable de la IA .

El estado de la alfabetización en datos e IA en 2025: avances, retos y estrategias

Ampliar

DataCamp Team. 2025. “Introducing the State of Data & AI Literacy Report 2025.” DataCamp Blog, 9 de abril de 2025.

Texto completo

En su tercera edición, el informe State of Data & AI Literacy Report 2025 analiza la preparación de las organizaciones frente al auge de la inteligencia artificial. Se basa en una encuesta a más de 500 líderes empresariales de EE. UU. y Reino Unido, además de incluir aportes de empresas como Colgate, BP, Rolls‑Royce y JPMorgan Chase

Un hallazgo destacado es que el alfabetismo en IA está creciendo rápidamente: el 69 % de los líderes lo considera esencial, frente al 86 % que otorga esa misma importancia a la alfabetización en datos, y representa un aumento de 7 puntos respecto al año anterior. La IA ya no es una novedad: el 91 % informa que al menos alguien en su organización la utiliza, el 82 % hace uso semanal y el 39 % la usa a diario

Las empresas están convirtiendo iniciativas aisladas en programas estructurados de formación. El 46 % ofrece un programa maduro de alfabetización de datos, subiendo desde el 35 %, y el 43 % cuenta con formación avanzada en IA, casi el doble del 25 % del año anterior. No obstante, persisten obstáculos como limitaciones presupuestarias, resistencia interna, escaso apoyo ejecutivo y dificultades para medir el retorno de inversión

El informe también presenta cinco recomendaciones clave basadas en las prácticas de organizaciones exitosas:

  1. Vincular la formación con objetivos de negocio, como reducir tiempos de informe o mejorar procesos.
  2. Abordarlo como una iniciativa de gestión del cambio, con embajadores internos y narrativas inspiradoras.
  3. Priorizar aprendizaje práctico, basado en tareas reales.
  4. Integrar datos e IA como un continuo en el plan de formación.
  5. Personalizar a gran escala, adaptando contenidos por roles dentro de la organización

Por último, el informe subraya que la alfabetización en datos y en IA no solo es una ventaja competitiva, sino también una salvaguarda social frente a desafíos como la desinformación, los sesgos algorítmicos y el riesgo de automatización laboral. Por ejemplo, el 73 % de los líderes lo considera esencial para combatir la desinformación, y el 75 % apoya la formación ética en IA para evitar sesgos .

El 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa

Common Sense Media. The Dawn of the AI Era: Teens, Parents, and Generative AI. San Francisco: Common Sense Media, 2024.

Texto completo

El informe revela que aproximadamente el 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa, como ChatGPT o DALL·E. Estas tecnologías se emplean principalmente para ayudar en tareas escolares, especialmente para generar ideas o traducir contenidos. Sin embargo, solo el 37 % de los padres son conscientes del uso que sus hijos hacen de estas herramientas, lo que evidencia una desconexión significativa entre adolescentes y adultos en cuanto al conocimiento y manejo de la IA.

En cuanto a las políticas escolares, el estudio destaca que muchas escuelas aún no cuentan con normativas claras sobre el uso de la IA generativa. Un 37 % de los adolescentes reportan que en sus escuelas no existen reglas definidas al respecto, mientras que el 42 % de los docentes suelen prohibir su uso. Por otro lado, el 87 % de los padres han oído hablar de estas tecnologías, pero muchos desconocen cómo y cuándo sus hijos las utilizan.

El informe también muestra diferencias en el uso de la IA entre grupos raciales. Los adolescentes afroamericanos y latinos tienden a utilizar una gama más amplia de funciones de la IA en comparación con sus compañeros blancos. Además, los padres de adolescentes afroamericanos suelen tener una visión más positiva respecto al impacto de estas tecnologías en la educación y en el desarrollo de habilidades. No obstante, se observa que los adolescentes afroamericanos tienen más probabilidades de que sus trabajos sean erróneamente identificados como generados por IA, lo que plantea preocupaciones sobre posibles sesgos en los sistemas de detección.

Otro aspecto importante es que los adolescentes que participan en discusiones en el aula sobre la inteligencia artificial tienen una percepción más crítica y equilibrada de sus ventajas y desventajas. Estos jóvenes suelen verificar con mayor frecuencia la precisión del contenido generado por IA y reflexionan sobre cómo esta tecnología podría influir en sus futuras carreras profesionales.

Finalmente, el informe propone recomendaciones para distintos actores. A los padres se les sugiere informarse y dialogar con sus hijos sobre los beneficios y riesgos de la IA. A los educadores se les aconseja desarrollar políticas claras para su uso en el aula y promover debates críticos. A los responsables políticos se les insta a crear directrices que fomenten un uso ético y equitativo de la IA en la educación, garantizando que ningún grupo quede en desventaja.

Inteligencia artificial y educación: orientaciones para responsables políticos

Miao, F., & Holmes, W. (2021). Artificial Intelligence and Education: Guidance for Policy-makers. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). https://unesdoc.unesco.org/ark:/48223/pf0000376709

El informe de la UNESCO ofrece una guía integral para que los responsables políticos comprendan y gestionen la integración de la inteligencia artificial (IA) en la educación. Destaca tanto las oportunidades como los riesgos asociados al uso de la IA en el ámbito educativo, con el objetivo de garantizar una implementación ética, inclusiva y equitativa.

Contenido clave:

  • Definición y tecnologías de la IA: Se exploran las bases de la IA, incluyendo sus definiciones, técnicas y tecnologías subyacentes.
  • Tendencias emergentes y su impacto: Se analizan las tendencias actuales en el uso de la IA en la educación y sus implicaciones para la enseñanza y el aprendizaje.
  • Preparación para convivir con la IA: Se discute cómo los sistemas educativos pueden preparar a los individuos para vivir y trabajar en un entorno influenciado por la IA.
  • Aplicaciones de la IA en la educación: Se presentan ejemplos de cómo la IA puede mejorar la educación, desde la personalización del aprendizaje hasta la automatización de tareas administrativas.
  • Desafíos y recomendaciones: Se identifican los principales desafíos en la implementación de la IA en la educación y se ofrecen recomendaciones concretas para que los responsables políticos diseñen políticas y programas adaptados a sus contextos locales.

Este informe es una herramienta esencial para los responsables políticos que buscan integrar la IA de manera efectiva y ética en los sistemas educativos, con miras a avanzar hacia el Objetivo de Desarrollo Sostenible 4 (Educación de calidad para todos).

Uso de la inteligencia artificial (IA) en el ecosistema de la publicación académica y científica

NISO. 2025. Advancing Artificial Intelligence Interoperability in STM Content Through Standards: Report of NISO AI Publishing Workshops, June 2025.

Texto completo

En junio de 2025, la Organización Nacional de Estándares de Información (NISO) publicó el informe preliminar de una serie de talleres dedicados al uso de la inteligencia artificial (IA) en el ecosistema de la publicación académica y científica. Estos talleres, realizados a principios de año, reunieron a profesionales de bibliotecas, editoriales, instituciones académicas y desarrolladores de tecnología con el fin de identificar desafíos comunes y proponer soluciones colaborativas. El documento está actualmente abierto a comentarios públicos hasta el 15 de julio de 2025, como parte de un proceso participativo para refinar futuras recomendaciones normativas.

Uno de los aspectos centrales del informe es la necesidad urgente de establecer estándares para garantizar la interoperabilidad entre plataformas y herramientas que incorporan IA. Esta interoperabilidad no solo permitiría una mayor eficiencia en los procesos editoriales, sino también una mayor transparencia y confianza en los resultados generados por algoritmos. Se subraya la importancia de metadatos detallados y estructurados, así como la documentación clara del funcionamiento de las IA utilizadas.

También se abordaron consideraciones éticas clave, como la protección de datos, la privacidad de autores y revisores, y la necesidad de mitigar sesgos algorítmicos. Los participantes coincidieron en que cualquier uso de IA en entornos académicos debe respetar los principios de equidad, trazabilidad y responsabilidad. Además, se propone la creación de grupos de trabajo interinstitucionales y la elaboración de guías técnicas que orienten a las organizaciones en la adopción segura y eficaz de estas tecnologías.

El informe representa un paso importante para posicionar a la comunidad académica como agente activo en la definición de normas que regulen el uso de la IA en la publicación científica. Con este enfoque colaborativo, NISO busca fomentar el desarrollo de herramientas más confiables, interoperables y éticas, al tiempo que impulsa una cultura de transparencia y mejora continua en la investigación académica.

Estado actual de la inteligencia artificial (IA) y su impacto en la sociedad 2025

Brennan, Kate, Amba Kak y Sarah Myers West. Artificial Power: AI Now 2025 Landscape. AI Now Institute, 3 de junio de 2025. https://ainowinstitute.org/wp-content/uploads/2025/06/FINAL-20250602_AINowLandscapeReport_Full.pdf

El informe Artificial Power: AI Now 2025 Landscape Report, publicado el 3 de junio de 2025 por el AI Now Institute, ofrece un análisis crítico sobre el estado actual de la inteligencia artificial (IA) y su impacto en la sociedad. El documento destaca cómo las grandes empresas tecnológicas, como Microsoft, Amazon, Google y Meta, han consolidado un poder significativo que influye en diversos aspectos de la vida pública.

El documento subraya cómo las principales empresas tecnológicas —Microsoft, Amazon, Google y Meta— han acumulado un poder significativo, no solo en términos económicos, sino también en su capacidad para influir en las políticas públicas, en la investigación académica y en la vida cotidiana. Esta concentración de poder plantea serias preocupaciones sobre la rendición de cuentas, la equidad y la capacidad de los gobiernos para regular de forma eficaz estas tecnologías.

Uno de los aspectos más destacados del informe es su crítica a las narrativas dominantes sobre la inteligencia artificial. En particular, cuestiona los discursos en torno a la inteligencia artificial general (AGI) y la supuesta «carrera armamentista» global en IA. El informe sostiene que estos relatos tienden a desviar la atención del impacto real que los sistemas actuales de IA están teniendo sobre el trabajo, la economía y la estructura social. En lugar de enfocarse en escenarios hipotéticos, el informe propone centrar los esfuerzos en abordar los problemas concretos que ya están afectando a millones de personas.

El impacto de la IA en el mundo laboral es otro de los temas centrales. Según el informe, la automatización impulsada por la IA está provocando una reestructuración del empleo que afecta especialmente a los trabajadores en condiciones precarias. Aunque a menudo se prometen mejoras en eficiencia y productividad, los beneficios no se reparten equitativamente y los trabajadores rara vez tienen voz en los procesos de toma de decisiones relacionados con la introducción de estas tecnologías. Esta asimetría contribuye a reforzar las desigualdades existentes y a erosionar derechos laborales fundamentales.

Ante este panorama, el AI Now Institute propone una serie de recomendaciones clave. Entre ellas, destaca la necesidad de implementar políticas que frenen la concentración del poder corporativo, fomenten la competencia y garanticen el acceso equitativo a los recursos tecnológicos. También subraya la urgencia de fortalecer los derechos laborales, dando mayor participación a los trabajadores en la gobernanza tecnológica. Finalmente, aboga por un enfoque regulatorio que priorice la justicia social, integrando consideraciones de equidad, inclusión y sostenibilidad en todas las fases del ciclo de vida de los sistemas de IA.

En conjunto, el informe plantea una llamada de atención clara: para que la inteligencia artificial beneficie realmente a la sociedad, es necesario abordar de forma estructural las dinámicas de poder que hoy dominan su desarrollo y aplicación.

Principales hallazgos del informe

  1. Concentración de poder en Big Tech: El informe señala que estas corporaciones han acumulado una ventaja considerable en términos de datos y capacidad computacional, lo que les permite dominar el desarrollo y la implementación de sistemas de IA. Esta concentración de poder plantea desafíos para la rendición de cuentas y la equidad en la sociedad.
  2. Mitos en torno a la IA: Se critica la narrativa predominante sobre la inteligencia artificial general (AGI) y la carrera armamentista en IA, argumentando que estas ideas desvían la atención de los problemas reales y urgentes relacionados con la tecnología actual.
  3. Impacto en el trabajo y la economía: El documento destaca cómo la automatización impulsada por la IA está afectando negativamente a los trabajadores, especialmente a aquellos en roles precarizados, y cómo las promesas de eficiencia a menudo no se traducen en beneficios equitativos para la sociedad en general.
  4. Necesidad de regulación efectiva: El informe aboga por una regulación que no solo se centre en la transparencia y la auditoría técnica, sino que también considere el contexto social y político en el que operan los sistemas de IA.

Barreras y facilitadores para la Ciencia Abierta en la legislación sobre derechos de autor

Bogataj Jančič, Maja, Lucie Guibault, João Pedro Quintais, y Thomas Margoni. 2024. Barriers and Enablers for Open Science in Copyright Law. Knowledge Rights 21. https://www.knowledgerights21.org/news-story/odipi-kr21-openscience-report/

Se analiza cómo el marco actual del derecho de autor dificulta el desarrollo pleno de la Ciencia Abierta. A pesar de las estrategias y políticas impulsadas por la Unión Europea y sus Estados miembros para fomentar este modelo científico más colaborativo y accesible, persisten importantes barreras legales, especialmente derivadas del derecho de autor.

Uno de los principales obstáculos identificados es la necesidad de una gestión consensuada del derecho de autor. En obras colectivas o con múltiples autores, se requiere el consentimiento unánime de todos los titulares para su uso, lo que dificulta considerablemente la difusión abierta del conocimiento. Además, la irrenunciabilidad del derecho a la remuneración representa otra barrera importante: aunque los autores deseen compartir libremente sus trabajos, las entidades de gestión colectiva pueden seguir reclamando pagos en su nombre, imponiendo cargas económicas y administrativas a repositorios y plataformas de acceso abierto.

El estudio también señala que el derecho de autor obliga a realizar transferencias separadas de los distintos derechos económicos, lo que fragmenta aún más la gestión de los permisos y desincentiva a los investigadores a optar por la publicación en acceso abierto. Del mismo modo, los requisitos formales que exigen contratos por escrito para la cesión de derechos generan ambigüedades legales cuando no se cumplen, dificultando la implementación de acuerdos abiertos. A esto se suma la presunción de prioridad del editor, que otorga derechos preferentes sobre las publicaciones electrónicas, limitando el depósito inmediato de trabajos en repositorios abiertos.

Otro punto crítico es la transferencia automática de derechos económicos desde los empleados a sus empleadores en el ámbito laboral. Aunque esta norma puede facilitar la Ciencia Abierta si la institución apoya el acceso abierto, también puede actuar como freno si no existe tal compromiso institucional. Por otro lado, leyes externas al derecho de autor, como las de protección del patrimonio cultural, pueden imponer restricciones similares al copyright incluso sobre obras del dominio público, lo que afecta negativamente a disciplinas que dependen de materiales culturales digitalizados.

En cuanto a los facilitadores legales, el estudio destaca que son escasos y que su impacto depende en gran medida de cómo se apliquen en la práctica. Existen mecanismos que podrían habilitar la Ciencia Abierta, como el derecho de publicación secundaria o la obligación de retención de derechos en investigaciones financiadas con fondos públicos, pero su implementación es limitada y desigual. Algunas medidas legislativas fuera del ámbito del derecho de autor —como los requisitos de las agencias financiadoras— pueden actuar como incentivos si condicionan los fondos al cumplimiento de prácticas de acceso abierto.

En conclusión, el estudio revela una importante desconexión entre las estrategias políticas a favor de la Ciencia Abierta y la realidad jurídica que enfrentan los investigadores. Las diferencias en las leyes de derechos de autor entre países también dificultan la cooperación científica internacional, creando un entorno fragmentado e incierto. Para que la Ciencia Abierta pueda desarrollarse plenamente, es necesario reformar el derecho de autor, armonizar excepciones legales para la investigación y establecer un marco claro, equilibrado y favorable a la difusión abierta del conocimiento.

Este análisis sienta las bases para un debate urgente sobre cómo actualizar los marcos legales existentes y alinear el derecho de autor con los principios de la Ciencia Abierta. Mientras no se aborden estas barreras estructurales, incluso los esfuerzos más decididos por parte de investigadores e instituciones seguirán viéndose limitados por un sistema jurídico que no ha evolucionado al ritmo de la ciencia ni de las necesidades de la sociedad.

Conclusiones:

  • Existe un desajuste entre los compromisos estratégicos con la Ciencia Abierta y la realidad jurídica, lo que dificulta que estas políticas se materialicen.
  • Las diferencias nacionales en el derecho de autor complican la cooperación internacional, creando un panorama desigual para la difusión del conocimiento científico.
  • Es necesario reformar el derecho de autor para que esté alineado con los objetivos de la Ciencia Abierta, garantizando excepciones claras, armonizadas y amplias para la investigación.

En definitiva, el estudio propone abrir un debate urgente sobre cómo adaptar los marcos legales para que dejen de obstaculizar la Ciencia Abierta y comiencen a impulsarla de manera decidida.