Archivo de la categoría: Informes

Informe del Encuentro de Bolonia sobre Ciencia Abierta

Report of the Bologna Meeting on Open Research Information.” Barcelona Declaration, May 28 2025, University of Bologna. 25 de junio de 2025. https://zenodo.org/records/15730917

En mayo de 2025, firmantes, simpatizantes y personas interesadas en la Declaración de Barcelona sobre Información Abierta en Investigación se reunieron en Bolonia, Italia, para seguir impulsando esta iniciativa. El evento, de un día y en formato híbrido, se celebró en el marco del 5.º Taller sobre Citaciones Abiertas y Metadatos Académicos Abiertos (WOOC2025), coorganizado por la propia Declaración de Barcelona, la Universidad de Bolonia y OpenCitations.

Casi 200 participantes de 35 países tomaron parte en una jornada de diálogo y colaboración diseñada para avanzar colectivamente en los objetivos de la Declaración. El encuentro se centró en compartir experiencias de implementación, fortalecer vínculos entre los distintos grupos de trabajo y definir los próximos pasos en la hoja de ruta de la Declaración.

La jornada comenzó con palabras de bienvenida de Raffaella Campaner (Vicerrectora de Relaciones Internacionales de la Universidad de Bolonia) y Bianca Kramer (Directora Ejecutiva de la Declaración de Barcelona), quienes marcaron el tono proactivo del evento. Posteriormente, representantes de entidades firmantes como la Fundación “la Caixa”, la Biblioteca Digital de California y la red neerlandesa de firmantes compartieron ejemplos prácticos de implementación en distintos contextos institucionales.

Durante la segunda parte del día se llevaron a cabo sesiones interactivas en grupos de trabajo. En dos rondas, los siete grupos de trabajo de la Declaración presentaron avances, recogieron comentarios y debatieron prioridades en un entorno abierto y colaborativo. Luego, sus coordinadores expusieron en sesión plenaria los puntos clave y las ideas para seguir avanzando.

El evento concluyó con una sesión orientada al futuro, en la que se esbozaron nuevas prioridades relacionadas con la gobernanza, la colaboración y el compromiso a nivel global.

Guía práctica para bibliotecas públicas interesadas en integrar apoyo de salud mental en sus servicios comunitarios

Shearer, Amy L., Ivy Todd, Karen Christianson, Yoselín Mayoral, Logan Dick, Rajeev Ramchand, Sandra Smith, Ta’Kisha Moore, y Lynsay Ayer. Supporting Community Mental Health in Libraries: A Toolkit for Implementing Evidence‑Based Approaches. Santa Monica, CA: RAND Corporation, 2025

Texto completo

El toolkit presenta una guía práctica destinada a bibliotecas públicas para integrar apoyo a la salud mental en sus servicios comunitarios. Desarrollado sobre la base de la iniciativa Libraries for Health (L4H), ejecutada en colaboración entre RAND, St. David’s Foundation, Via Hope y diez bibliotecas del centro de Texas, el toolkit recoge lecciones y modelos exitosos de implementación.

El documento es una guía práctica para bibliotecas públicas interesadas en integrar apoyo de salud mental en sus servicios comunitarios, basado en la experiencia del programa piloto Libraries for Health (L4H). Este programa fue implementado en diez bibliotecas rurales de Texas central, con el objetivo de responder a la creciente demanda de salud mental en comunidades con recursos limitados y escasa presencia de profesionales del área.

El programa L4H se basa en tres pilares fundamentales: la incorporación de especialistas pares, la programación de actividades de salud mental y el establecimiento de alianzas comunitarias. Los especialistas pares son personas con experiencia personal en temas de salud mental que, mediante formación especializada, apoyan emocional y socialmente a los usuarios, conectándolos con recursos locales y facilitando talleres, grupos de apoyo y actividades informativas.

Además, las bibliotecas participantes diseñaron actividades adaptadas a las necesidades de sus comunidades, incluyendo clubes de lectura centrados en salud mental, clases de mindfulness y yoga, talleres de reducción de estrés y grupos de apoyo para cuidadores o personas con ansiedad. Estas actividades fueron clave para disminuir el estigma y facilitar el acceso a recursos en un entorno de confianza.

El documento propone una hoja de ruta para implementar este tipo de iniciativas. Se recomienda evaluar la preparación y capacidad de la biblioteca, identificar las necesidades específicas de la comunidad, establecer metas claras (utilizando el método SMART), seleccionar actividades factibles y significativas, encontrar y capacitar al especialista par adecuado y generar un plan de trabajo detallado. También se destaca la importancia de una estrategia de mejora continua utilizando herramientas como el ciclo Plan-Do-Study-Act (PDSA), así como asegurar la sostenibilidad a través de la recopilación de datos de impacto y la comunicación efectiva de los logros.

Pasos clave recomendados en la guía:

  • Evaluar la preparación y capacidad de la biblioteca.
  • Identificar necesidades comunitarias y fijar metas específicas (SMART).
  • Seleccionar actividades adecuadas y especialistas pares que conecten con la comunidad.
  • Crear un plan de trabajo, asegurar financiamiento y lanzar los programas.
  • Implementar procesos de mejora continua (como el ciclo PDSA).
  • Garantizar la sostenibilidad mediante datos, comunicación de resultados y alianzas estratégicas.

El auge de la censura de libros en EE. UU.: análisis de tendencias y su impacto en la libertad intelectual y la educación pública (2020-2025)

Forrest, Marianne Wood. 2025. The Censorship Acceleration: An Analysis of Book Ban Trends After 2020. EveryLibrary Institute. https://www.everylibraryinstitute.org/censorship_acceleration_report.

El informe The Censorship Acceleration (2025), elaborado por la investigadora Marianne Wood Forrest para el EveryLibrary Institute, analiza el auge de la censura de libros en escuelas y bibliotecas públicas de EE. UU. desde 2020. A diferencia de incidentes aislados impulsados por preocupaciones locales, las prohibiciones de libros se han convertido en una estrategia política nacional orquestada por grupos conservadores bien financiados, como Moms for Liberty y Citizens Defending Freedom. Estos grupos han transformado la censura en una táctica central de una guerra cultural más amplia, orientada a desestabilizar la educación pública, suprimir voces históricamente marginadas y promover la privatización escolar.

Hallazgos clave del informe

  • Motivaciones políticas y religiosas: Las prohibiciones de libros ya no responden a quejas individuales de padres, sino a campañas organizadas por grupos políticos y religiosos con agendas ideológicas claras.
  • Conexión con la privatización educativa: Las campañas de censura están estrechamente vinculadas a esfuerzos para promover la privatización de las escuelas y desmantelar iniciativas de diversidad, equidad e inclusión (DEI).
  • Nacionalización de conflictos locales: Lo que antes eran disputas locales en juntas escolares ahora se han convertido en campañas coordinadas a nivel nacional, con estrategias y recursos compartidos.
  • Impacto del Project 2025: Las políticas propuestas en el Project 2025, como la eliminación de fondos federales para bibliotecas y la criminalización de bibliotecarios, agravan la erosión de la libertad intelectual y la democracia.
  • Resistencia emergente: Se observa un crecimiento en la resistencia, especialmente desde movimientos estudiantiles y estados que han promulgado leyes que protegen el derecho a leer.

Desarrollos en los mercados de inteligencia artificial: nuevos indicadores

OECD. 2025. Developments in Artificial Intelligence Markets: New Indicators Based on Model Characteristics, Prices and Providers. OECD Artificial Intelligence Papers, no. 37. París: OECD Publishing. Publicado el 17 de junio de 2025. https://doi.org/10.1787/9302bf46-en.

El tercer informe presenta indicadores nuevos para analizar los mercados de IA a partir de características de modelos, precios y proveedores. Utiliza una extensa base de datos sobre modelos generativos, incluyendo su rendimiento, coste, origen (empresas desarrolladoras), infraestructuras de nube y aplicaciones derivadas. Se detecta una tendencia hacia la baja de los precios ajustados por calidad, un aumento de la variedad de modelos disponibles y una expansión del número de actores en el mercado, lo que sugiere un dinamismo saludable. Sin embargo, también se identifican riesgos que podrían frenar el crecimiento del sector, como cuellos de botella relacionados con datos, capacidad computacional y escasez de talento especializado. Estas limitaciones podrían derivar en una concentración excesiva del mercado y obstaculizar el acceso abierto y competitivo a los beneficios de la IA.

Modelos de IA confiables mediante tecnologías que mejoran la privacidad (PETs)

OECD. 2025. Sharing Trustworthy AI Models with Privacy‑Enhancing Technologies. OECD Artificial Intelligence Papers, no. 38. París: OECD Publishing. https://doi.org/10.1787/a266160b-en.

El documento aborda el papel de las tecnologías que mejoran la privacidad (Privacy-Enhancing Technologies, PETs) en el desarrollo de modelos de IA confiables. Clasifica los usos de estas tecnologías en dos grandes grupos: por un lado, aquellas que permiten mejorar el rendimiento de los modelos sin exponer los datos, como el federated learning, los entornos de ejecución confiables (TEEs) o la computación multipartita segura (SMPC); por otro, tecnologías que posibilitan la creación y compartición confidencial de modelos, como la privacidad diferencial y el cifrado homomórfico. Estas herramientas son fundamentales para proteger la privacidad y la propiedad intelectual, y para fomentar la colaboración en entornos sensibles. El informe señala que, si bien estas tecnologías tienen un gran potencial, no son soluciones mágicas: su utilidad requiere combinaciones cuidadosas y equilibradas, y todavía presentan desafíos en términos de eficiencia y facilidad de uso. Por ello, se recomienda que los gobiernos impulsen su adopción mediante marcos regulatorios flexibles, apoyo a la I+D y espacios de prueba como los regulatory sandboxes.

El uso de tecnologías como trusted execution environments (TEEs), federated learning, y secure multi-party computation para procesar y ensayar datos sin comprometer su confidencialidad. El uso de datos sintéticos y differential privacy ayuda a reducir la dependencia de datos reales. Para colaborar o compartir modelos sin revelar información protegida, se combinan herramientas como MPC, federated learning, HE, TEE y differential privacy. Estas herramientas permiten crear y utilizar modelos manteniendo su confidencialidad y la de sus datos subyacentes.

Aunque prometedoras, las PETs enfrentan retos técnicos —como complejidad, eficiencia, usabilidad y equilibrio entre utilidad y privacidad— y barreras regulatorias o institucionales que dificultan su adopción amplia.

El informe sugiere que los gobiernos fomenten el uso de PETs mediante:

  • Orientaciones y guías reguladoras
  • Regulatory sandboxes para innovación controlada
  • Apoyo a I +D +i
  • Desafíos o concursos para estimular el desarrollo
  • Compras públicas estratégicas
  • Desarrollo de habilidades y competencias institucionales

Efectos de la IA generativa en la productividad, la innovación y el emprendimiento

Calvino, Flavio; Jelmer Reijerink; y Lea Samek. 2025. The effects of generative AI on productivity, innovation and entrepreneurship. OECD Artificial Intelligence Papers, No. 39. OECD Publishing. https://doi.org/10.1787/b21df222‑en

Este primer informe examina cómo la inteligencia artificial generativa afecta la productividad y transforma el panorama de la innovación y el emprendimiento. Destaca el potencial de la IA para automatizar tareas, amplificar capacidades humanas y modificar las operaciones empresariales. También señala su papel en la estimulación de la creatividad, la aceleración del I+D y la reducción de barreras de entrada para nuevos actores económicos. Sin embargo, el estudio advierte que la eficacia de la IA depende en gran medida del nivel de experiencia del usuario y del tipo de tarea realizada. La colaboración entre humanos y sistemas de IA emerge como una clave para maximizar beneficios. Además, se identifican vacíos importantes en la investigación actual, especialmente en lo referente a los efectos a largo plazo de la IA en los negocios y a la comprensión limitada de sus restricciones por parte de los trabajadores. El informe llama a profundizar en estos aspectos para orientar un uso ético y efectivo de estas tecnologías.

1. Automatización, aumento de habilidades y transformación empresarial

  • La IA generativa puede automatizar tareas rutinarias—como redacción, traducción y resúmenes—, con mejoras en eficiencia de hasta un 40 % y calidad entre un 18–40 % .
  • En la traducción y síntesis de textos complejos —por ejemplo, fallos judiciales—, los modelos actuales igualan o superan sistemas especializados .
  • En programación, herramientas como GitHub Copilot permiten desarrollar código un 55 % más rápido .

2. Colaboración humano‑IA como factor clave

  • La sinergia entre humanos y IA es fundamental: el usuario y el contexto determinan el éxito, y no es un sustituto sino un complemento ft.com.
  • Esta colaboración es particularmente efectiva para tareas con alta carga cognitiva, liberando tiempo para tareas estratégicas .

3. Estímulo a la creatividad e innovación

  • En generación de ideas, la IA puede potenciar creatividad, especialmente para personas sin experiencia, aunque puede generar resultados menos diversos o más homogéneos arxiv.org+1arxiv.org+1.
  • En entornos de I+D, la IA acelera la definición de problemas, diseño experimental y fases iniciales del desarrollo de productos y servicios oecd.org.
  • Para grupos de innovación, estudios revelan que herramientas con IA mejoran la originalidad, claridad y calidad de las ideas oecd.org+1arxiv.org+1.

4. Rendimiento económico y mercados de capital

  • El lanzamiento de ChatGPT se asoció con un rendimiento diario superior en acciones de empresas con alta exposición a IA generativa (≈ 0.45 %) oecd.org.
  • Cuando Italia bloqueó ChatGPT temporalmente, las empresas expuestas sufrieron una caída del 9 % en cotización .

5. Vacíos en investigación y recomendaciones

  • Existen lagunas: pocos estudios sobre efectos a largo plazo, comprensión y confianza de los trabajadores, y la evolución del mercado laboral .
  • Se destaca la necesidad de nuevos estudios longitudinales y microeconómicos que examinen la productividad y capacidad de absorción de las empresas arxiv.org.
  • Los autores enfatizan la importancia del capital humano, la formación continua, el rol del pensamiento crítico y políticas que apoyen el despliegue responsable de la IA .

El estado de la alfabetización en datos e IA en 2025: avances, retos y estrategias

Ampliar

DataCamp Team. 2025. “Introducing the State of Data & AI Literacy Report 2025.” DataCamp Blog, 9 de abril de 2025.

Texto completo

En su tercera edición, el informe State of Data & AI Literacy Report 2025 analiza la preparación de las organizaciones frente al auge de la inteligencia artificial. Se basa en una encuesta a más de 500 líderes empresariales de EE. UU. y Reino Unido, además de incluir aportes de empresas como Colgate, BP, Rolls‑Royce y JPMorgan Chase

Un hallazgo destacado es que el alfabetismo en IA está creciendo rápidamente: el 69 % de los líderes lo considera esencial, frente al 86 % que otorga esa misma importancia a la alfabetización en datos, y representa un aumento de 7 puntos respecto al año anterior. La IA ya no es una novedad: el 91 % informa que al menos alguien en su organización la utiliza, el 82 % hace uso semanal y el 39 % la usa a diario

Las empresas están convirtiendo iniciativas aisladas en programas estructurados de formación. El 46 % ofrece un programa maduro de alfabetización de datos, subiendo desde el 35 %, y el 43 % cuenta con formación avanzada en IA, casi el doble del 25 % del año anterior. No obstante, persisten obstáculos como limitaciones presupuestarias, resistencia interna, escaso apoyo ejecutivo y dificultades para medir el retorno de inversión

El informe también presenta cinco recomendaciones clave basadas en las prácticas de organizaciones exitosas:

  1. Vincular la formación con objetivos de negocio, como reducir tiempos de informe o mejorar procesos.
  2. Abordarlo como una iniciativa de gestión del cambio, con embajadores internos y narrativas inspiradoras.
  3. Priorizar aprendizaje práctico, basado en tareas reales.
  4. Integrar datos e IA como un continuo en el plan de formación.
  5. Personalizar a gran escala, adaptando contenidos por roles dentro de la organización

Por último, el informe subraya que la alfabetización en datos y en IA no solo es una ventaja competitiva, sino también una salvaguarda social frente a desafíos como la desinformación, los sesgos algorítmicos y el riesgo de automatización laboral. Por ejemplo, el 73 % de los líderes lo considera esencial para combatir la desinformación, y el 75 % apoya la formación ética en IA para evitar sesgos .

El 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa

Common Sense Media. The Dawn of the AI Era: Teens, Parents, and Generative AI. San Francisco: Common Sense Media, 2024.

Texto completo

El informe revela que aproximadamente el 70 % de los adolescentes en Estados Unidos han utilizado alguna herramienta de inteligencia artificial generativa, como ChatGPT o DALL·E. Estas tecnologías se emplean principalmente para ayudar en tareas escolares, especialmente para generar ideas o traducir contenidos. Sin embargo, solo el 37 % de los padres son conscientes del uso que sus hijos hacen de estas herramientas, lo que evidencia una desconexión significativa entre adolescentes y adultos en cuanto al conocimiento y manejo de la IA.

En cuanto a las políticas escolares, el estudio destaca que muchas escuelas aún no cuentan con normativas claras sobre el uso de la IA generativa. Un 37 % de los adolescentes reportan que en sus escuelas no existen reglas definidas al respecto, mientras que el 42 % de los docentes suelen prohibir su uso. Por otro lado, el 87 % de los padres han oído hablar de estas tecnologías, pero muchos desconocen cómo y cuándo sus hijos las utilizan.

El informe también muestra diferencias en el uso de la IA entre grupos raciales. Los adolescentes afroamericanos y latinos tienden a utilizar una gama más amplia de funciones de la IA en comparación con sus compañeros blancos. Además, los padres de adolescentes afroamericanos suelen tener una visión más positiva respecto al impacto de estas tecnologías en la educación y en el desarrollo de habilidades. No obstante, se observa que los adolescentes afroamericanos tienen más probabilidades de que sus trabajos sean erróneamente identificados como generados por IA, lo que plantea preocupaciones sobre posibles sesgos en los sistemas de detección.

Otro aspecto importante es que los adolescentes que participan en discusiones en el aula sobre la inteligencia artificial tienen una percepción más crítica y equilibrada de sus ventajas y desventajas. Estos jóvenes suelen verificar con mayor frecuencia la precisión del contenido generado por IA y reflexionan sobre cómo esta tecnología podría influir en sus futuras carreras profesionales.

Finalmente, el informe propone recomendaciones para distintos actores. A los padres se les sugiere informarse y dialogar con sus hijos sobre los beneficios y riesgos de la IA. A los educadores se les aconseja desarrollar políticas claras para su uso en el aula y promover debates críticos. A los responsables políticos se les insta a crear directrices que fomenten un uso ético y equitativo de la IA en la educación, garantizando que ningún grupo quede en desventaja.

Inteligencia artificial y educación: orientaciones para responsables políticos

Miao, F., & Holmes, W. (2021). Artificial Intelligence and Education: Guidance for Policy-makers. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). https://unesdoc.unesco.org/ark:/48223/pf0000376709

El informe de la UNESCO ofrece una guía integral para que los responsables políticos comprendan y gestionen la integración de la inteligencia artificial (IA) en la educación. Destaca tanto las oportunidades como los riesgos asociados al uso de la IA en el ámbito educativo, con el objetivo de garantizar una implementación ética, inclusiva y equitativa.

Contenido clave:

  • Definición y tecnologías de la IA: Se exploran las bases de la IA, incluyendo sus definiciones, técnicas y tecnologías subyacentes.
  • Tendencias emergentes y su impacto: Se analizan las tendencias actuales en el uso de la IA en la educación y sus implicaciones para la enseñanza y el aprendizaje.
  • Preparación para convivir con la IA: Se discute cómo los sistemas educativos pueden preparar a los individuos para vivir y trabajar en un entorno influenciado por la IA.
  • Aplicaciones de la IA en la educación: Se presentan ejemplos de cómo la IA puede mejorar la educación, desde la personalización del aprendizaje hasta la automatización de tareas administrativas.
  • Desafíos y recomendaciones: Se identifican los principales desafíos en la implementación de la IA en la educación y se ofrecen recomendaciones concretas para que los responsables políticos diseñen políticas y programas adaptados a sus contextos locales.

Este informe es una herramienta esencial para los responsables políticos que buscan integrar la IA de manera efectiva y ética en los sistemas educativos, con miras a avanzar hacia el Objetivo de Desarrollo Sostenible 4 (Educación de calidad para todos).

Uso de la inteligencia artificial (IA) en el ecosistema de la publicación académica y científica

NISO. 2025. Advancing Artificial Intelligence Interoperability in STM Content Through Standards: Report of NISO AI Publishing Workshops, June 2025.

Texto completo

En junio de 2025, la Organización Nacional de Estándares de Información (NISO) publicó el informe preliminar de una serie de talleres dedicados al uso de la inteligencia artificial (IA) en el ecosistema de la publicación académica y científica. Estos talleres, realizados a principios de año, reunieron a profesionales de bibliotecas, editoriales, instituciones académicas y desarrolladores de tecnología con el fin de identificar desafíos comunes y proponer soluciones colaborativas. El documento está actualmente abierto a comentarios públicos hasta el 15 de julio de 2025, como parte de un proceso participativo para refinar futuras recomendaciones normativas.

Uno de los aspectos centrales del informe es la necesidad urgente de establecer estándares para garantizar la interoperabilidad entre plataformas y herramientas que incorporan IA. Esta interoperabilidad no solo permitiría una mayor eficiencia en los procesos editoriales, sino también una mayor transparencia y confianza en los resultados generados por algoritmos. Se subraya la importancia de metadatos detallados y estructurados, así como la documentación clara del funcionamiento de las IA utilizadas.

También se abordaron consideraciones éticas clave, como la protección de datos, la privacidad de autores y revisores, y la necesidad de mitigar sesgos algorítmicos. Los participantes coincidieron en que cualquier uso de IA en entornos académicos debe respetar los principios de equidad, trazabilidad y responsabilidad. Además, se propone la creación de grupos de trabajo interinstitucionales y la elaboración de guías técnicas que orienten a las organizaciones en la adopción segura y eficaz de estas tecnologías.

El informe representa un paso importante para posicionar a la comunidad académica como agente activo en la definición de normas que regulen el uso de la IA en la publicación científica. Con este enfoque colaborativo, NISO busca fomentar el desarrollo de herramientas más confiables, interoperables y éticas, al tiempo que impulsa una cultura de transparencia y mejora continua en la investigación académica.