El Grupo Operativo de Colaboración para el Enriquecimiento de Metadatos (COMET) publica su Llamamiento a la Acción de la Comunidad

Buttrick, Adam. 2025. «The Collaborative Metadata Enrichment Taskforce (COMET) Releases Their Community Call to ActionUpstream, marzo 4, 2025. https://upstream.force11.org/the-collaborative-metadata-enrichment-taskforce-comet-releases-their-community-call-to-action

El Collaborative Metadata Enrichment Taskforce (COMET) ha publicado una convocatoria comunitaria para impulsar la colaboración en el enriquecimiento de metadatos, invitando a organizaciones e individuos a contribuir con recursos como financiación, experiencia técnica, metadatos e infraestructura. El objetivo de COMET es fortalecer y mejorar la calidad y completitud de los metadatos vinculados a los identificadores persistentes (PID), fundamentales para el seguimiento, la evaluación y la interoperabilidad en el ecosistema de la investigación académica y científica.

COMET nació en octubre de 2024 como respuesta a los debates surgidos durante dos importantes eventos internacionales: la conferencia FORCE2024, celebrada en Los Ángeles, y el Congreso de Información de Investigación Abierta en París. En estas reuniones, distintos actores del ámbito académico, institucional y editorial coincidieron en la necesidad urgente de adoptar estrategias colaborativas, lideradas por la propia comunidad, para resolver los problemas asociados a la calidad y estandarización de los metadatos.

A partir de estas discusiones iniciales, COMET evolucionó para convertirse en un grupo de trabajo formal dentro de la red FORCE11, contando actualmente con la participación de más de 50 representantes de universidades, organismos gubernamentales, editoriales académicas, agencias financiadoras e infraestructuras tecnológicas. Gracias a esta diversidad, se ha logrado publicar una visión común para un marco de trabajo colaborativo destinado al enriquecimiento de los metadatos, así como organizar sesiones participativas para identificar necesidades específicas de uso, definición de productos, requerimientos técnicos y estructuras de gobernanza adecuadas.

Ahora, COMET hace un llamado a la comunidad global para que participe en la siguiente fase del proyecto mediante distintas modalidades de colaboración:

  • Aportaciones en especie: Incorporando personal técnico que pueda contribuir de manera parcial o por proyectos, especialmente con experiencia en flujos de trabajo de enriquecimiento de metadatos y liderazgo en gobernanza y políticas. Esto permitiría integrar y coordinar esfuerzos ya existentes, evitando la duplicación de tareas entre instituciones que actualmente trabajan por separado en la mejora de metadatos.
  • Apoyo financiero: Para garantizar la sostenibilidad del proyecto a largo plazo, se requieren fondos destinados al desarrollo de la infraestructura técnica central, así como al diseño, implementación y prueba de modelos de curación de metadatos y a la creación de estructuras de gobernanza sólidas y abiertas. Los financiadores, además de su contribución económica, podrán desempeñar un papel estratégico en la configuración del futuro del enriquecimiento de metadatos, asegurando que los principios de equidad, apertura y sostenibilidad sean prioritarios.
  • Contribución de metadatos y participación en proyectos piloto: Organizaciones con experiencia previa en enriquecimiento de metadatos pueden aportar datos enriquecidos de sus propios flujos de trabajo, participar en proyectos piloto que evalúen la infraestructura técnica de COMET y colaborar en el diseño de métricas que permitan medir la calidad de los metadatos.

Este esfuerzo cobra especial relevancia en un contexto donde aumenta la presión sobre las organizaciones para cumplir con exigencias de acceso abierto, seguimiento de resultados y evaluación del impacto de la investigación. Estas obligaciones, cuando se afrontan de manera individual, resultan costosas y complejas. COMET ofrece una alternativa cooperativa, donde la mejora de los metadatos se entiende como una responsabilidad compartida entre toda la comunidad científica y académica, maximizando beneficios comunes y reduciendo cargas individuales.

Finalmente, COMET invita a todas las organizaciones interesadas a sumarse a esta iniciativa antes del 1 de mayo de 2025, especificando los recursos que pueden ofrecer, su experiencia previa en enriquecimiento de metadatos y su disposición a participar en las estructuras de gobernanza. Para más información y para registrar la participación, se ha habilitado un formulario en el sitio web de COMET y se llevará a cabo un seminario web informativo el próximo 5 de marzo de 2025.

En definitiva, COMET busca transformar la manera en que se enriquecen y gestionan los metadatos en la ciencia abierta, apostando por un modelo cooperativo, sostenible y transparente que permita a toda la comunidad beneficiarse de una infraestructura común al servicio del conocimiento global.

Cómo optimizar las revisiones técnicas en revistas académicas para agilizar la publicación

Padula, Danielle. «Optimizing Journal Technical Checks to Improve Peer Review and Publishing EfficiencyScholastica Blog. Última modificación el 28 de febrero de 2024.

Texto completo

Las revisiones técnicas en revistas académicas garantizan que los manuscritos cumplan requisitos básicos de calidad, ética y formato antes de pasar a revisión por pares. Un proceso estandarizado agiliza tiempos, mejora la evaluación y previene errores. Además, simplificar instrucciones y automatizar validaciones optimiza el flujo editorial.

Antes de enviar artículos a revisión por pares y eventual publicación, las revistas académicas deben realizar revisiones técnicas o controles de calidad. Estas revisiones tienen como objetivo garantizar que los manuscritos cumplen con los requisitos básicos de información, políticas editoriales y normativas éticas del journal. De esta manera, se decide si el artículo puede avanzar a revisión por pares o si debe ser rechazado directamente (desk reject). Además, algunos aspectos técnicos pueden revisarse en fases posteriores del proceso editorial, especialmente cuando los manuscritos están más cerca de su aceptación definitiva.

Contar con un proceso estandarizado de revisiones técnicas aporta múltiples beneficios: asegura que los artículos cumplen con estándares éticos y formales, acelera la revisión por pares al evitar que trabajos incompletos avancen y permite que los revisores se concentren en evaluar el contenido científico sin distraerse por aspectos técnicos o formales. Además, ayuda a prevenir retrasos en la publicación derivados de errores o carencias detectadas demasiado tarde.

Cada revista debe adaptar su lista de chequeo técnico según su disciplina y sus procedimientos editoriales, pero hay aspectos comunes a tener en cuenta. Primero, la relevancia del artículo y la integridad de la presentación son fundamentales: comprobar que el título y el resumen son claros y precisos, que los datos de autoría son completos y correctos, que se ha incluido información sobre financiación y que se han proporcionado las palabras clave y la carta de presentación cuando sea necesario. Esto asegura que la contribución encaja dentro del alcance temático de la revista y cumple con los elementos básicos para su evaluación.

En segundo lugar, es crucial verificar que el manuscrito respeta las políticas editoriales y éticas del journal. Esto incluye declaraciones de originalidad, permisos para material reproducido, posibles conflictos de interés y el uso adecuado de herramientas de detección de plagio. También se revisan aspectos como la disponibilidad de los datos utilizados, la mención de fuentes públicas de datos (con DOI cuando proceda), y la declaración sobre el uso de inteligencia artificial en la elaboración del manuscrito. Si el estudio involucra ensayos clínicos, humanos o animales, también deben comprobarse los permisos éticos, consentimiento informado, aprobaciones institucionales y cumplimiento de guías de reporte reconocidas (como CONSORT o PRISMA).

Otro punto clave de la revisión técnica es evaluar de manera preliminar la calidad del contenido. Esto implica verificar que el lenguaje sea claro y profesional, que no haya errores graves de redacción, y que las figuras, tablas y fórmulas sean legibles y cumplan con las normas del journal. También debe revisarse que los métodos estadísticos estén correctamente descritos y que los resultados incluyan métricas adecuadas, como intervalos de confianza o valores p.

Por último, se debe revisar la estructura y el formato del manuscrito, aunque es recomendable no exigir un nivel excesivo de detalle en esta fase inicial. Se trata de asegurar aspectos básicos como que el texto respete los límites de palabras, que las figuras y tablas estén numeradas y etiquetadas correctamente, y que los materiales suplementarios estén bien identificados.

Para optimizar el proceso de revisiones técnicas, es esencial buscar un equilibrio: deben ser lo suficientemente exhaustivas para evitar que manuscritos inadecuados lleguen a revisión por pares, pero no tan minuciosas que ralenticen los tiempos de decisión inicial. Una buena estrategia es limitar al máximo los requisitos formales innecesarios en los manuscritos, como tipografías específicas o estilos de cita, sobre todo si la revista cuenta con herramientas de producción que automatizan esos aspectos tras la aceptación. Asimismo, es fundamental ofrecer a los autores instrucciones claras y simplificadas, organizadas de manera accesible y coherente, con ejemplos, plantillas y formularios estandarizados.

Finalmente, otra vía de optimización es aprovechar las funcionalidades de los formularios de envío de manuscritos en los sistemas de gestión editorial. Configurando campos obligatorios, validaciones automáticas (por ejemplo, de ORCID, afiliaciones institucionales o fuentes de financiación) y casillas de aceptación de políticas éticas, se minimizan errores y omisiones desde el momento del envío, reduciendo así la carga del equipo editorial en las revisiones técnicas.

En resumen, una lista de chequeo técnico bien diseñada y un proceso ágil permiten mejorar la experiencia tanto del equipo editorial como de los autores y revisores, favoreciendo tiempos de publicación más cortos y una mayor calidad en los procesos editoriales.

El proyecto musical de Miki Gázquez. Viviendo en la era pop 2025/03/04

El proyecto musical de Miki Gázquez.

Viviendo en la era pop 2025/03/04

ESCUCHAR

Página de Miki Gásquez

Hoy queremos acercaros, con mucha ilusión, el proyecto musical de Miki Gázquez, un artista andaluz que ha encontrado su hogar creativo en tierras extremeñas. Cantante, compositor y productor, Miki lleva años construyendo un universo propio donde confluyen influencias de gigantes como U2, Oasis, Queen o The Beatles, pero siempre con su sello personal y letras en castellano.

En 2016 nos regaló Alas Blancas, un álbum muy especial que contó con la colaboración del mítico Paco Ventura (guitarrista de Medina Azahara) y que fue masterizado nada menos que en Inglaterra por Mark Fairfax Harwood, todo un referente del sonido británico de los 70. Pero Miki no solo vive por y para la música: también es un apasionado de la imagen, con una trayectoria consolidada como fotógrafo y técnico de iluminación, además de haber compartido su experiencia como profesor de fotografía durante más de dos décadas. Ahora, ilusionado, se encuentra inmerso en su próximo trabajo discográfico, un proyecto que promete sorprendernos con colaboraciones tanto nacionales como internacionales.

Aquí podemos escuchar los discos y la música de Miki mikigazquez.com

Promover la diversidad en la bibliotecas: potenciar las voces, inspirar el cambio

American Library Association. Empowering Voices, Inspiring Change: Advancing Diversity Within Librarianship. Chicago: American Library Association, 2025.

Texto completo

The American Library Association (ALA), en colaboración con Gallup, ha publicado un nuevo estudio titulado Empowering Voices, Inspiring Change: Advancing Diversity Within Librarianship, el cual destaca áreas de crecimiento para mejorar la diversidad en el campo bibliotecario. El estudio se basa en investigaciones cualitativas de 50 profesionales de bibliotecas que representan diversos géneros, razas, antigüedades, edades y ubicaciones geográficas. El objetivo del informe es aprender de las experiencias de bibliotecarios de grupos subrepresentados, inspirar soluciones para fomentar una comunidad bibliotecaria más diversa y ofrecer ideas para investigaciones futuras.

El informe busca generar reflexión en el campo bibliotecario sobre las perspectivas de los grupos subrepresentados, invitando a una transformación real que comience con la definición de la identidad profesional actual. La ALA continuará con estos esfuerzos, promoviendo proyectos innovadores y ofreciendo más oportunidades de desarrollo profesional para los trabajadores de bibliotecas.

Principales hallazgos:

  1. La diversidad como concepto complejo: Entender las sutilezas del término «diversidad» es crucial para avanzar en la diversificación del campo bibliotecario.
  2. Mayor educación sobre la bibliotecología: Aumentar la conciencia sobre la bibliotecología puede fortalecer la base de la profesión y crear una futura pipeline más diversa.
  3. La importancia del mentorazgo: Desarrollar redes de mentoría más amplias puede ayudar a los bibliotecarios y superar desafíos que tradicionalmente afectan a las comunidades subrepresentadas.
  4. Cultura laboral positiva: Crear un ambiente laboral inclusivo y ofrecer formación gerencial puede mejorar la incorporación de nuevos empleados y promover el cambio cultural en las bibliotecas.
  5. Apoyo de los líderes: Los bibliotecarios necesitan apoyo de sus supervisores directos y de sus instituciones.
  6. Desarrollo profesional y compensación: Estos factores deben ser considerados para mejorar la retención de bibliotecarios.
  7. Enfoques a nivel micro y macro: Los esfuerzos de diversidad deben incluir enfoques tanto a nivel individual y local (micro) como a nivel organizacional (macro), con el respaldo institucional necesario.

Este estudio ha sido respaldado por Gallup, una firma global especializada en investigación de opinión pública, y está alineado con la misión de la ALA de diversificar la profesión bibliotecaria y promover el acceso a la información para todos.

Evaluación de la alfabetización informacional de los estudiantes de distintas generaciones

Dalal, Heather A., Arthur Taylor, y Sharon Whitfield. «Assessing Students’ Information Literacy: Attitudes and Perceptions of College Students Across GenerationsCollege & Research Libraries 85, no. 2 (2024): 115-133. https://crl.acrl.org/index.php/crl/article/view/26682/34593

El estudio tiene como objetivo entender mejor cómo los estudiantes de distintas generaciones (Baby Boomers, Generación X, Millennials y Generación Z) abordan las cuestiones relacionadas con la búsqueda, evaluación y uso de la información en el contexto académico y cómo estas habilidades son influenciadas por factores generacionales.

La alfabetización informacional es crucial en la educación superior, especialmente dado el aumento exponencial de la información disponible en la era digital. Los estudiantes deben ser capaces de encontrar, evaluar y usar información de manera crítica y ética. Sin embargo, se sabe que no todos los estudiantes tienen el mismo nivel de competencia en estas áreas, y las habilidades en alfabetización informacional pueden variar dependiendo de factores como el acceso a recursos, las experiencias previas y la formación académica.

El estudio se enfoca en la comparación entre las actitudes y percepciones de los estudiantes pertenecientes a diferentes generaciones. Los autores sugieren que las diferencias generacionales pueden influir en la forma en que los estudiantes perciben y emplean sus habilidades de AI, debido a las distintas tecnologías, recursos y contextos educativos con los que han interactuado a lo largo de sus vidas.

Metodología

El estudio se basa en encuestas y entrevistas a estudiantes universitarios de varias generaciones, con el objetivo de evaluar sus actitudes hacia la AI y cómo perciben su propia capacidad para realizar tareas relacionadas con la información, como la búsqueda y evaluación de fuentes. Los participantes incluyeron estudiantes de diferentes edades, desde los más jóvenes de la Generación Z hasta los de mayor edad de la Generación X y los Baby Boomers.

Resultados Principales

  • Diferencias Generacionales en las Percepciones de AI: Los resultados muestran que los estudiantes más jóvenes, particularmente los de la Generación Z, tienden a sentirse más cómodos usando tecnologías digitales y herramientas de búsqueda en línea. Sin embargo, a pesar de su fluidez tecnológica, a menudo no tienen un buen manejo de las habilidades críticas necesarias para evaluar la calidad y la fiabilidad de la información. Esto sugiere que, aunque estos estudiantes están altamente familiarizados con las tecnologías, necesitan un enfoque educativo más sólido para desarrollar sus competencias en AI.
  • Estudiantes de Primera Generación: Los estudiantes de primera generación (aquellos cuyo padre o madre no asistieron a la universidad) tienen una percepción menos segura de sus habilidades en AI en comparación con los estudiantes de generaciones anteriores. Este grupo, a menudo con menos recursos educativos previos, mostró mayores dificultades para acceder y utilizar eficazmente la información académica.
  • Generación X y Baby Boomers: Estos grupos, aunque menos dependientes de la tecnología digital que los Millennials y Generación Z, demostraron un mayor conocimiento de las estrategias tradicionales de investigación (como el uso de bibliotecas físicas y recursos impresos). No obstante, también se evidenció que muchos de estos estudiantes tienen dificultades para adaptarse a las nuevas tecnologías y métodos digitales de búsqueda de información.

Implicaciones para la Enseñanza

Los hallazgos del estudio tienen importantes implicaciones para el diseño de programas de enseñanza de la alfabetización informacional en las universidades. Los autores sugieren que es necesario un enfoque más personalizado en la enseñanza de AI que considere las diferentes necesidades y habilidades de los estudiantes de acuerdo con su generación. Algunos puntos clave incluyen:

  • Adaptación de la enseñanza a la tecnología: Mientras que los estudiantes más jóvenes tienen habilidades tecnológicas avanzadas, necesitan formación adicional en la evaluación crítica de fuentes digitales.
  • Enfoque integral para estudiantes de primera generación: Es fundamental diseñar programas que ayuden a los estudiantes de primera generación a desarrollar confianza en sus habilidades de AI. Estos estudiantes pueden beneficiarse de un apoyo adicional en el acceso a recursos y en la comprensión de cómo utilizar eficazmente las herramientas de investigación.
  • Refuerzo de habilidades tradicionales: Para los estudiantes más mayores, es importante ofrecer una formación que combine métodos tradicionales con el uso de tecnologías modernas. El aprendizaje integrado puede ayudar a estos estudiantes a adaptarse a los nuevos métodos de búsqueda de información.

El estudio concluye que las habilidades de alfabetización informacional son esenciales para el éxito académico de los estudiantes universitarios, pero estas habilidades deben ser evaluadas y enseñadas de manera más inclusiva, teniendo en cuenta las diferencias generacionales y los antecedentes educativos. Además, los programas educativos deben adaptarse para garantizar que todos los estudiantes, independientemente de su generación, tengan la oportunidad de desarrollar las habilidades necesarias para navegar por la creciente cantidad de información disponible en el mundo digital.

El artículo subraya la importancia de ofrecer programas de alfabetización informacional que sean accesibles y efectivos para todos los estudiantes, promoviendo tanto la competencia tecnológica como las habilidades críticas de evaluación de la información.

Impacto económico de la Ciencia Abierta

Tsipouri, Lena, Sofia Liarti, Silvia Vignetti, and Izabella Martins Grapengiesser. 2025. The Economic Impact of Open Science: A Scoping Review. MetaArXiv. https://osf.io/preprints/metaarxiv/kqse5_v1

Se analiza el impacto económico de la Ciencia Abierta (OA) a partir de estudios publicados entre 2000 y 2023, centrándose en áreas clave como el Acceso Abierto (OA), los Datos Abiertos y FAIR (OFD), el Software de Código Abierto (OSS) y los Métodos Abiertos.

Los resultados indican que la OA favorece la aceleración de los procesos científicos, reduce costes asociados a la investigación y potencia la innovación, lo que se traduce en crecimiento económico, especialmente en sectores como las ciencias de la vida. Sin embargo, el estudio también advierte de la falta de investigaciones empíricas sobre el impacto económico en ámbitos como la Ciencia Ciudadana o la Evaluación Abierta.

Según la UNESCO (2021), la Ciencia Abierta es un movimiento esencial para democratizar el conocimiento y reducir las brechas entre países y sectores, lo que tiene consecuencias económicas importantes al permitir un acceso equitativo a los datos y resultados de investigación. Esto impulsa la competitividad de pequeñas empresas, startups y centros de investigación que, sin acceso abierto, no podrían costear el uso de información científica de pago (UNESCO, Recommendation on Open Science, 2021).

Por otro lado, la Comisión Europea (2018) calculó que el retraso en el acceso abierto a publicaciones científicas genera pérdidas anuales de al menos 10.000 millones de euros en eficiencia investigadora dentro de la Unión Europea, debido a duplicaciones de experimentos y tiempos de búsqueda prolongados (Cost-benefit analysis of FAIR research data, 2018). La implementación de principios FAIR (Findable, Accessible, Interoperable, Reusable) en los datos de investigación ha mostrado mejorar no solo la productividad científica, sino también generar oportunidades de negocio en sectores como la inteligencia artificial, la biotecnología o la salud digital.

En cuanto al Software de Código Abierto, un informe de la Fundación Linux (2021) destacó que este tipo de herramientas no solo reducen costes operativos en investigación y empresas tecnológicas, sino que también generan empleos altamente cualificados y contribuyen al PIB de manera significativa, especialmente en economías digitales avanzadas (The Economic Impact of Open Source Software, 2021).

No obstante, la revisión de Tsipouri et al. (2025) señala vacíos relevantes en la literatura, como la falta de estudios que midan el impacto económico de la Ciencia Ciudadana, a pesar de su potencial para generar datos útiles a bajo coste y fomentar la innovación social.

En conclusión, aunque existe evidencia del impacto económico positivo de la Ciencia Abierta en sectores estratégicos y tecnológicos, todavía es necesario ampliar la investigación empírica para cuantificar estos efectos en más regiones y disciplinas, así como desarrollar métricas específicas que permitan evaluar con precisión sus beneficios económicos a nivel global.

La nueva tendencia de la IA: modelos más pequeños, rápidos y sostenibles

Emslie, Karen. «The Big Shrink in LLMsCommunications of the ACM, 28 de febrero de 2025. Disponible en: https://cacm.acm.org/news/the-big-shrink-in-llms/

La inteligencia artificial está empezando a usar modelos más pequeños y rápidos que gastan menos energía y funcionan mejor en dispositivos como los móviles. Así se consiguen resultados más precisos y fáciles de usar sin necesitar tantos recursos.

El crecimiento acelerado de la inteligencia artificial generativa (GenAI) y los grandes modelos de lenguaje (LLMs) ha traído consigo problemas como disputas de propiedad intelectual, sesgos, preocupaciones por la privacidad y el alto consumo energético. Además, en sectores especializados como el legal o financiero, los LLMs no siempre ofrecen resultados precisos o útiles, y los errores (llamados «alucinaciones») se han vuelto comunes.

Ante estos desafíos, está surgiendo una tendencia hacia modelos más pequeños y eficientes, gracias a técnicas como knowledge distillation (transferencia de conocimientos de modelos grandes a otros más pequeños), pruning (eliminación de parámetros innecesarios) y avances en edge computing (procesamiento local en dispositivos). Estos modelos reducidos permiten menor consumo de recursos, mayor velocidad y mejor adaptación a contextos específicos como la salud, donde la precisión es clave.

Expertos como Amir H. Gandomi y Julian Faraway destacan que los conjuntos de datos pequeños y bien seleccionados pueden ser más precisos y fiables que los grandes volúmenes de datos ruidosos, especialmente cuando se busca comprender causas y no solo hacer predicciones.

Grandes compañías tecnológicas también se han sumado a esta tendencia:

  • Google lanzó versiones reducidas de su modelo Gemini y la familia ligera Gemma.
  • Meta investiga estrategias de eliminación de capas sin pérdida significativa de rendimiento.
  • Nvidia logró reentrenar un modelo con solo el 3% de sus datos originales, creando la serie Minitron.
  • Microsoft presentó phi-3.5-mini, diseñado para funcionar directamente en smartphones.

El auge de la informatica de bajo coste y alto rendimiento (edge computing) impulsa esta transformación hacia modelos más pequeños, sostenibles y accesibles, cambiando la mentalidad de «más grande es mejor» por la de «más inteligente y eficiente».

A medida que la sostenibilidad y la personalización ganan importancia, estos modelos compactos podrían convertirse en el nuevo estándar de la IA.

El desafío ambiental de la inteligencia artificial generativa y las claves para un desarrollo sostenible

Capgemini Research Institute. 2025. Developing Sustainable Gen AI. Capgemini. https://www.capgemini.com/insights/research-library/sustainable-gen-ai/

Ver informe

El informe Developing Sustainable Gen AI de Capgemini analiza el elevado impacto ambiental de la inteligencia artificial generativa debido a su alto consumo energético, uso intensivo de agua y generación de residuos electrónicos. Destaca la falta de medidas sostenibles en las organizaciones y la necesidad urgente de incorporar criterios ambientales en el desarrollo y uso de Gen AI. Propone estrategias para reducir su huella, como optimizar modelos, emplear energías renovables y fomentar una gobernanza responsable.

El informe del Capgemini Research Institute advierte sobre el fuerte impacto ambiental que está generando la inteligencia artificial generativa (Gen AI). Esta tecnología, que se ha popularizado rápidamente por su capacidad para crear textos, imágenes o vídeos de manera automática, requiere un uso intensivo de recursos. Para funcionar, Gen AI precisa procesar enormes cantidades de datos mediante potentes sistemas computacionales, lo que implica un consumo energético desmesurado, la explotación de materiales críticos para la fabricación de hardware y una alta generación de residuos electrónicos. Por ejemplo, entrenar un modelo como GPT-4 supone un gasto energético equivalente al consumo anual de unos 5.000 hogares estadounidenses, y se estima que para 2030, Gen AI podría generar hasta cinco millones de toneladas de desechos electrónicos, mil veces más que en 2023.

Los centros de datos que soportan estos sistemas también requieren grandes volúmenes de agua para evitar el sobrecalentamiento de los servidores. De hecho, se calcula que realizar entre 20 y 50 consultas a un modelo de lenguaje grande (LLM) puede llegar a consumir medio litro de agua solo para refrigeración. Esta situación preocupa especialmente si se considera el aumento global del estrés hídrico. Además, el hardware necesario para la IA, como las tarjetas gráficas (GPU), utiliza metales escasos cuya extracción es altamente contaminante y acelera la degradación de los ecosistemas.

El informe también pone de relieve que casi la mitad de las organizaciones que utilizan Gen AI han observado un incremento en sus emisiones de carbono. Sin embargo, pese a este impacto, la sostenibilidad aún no es un criterio prioritario a la hora de desarrollar o implementar estas tecnologías. Solo el 12% de las empresas mide la huella ambiental de sus modelos de Gen AI y apenas un 20% tiene en cuenta ese impacto como un factor decisivo al seleccionar modelos o proveedores. La mayoría de las compañías prioriza aspectos como el coste, la eficiencia y la escalabilidad, dejando en un segundo plano los efectos medioambientales.

Ante este panorama, Capgemini propone una serie de medidas para avanzar hacia una Gen AI más sostenible. En primer lugar, recomienda elegir cuidadosamente la tecnología en función de las necesidades reales del negocio, combinando soluciones de IA tradicional con IA generativa cuando sea posible, ya que esto reduce el consumo energético. Asimismo, destaca la importancia de medir y mitigar la huella de carbono durante todo el ciclo de vida de los modelos, desde su desarrollo hasta su uso diario. Para ello, las organizaciones deberían optar por modelos más pequeños y optimizados, emplear hardware reciclable y energéticamente eficiente, utilizar centros de datos que funcionen con energías renovables y monitorizar el impacto ambiental de manera continua.

El informe también resalta el potencial de Gen AI para contribuir a la sostenibilidad empresarial si se aplica en casos de uso adecuados. Algunas de sus aplicaciones más prometedoras son la automatización de informes medioambientales (ESG), el diseño de productos sostenibles, la evaluación de ciclos de vida o la optimización de procesos productivos para reducir desperdicios y consumo energético. No obstante, para que estas iniciativas generen un impacto positivo, es imprescindible equilibrar los beneficios económicos y operativos con los costes ambientales.

Finalmente, Capgemini subraya la necesidad urgente de establecer una gobernanza específica para la sostenibilidad en el ámbito de Gen AI. Esto implica exigir transparencia a los proveedores tecnológicos sobre la huella de carbono de sus modelos, establecer objetivos claros de reducción de emisiones y colaborar con otras organizaciones para compartir buenas prácticas y desarrollar estándares comunes. Solo así será posible aprovechar el potencial de la inteligencia artificial generativa sin comprometer los objetivos climáticos y minimizando su impacto en el planeta.

Copyright y obras generadas por IA: el caso Zarya of the Dawn y sus implicaciones legales

Pina, Carolina. 2023. «Copyright and AI-Generated Works: Zarya of the DawnGarrigues Digital, March 16, 2023. https://www.garrigues.com/en_GB/garrigues-digital/copyright-and-ai-generated-works-zarya-dawn

El 23 de febrero de 2023, la Oficina de Copyright de Estados Unidos (USCO) revocó el registro de derechos de autor de la obra Zarya of the Dawn, un cómic creado parcialmente mediante inteligencia artificial (IA). Aunque figuraba como autora Kristina Kashtanova, el motivo de la cancelación fue claro: las imágenes generadas por IA no son fruto de la creatividad humana directa, requisito esencial para que una obra sea protegida por derechos de autor.

Kashtanova defendió que había intervenido activamente proporcionando indicaciones detalladas («prompts») a Midjourney, la IA utilizada. Según ella, fueron necesarios cientos de indicaciones para lograr el resultado deseado. Sin embargo, la USCO argumentó que, aunque los prompts pueden influir, el resultado final sigue siendo impredecible y escapa al control absoluto del humano, pues las IA no siguen órdenes específicas sino que interpretan sugerencias.

Además, se descartó el argumento del «sweat of the brow» (esfuerzo invertido), ya que el copyright no protege simplemente el trabajo arduo o el tiempo empleado, sino la creatividad original.

Según la legislación vigente, tanto en EE. UU. como en la Unión Europea, hay consenso en torno a dos ideas fundamentales para otorgar protección:

  • La obra debe ser fruto de una creación humana.
  • Debe poseer un mínimo de originalidad y reflejar elecciones libres y creativas del autor

En línea con esto, el Parlamento Europeo ya advirtió en 2020 sobre la necesidad de distinguir entre:

  • Creaciones asistidas por IA (donde el humano lidera el proceso creativo).
  • Creaciones generadas por IA de forma autónoma, que presentan un vacío legal, al no cumplir con el principio de originalidad vinculado a una persona natural.

Aunque simples o complejos, los prompts podrían ser protegibles por derechos de autor si son suficientemente creativos. Esto ha dado lugar al surgimiento de una nueva figura profesional: el prompt engineer (ingeniero de indicaciones), pero hasta ahora, los textos de prompts suelen considerarse solo una herramienta previa al resultado final, no como una obra en sí misma.

El marco de alfabetización en IA

Stanford Teaching Commons. «Understanding AI LiteracyTeaching Commons, last modified 2024. https://teachingcommons.stanford.edu/teaching-guides/artificial-intelligence-teaching-guide/understanding-ai-literacy

La alfabetización en IA se define como un conjunto de competencias que permite a las personas evaluar críticamente las tecnologías de IA, colaborar efectivamente con ellas y utilizarlas de manera ética, tanto en el hogar como en el trabajo. Se relaciona estrechamente con la alfabetización digital y de datos, ya que la IA depende de estos aspectos.

El marco de alfabetización en IA incluye cuatro dominios: funcional, ético, retórico y pedagógico. Cada uno tiene objetivos progresivos de competencia, buscando que se superpongan y se informen mutuamente.

El marco de alfabetización en IA sigue un enfoque centrado en el ser humano, subrayando que los individuos deben liderar el uso de la IA para maximizar sus beneficios y minimizar impactos negativos. El objetivo es emplear la IA para potenciar el aprendizaje y las capacidades humanas. Además, se destaca la responsabilidad ética en el uso de la tecnología, reconociendo que las decisiones informadas requieren esfuerzo y tiempo continuo.

El marco de alfabetización en IA identifica cuatro dominios clave:

  1. Alfabetización funcional: ¿Cómo funciona la IA?
  2. Alfabetización ética: ¿Cómo abordar los problemas éticos de la IA?
  3. Alfabetización retórica: ¿Cómo usar el lenguaje natural y generado por IA para lograr objetivos?
  4. Alfabetización pedagógica: ¿Cómo usar la IA para mejorar la enseñanza y el aprendizaje?

La alfabetización funcional en IA abarca el conocimiento de cómo funciona la IA, las habilidades necesarias para usar herramientas comunes y la conciencia sobre el desarrollo de la tecnología. Comienza con el uso básico de herramientas y la comprensión de términos y procesos clave, como el papel de los datos en el entrenamiento de la IA. Con el tiempo, se pueden evaluar las capacidades y limitaciones de la IA, usar herramientas avanzadas y crear recursos personalizados para la comunidad.

Los chatbots de IA basados en modelos de lenguaje grandes (LLM) generan respuestas al analizar datos masivos de la web, creando una voz compuesta basada en patrones comunes. Aunque pueden ser útiles en tareas como la lluvia de ideas o explicaciones generales, no son ideales para contenido especializado o soluciones originales. Comprender cómo funcionan los LLMs puede mejorar el uso de herramientas de IA y permitir aplicaciones más sofisticadas.

La alfabetización ética en IA implica comprender los problemas éticos relacionados con la IA y las prácticas para su uso responsable. Inicia con la evaluación de la precisión, fiabilidad y sesgos implícitos, y avanza hacia la reflexión sobre la integridad académica, la equidad, la privacidad y otros temas éticos. Con el tiempo, se pueden investigar impactos en comunidades marginadas y diseñar herramientas más éticas para la educación.

Al usar herramientas de IA para trabajos académicos, como un artículo de investigación, es crucial examinar sus implicaciones en términos de autoría, originalidad y propiedad. Aunque las herramientas de IA pueden ser muy útiles, pueden generar confusión sobre quién posee el contenido. Con el uso colaborativo de IA, las diferencias entre el material generado por IA y el creado por humanos pueden volverse más sutiles, y las políticas sobre transparencia y atribución pueden variar según el contexto.

La alfabetización retórica en IA se refiere a la habilidad de usar el lenguaje de manera efectiva para lograr objetivos y analizar la relación entre el lenguaje humano y el generado por IA. Comienza con la experimentación en la estructuración de tus escritos y en la elección de palabras al interactuar con herramientas de IA. A medida que adquieres experiencia, puedes colaborar con la IA para mejorar la calidad del contenido y utilizarla de manera más inclusiva y crítica, promoviendo lenguajes y perspectivas marginadas.

La alfabetización pedagógica en IA implica integrar prácticas de enseñanza efectivas con herramientas de IA para apoyar el aprendizaje estudiantil. Se comienza explorando teorías del aprendizaje, métodos de diseño de cursos y estrategias pedagógicas, además de herramientas educativas impulsadas por IA. Con el tiempo, se identifican prácticas basadas en evidencia para promover el pensamiento crítico, la inclusión y el bienestar. Con maestría, se evalúan los efectos de la IA en la enseñanza y se promueven innovaciones pedagógicas.