«Love Libraries»: celebrando el impacto y el valor de las bibliotecas

Scottish Libraries, «Love LibrariesScottish Libraries, https://scottishlibraries.org/love-libraries/

«Love Libraries» es una campaña organizada por la Biblioteca Nacional de Escocia que busca incentivar a más personas a unirse a las bibliotecas y aprovechar todos sus recursos. Destaca el impacto y el valor de las bibliotecas en todas partes.

Las bibliotecas son mucho más que libros; son el corazón de las comunidades, las escuelas y las instituciones de educación superior. La campaña Love Libraries celebra el impacto y la importancia de las bibliotecas en Escocia, destacando el trabajo del personal bibliotecario, promoviendo el bienestar, fomentando el uso de los servicios bibliotecarios y aumentando la apreciación pública.

Los objetivos de la campaña Love Libraries son alcanzar a personas que no conocen los beneficios de las bibliotecas, como la reducción del aislamiento social o la adquisición de nuevas habilidades, e involucrar a quienes, aunque apoyan las bibliotecas, no las utilizan con regularidad. Además, busca animar a los usuarios habituales a compartir sus experiencias y su amor por las bibliotecas, fomentando así una mayor participación y apreciación pública de los servicios que estas ofrecen.

  • Alcanzar a personas que no conocen los beneficios de las bibliotecas, como la reducción del aislamiento social o la adquisición de nuevas habilidades.
  • Involucrar a quienes apoyan las bibliotecas pero no las usan con regularidad.
  • Animar a los usuarios habituales a compartir sus experiencias y amor por las bibliotecas.

El lanzamiento oficial de Love Libraries fue el 14 de febrero de 2025 (Día de San Valentín) y se extenderá hasta octubre de 2025, brindando a las bibliotecas de toda Escocia tiempo suficiente para participar y generar entusiasmo

El Love Libraries Toolkit contiene información detallada sobre la campaña y cómo sumarse a ella. También incluye ideas y consejos prácticos, como:

  • Organizar un evento con un representante local.
  • Emitir un comunicado de prensa con historias de éxito de la biblioteca.
  • Motivar a las personas a escribir una tarjeta de San Valentín para su biblioteca y entregarla.
  • Visitar una biblioteca o tomar prestado un libro el 14 de febrero.

El alto consumo energético de la IA y su impacto ambiental

Peters, Kyle Wiggers. «ChatGPT May Not Be as Power-Hungry as Once AssumedTechCrunch, 11 de febrero de 2025. https://techcrunch.com/2025/02/11/chatgpt-may-not-be-as-power-hungry-as-once-assumed/

Aunque el consumo energético de ChatGPT es menor de lo que se pensaba, el crecimiento y sofisticación de la inteligencia artificial siguen planteando desafíos en términos de sostenibilidad y demanda energética.

Un estudio reciente de Epoch AI ha analizado el consumo energético de ChatGPT y ha desmentido la creencia de que esta inteligencia artificial es excesivamente demandante en términos de electricidad. Un informe de Goldman Sachs reveló que una consulta en ChatGPT consume casi 10 veces más electricidad que una búsqueda en Google. Según el último informe de Epoch, una consulta típica en ChatGPT consume alrededor de 0.3 vatios-hora, una cifra significativamente menor que la estimación previa de 3 vatios-hora por consulta, que equivalía a diez veces el consumo de una búsqueda en Google.

Una estimación más precisa

El informe de Epoch AI señala que la cifra de 3 vatios-hora estaba basada en estudios anteriores que asumían que OpenAI utilizaba chips más antiguos y menos eficientes. En cambio, el nuevo análisis tomó como referencia GPT-4o, el modelo por defecto más reciente de ChatGPT, encontrando que su consumo energético es menor de lo que se creía. Según Joshua You, analista de datos de Epoch, el consumo energético de ChatGPT es insignificante en comparación con el de electrodomésticos comunes, la calefacción o refrigeración del hogar, e incluso el uso de un automóvil.

El impacto ambiental de la IA

El uso energético de la inteligencia artificial, en general, sigue siendo un tema de debate a medida que las empresas del sector expanden sus infraestructuras. Recientemente, más de 100 organizaciones firmaron una carta abierta pidiendo a la industria de la IA y a los reguladores que garanticen que los nuevos centros de datos no agoten los recursos naturales ni aumenten la dependencia de fuentes de energía no renovables.

Aunque la cifra de 0.3 vatios-hora es una mejora respecto a estimaciones previas, el informe reconoce que el consumo energético de la IA seguirá aumentando en el futuro. Modelos de IA más avanzados requerirán más energía para entrenarse y ejecutarse, y el creciente uso de estas tecnologías también contribuirá a una mayor demanda de infraestructura computacional.

El futuro: modelos de razonamiento más exigentes

OpenAI y otras empresas del sector están explorando modelos de razonamiento, que son capaces de realizar tareas más complejas pero requieren más tiempo de procesamiento y, por ende, mayor consumo energético. A diferencia de modelos como GPT-4o, que responden casi instantáneamente, los modelos de razonamiento pueden «pensar» durante varios segundos o incluso minutos antes de generar una respuesta, lo que incrementa significativamente su demanda energética.

Según el informe, en los próximos años, la expansión de centros de datos para soportar estos modelos podría llegar a consumir casi toda la capacidad eléctrica de California en 2022 (68 GW) y, para 2030, el entrenamiento de un solo modelo avanzado podría requerir la energía equivalente a la de ocho reactores nucleares (8 GW).

Alternativas para reducir el consumo

Para mitigar el impacto ambiental, OpenAI ha comenzado a desarrollar modelos más eficientes, como o3-mini, que consumen menos energía. Sin embargo, estos avances podrían no ser suficientes para compensar el aumento en el uso global de la IA.

El informe sugiere que quienes estén preocupados por su huella energética al usar IA pueden optar por modelos más pequeños y eficientes, como GPT-4o-mini, y limitar el uso de funciones que requieran un procesamiento intensivo, como la generación de imágenes o la carga de archivos largos.

OCLC implementa un modelo de Inteligencia Artificial para la detección y eliminación de duplicados en los registros bibliográficos de WorldCat

OCLC. «Implementing AI to Further Scale and Accelerate WorldCat De-Duplication.» Última modificación 4 de febrero de 2025. https://www.oclc.org/en/news/announcements/2025/ai-worldcat-deduplication.html.

OCLC ha implementado un modelo de aprendizaje automático para la detección y eliminación de duplicados en los registros bibliográficos de WorldCat, como parte de sus esfuerzos continuos para mejorar la calidad de los datos y la experiencia de búsqueda para los usuarios de la red global de bibliotecas. La iniciativa comenzó en agosto de 2023, cuando se introdujo el primer modelo de aprendizaje automático para identificar duplicados de libros impresos en inglés, con el apoyo de la comunidad de catalogadores, quienes participaron en ejercicios de etiquetado de datos. Este proceso resultó en la eliminación de alrededor de 5,4 millones de registros duplicados de libros impresos en varios idiomas como inglés, francés, alemán, italiano y español.

El modelo de inteligencia artificial de OCLC se ha optimizado y extendido para abarcar todos los formatos, lenguajes y escrituras de WorldCat, utilizando los datos etiquetados por la comunidad para entrenar y ajustar el algoritmo. Tras una extensa fase de pruebas internas y la colaboración de bibliotecas miembros de WorldCat, se iniciará el 11 de febrero de 2025 una prueba piloto que involucrará la fusión de 500,000 pares de registros duplicados de libros impresos en inglés, que son la categoría más numerosa y la que ha recibido más pruebas hasta ahora.

Después de este primer ensayo, se evaluarán los resultados antes de realizar nuevas pasadas de eliminación de duplicados para los libros impresos en inglés. Una vez completada esta fase, OCLC continuará con la eliminación de duplicados en otros formatos, como materiales no bibliográficos y libros en idiomas distintos al inglés. Se recomienda a las bibliotecas que no usen WorldShare Management Services habilitar las actualizaciones de WorldCat en WorldShare Collection Manager para garantizar que reciban los registros actualizados.

Este esfuerzo, que combina la labor manual de los bibliotecarios con la tecnología avanzada de inteligencia artificial, ha logrado importantes avances en la reducción de duplicados en WorldCat. La eliminación de duplicados es una de las formas más efectivas de mejorar la calidad de WorldCat, y este enfoque automatizado permitirá a las bibliotecas ahorrar tiempo valioso y proporcionar una experiencia más precisa y eficiente para los usuarios, además de avanzar en la misión global de las bibliotecas.

EveryLibrary denuncia la censura y la interferencia política en las escuelas y bibliotecas del Departamento de Defensa

Miller, Matthew. «DoDEA Removes Book Pending ReviewStars and Stripes, February 7, 2025. https://www.stripes.com/theaters/europe/2025-02-07/dodea-removes-book-pending-review-16753412.html

EveryLibrary denuncia la censura impuesta por la administración Trump en las escuelas DoDEA, restringiendo bibliotecas, currículos y clubes estudiantiles para imponer una agenda ideológica. Estas políticas eliminan materiales sobre raza, género e historia, afectando la educación de hijos de familias militares. La organización advierte que esta censura es un modelo para futuras restricciones en la educación pública de EE.UU.

EveryLibrary ha emitido un comunicado en el que expresa su firme oposición a las restricciones impuestas por la administración Trump en las escuelas del Departamento de Defensa (DoDEA). Estas medidas incluyen la censura de bibliotecas, la modificación de currículos escolares y la limitación de la expresión estudiantil, con el objetivo de imponer una agenda ideológica alineada con los intereses políticos y religiosos del gobierno.

Un ataque a la educación y a la libertad de acceso a la información

Bajo la dirección de la Casa Blanca de Trump, el Departamento de Defensa ha implementado restricciones sin precedentes en la educación de los hijos de familias militares. Se han eliminado materiales educativos que abordan cuestiones de raza, género e historia, reemplazándolos con contenidos que responden a una visión política específica. Estas políticas no solo afectan la enseñanza en el aula, sino que también han llevado a la prohibición de eventos como el Mes de la Historia Negra y a la disolución de clubes estudiantiles que promueven la diversidad y la inclusión.

El impacto más grave de esta censura se ha reflejado en las bibliotecas escolares, donde se han ordenado purgas masivas de libros y materiales de aprendizaje. Reportes de diferentes escuelas DoDEA indican que:

  • Bibliotecas enteras han sido cerradas temporalmente para revisar y eliminar libros que no cumplen con las directrices ideológicas establecidas.
  • Se han marcado para su eliminación libros que tratan sobre inmigración, identidad LGBTQ+ y justicia racial.
  • Se ha instruido a los educadores para que retiren de sus aulas cualquier libro que haga referencia a identidad de género, raza o “ideologías discriminatorias de equidad”, sin criterios claros sobre qué constituye una violación.

Estas medidas no solo restringen la libertad de acceso a la información, sino que también afectan la calidad de la educación y el bienestar de los estudiantes. Al eliminar materiales que reflejan la diversidad de experiencias dentro de las familias militares, la administración socava el desarrollo intelectual de los estudiantes y los priva de una educación integral y basada en la realidad.

Un modelo para la censura en todo el país

EveryLibrary advierte que estas medidas no son casos aislados, sino una prueba de lo que podría convertirse en la política educativa nacional bajo un segundo mandato de Trump. Lo que está ocurriendo en las escuelas DoDEA sigue el mismo patrón de censura implementado en estados como Florida, donde las restricciones a la enseñanza han llevado a la prohibición de miles de libros y a la imposición de órdenes de silencio a los educadores.

Las políticas impulsadas por la administración Trump buscan transformar la educación pública en una herramienta de adoctrinamiento político, limitando la capacidad de los estudiantes para desarrollar un pensamiento crítico y acceder a información diversa. Esta censura afecta directamente a las familias militares, cuyos hijos ya enfrentan desafíos significativos debido a la movilidad y las constantes reubicaciones.

Llamada a la acción

EveryLibrary insta a la comunidad educativa y a la sociedad en general a tomar medidas contra esta censura. Han lanzado una petición en la que piden a ciudadanos, bibliotecarios y educadores que se unan en defensa de la libertad de información y la educación inclusiva. La organización enfatiza la importancia de mantener bibliotecas abiertas y accesibles para todos los estudiantes, asegurando que las futuras generaciones puedan recibir una educación basada en la verdad y el conocimiento.

La censura en las escuelas DoDEA es solo el inicio de una estrategia más amplia para controlar la educación en Estados Unidos. EveryLibrary advierte que, si estas políticas no se detienen, el derecho de los estudiantes a una educación libre y objetiva estará en grave peligro en todo el país.

Publicación en la Era de la Ciencia Abierta

«Publishing in the Age of Open Science» National Academies of Sciences, Engineering, and Medicine (NASEM), 2025

Texto completo

El 21 y 22 de febrero de 2024,  National Academies of Sciences, Engineering, and Medicine (NASEM) de Estados Unidos organizó un taller titulado «Publicación en la Era de la Ciencia Abierta». El objetivo principal fue analizar los beneficios y desafíos asociados con el acceso abierto y las prácticas de datos FAIR (localizables, accesibles, interoperables y reutilizables) en la investigación y publicaciones de química e ingeniería química. Este documento resume las presentaciones y discusiones que tuvieron lugar durante el taller.

Durante el evento, se abordaron temas clave como la implementación de políticas de acceso abierto en publicaciones científicas, la promoción de la transparencia y reproducibilidad en la investigación química, y las implicaciones éticas y legales del intercambio de datos en la comunidad científica. Además, se discutieron estrategias para incentivar a los investigadores a adoptar prácticas de ciencia abierta y se analizaron casos de estudio sobre la integración de datos FAIR en proyectos de investigación actuales.

Los participantes también exploraron las barreras existentes para la adopción generalizada de estas prácticas, incluyendo preocupaciones sobre la propiedad intelectual, la calidad de los datos compartidos y la necesidad de infraestructuras tecnológicas adecuadas. Se enfatizó la importancia de la colaboración entre instituciones académicas, agencias gubernamentales y la industria para superar estos obstáculos y fomentar una cultura de apertura en la ciencia.

Este resumen proporciona una visión general de las discusiones y conclusiones del taller, ofreciendo perspectivas valiosas para investigadores, editores y formuladores de políticas interesados en la evolución de la publicación científica en el contexto de la ciencia abierta.

Cumbre sobre datos de investigación en Estados Unidos: fortalecimiento de la cooperación entre organizaciones y sectores

U.S. Research Data Summit: Strengthening Cooperation Across Organizations and Sectors: Proceedings of a Workshop” NASEM, 2025

Texto completo

Los días 10 y 11 de octubre de 2023, las Academias Nacionales de Ciencias, Ingeniería y Medicina organizaron la Cumbre de Datos de Investigación de EE.UU. en el edificio de la Academia Nacional de Ciencias en Washington, DC. La cumbre corrió a cargo de un comité de planificación organizado en el marco del Comité Nacional de EE.UU. para CODATA. La cumbre se nutrió de las aportaciones de 29 organizaciones, entre las que se encontraban líderes de agencias gubernamentales federales, el sector privado, organizaciones públicas y sin ánimo de lucro e instituciones de investigación. Esta publicación resume las presentaciones y debates de la cumbre.

El objetivo principal del evento fue reunir a líderes de diversas organizaciones de datos de investigación en los sectores académico, gubernamental, industrial y sin fines de lucro para discutir estrategias que aumenten la coherencia de intereses y actividades, mejoren la comunicación y colaboración, reduzcan la duplicación de esfuerzos y posicionen a Estados Unidos de manera efectiva en discusiones internacionales sobre datos de investigación.

Previo al taller, se llevaron a cabo seis grupos focales entre abril y julio de 2023, abordando temas como:

  • Acceso intersectorial a datos de investigación
  • Datos para la respuesta a desastres en comunidades desfavorecidas
  • Necesidades de datos para la descarbonización
  • Gobernanza de datos indígenas
  • Integración de datos de investigación en justicia, equidad, diversidad e inclusión
  • Enfoques organizacionales hacia entradas y salidas de inteligencia artificial

El taller resultó en la elaboración de un borrador de principios para el intercambio de datos, enfocados en liderar con empatía, empoderar a los trabajadores de datos, construir confianza, priorizar la equidad, tomar decisiones basadas en evidencia y asegurar el cumplimiento sostenible.

Springer Nature retractó 2.923 artículos el año pasado

Springer Nature. «Research Integrity.» Accessed February 18, 2025. https://www.springernature.com/gp/advancing-discovery/research-integrity

En 2024, los más de 3.000 diarios del portafolio de Springer Nature publicaron más de 482.000 artículos, de los cuales 2.923 fueron retractados, según los datos compartidos en una nueva página sobre integridad en la investigación en su sitio web.

Este es un pequeño fragmento de la información proporcionada, que también detalla las herramientas de control de calidad que utiliza el editor, qué desencadena una investigación de integridad y qué sucede durante dichas investigaciones.

Los datos de las retractaciones se desglosan de la siguiente manera:

  • El 61,5% (1.797 artículos) de las retractaciones correspondieron a trabajos publicados antes de enero de 2023.
  • El 38,5% (1.126) fueron artículos publicados después de enero de 2023.
  • El 41% de las retractaciones de artículos publicados después de 2023 fueron de acceso abierto.

Alice Henchley, directora de comunicación y ética en Springer Nature, comentó que la página se creó para proporcionar más información sobre cómo se mantiene la precisión e integridad de la investigación, especialmente en el contexto de las nuevas tecnologías que impactan el sistema de investigación. Su objetivo es ofrecer transparencia y mostrar el compromiso de Springer Nature con la integridad científica, tanto en el proceso de aceptación de artículos como en la actualización de los registros de publicaciones cuando se identifican problemas después de la publicación.

Entre las retractaciones más notables figuran Environmental Science and Pollution Research, que eliminó artículos debido a citas sospechosas, frases problemáticas y el uso no divulgado de inteligencia artificial; Scientific Reports, que ha enfrentado retractaciones por artículos con frases confusas y problemas relacionados con autorías pagadas; y Applied Nanoscience, que retiró 34 artículos debido a problemas con números especiales editados por invitados.

Este enfoque en la transparencia busca apoyar a la comunidad científica y subraya el compromiso con la integridad en la publicación.

Las mejores herramientas de IA para la investigación (Guía de Nature)

Van Noorden, Richard, y Timothy Perkel. «AI’s Growing Role in ScienceNature, 2025. https://www.nature.com/articles/d41586-025-00437-0

Las herramientas de inteligencia artificial (IA) están cambiando la investigación científica, con modelos como ChatGPT y DeepSeek facilitando tareas como la redacción y la resolución de problemas complejos. Llama es popular por su adaptabilidad en simulaciones científicas, mientras que Claude destaca en codificación. OLMo, por su parte, ofrece total transparencia en su funcionamiento.

Las herramientas de inteligencia artificial (IA) generativa están revolucionando el panorama de la investigación, ofreciendo una amplia variedad de modelos de lenguaje (LLM) para diferentes tareas. Desde la escritura de códigos hasta la generación de hipótesis o la edición de manuscritos, los investigadores ahora tienen acceso a más herramientas que nunca.

OpenAI y sus modelos de razonamiento
OpenAI, con sede en San Francisco, lanzó su chatbot ChatGPT en 2022, y desde entonces ha desarrollado modelos avanzados como o1 y o3, diseñados para realizar razonamientos paso a paso. Estos modelos sobresalen en tareas como la resolución de problemas matemáticos y la depuración de código. Recientemente, OpenAI introdujo el o3-mini, una versión más rápida y accesible de su modelo de razonamiento, y ‘deep research’, una herramienta que permite generar informes sintéticos de información con citas de múltiples sitios web. Aunque potentes, estos modelos siguen siendo propensos a errores y no pueden reemplazar completamente a un investigador humano.

DeepSeek: el modelo versátil
La empresa china DeepSeek lanzó su modelo DeepSeek-R1, que se destaca por su bajo costo y la capacidad de personalizarse para proyectos de investigación específicos. A diferencia de los modelos de OpenAI, DeepSeek-R1 es de «peso abierto», lo que permite a los investigadores adaptarlo a sus necesidades. Es especialmente útil para tareas como problemas matemáticos y generación de hipótesis. Sin embargo, presenta desventajas como un proceso de pensamiento lento y preocupaciones sobre la seguridad de los datos introducidos.

Llama: el caballo de batalla
Llama, desarrollado por Meta AI, es otro modelo popular entre los investigadores, especialmente por su disponibilidad de código abierto, lo que permite a los usuarios adaptarlo para tareas específicas. Ha sido utilizado en simulaciones de computadoras cuánticas y para predecir estructuras cristalinas de materiales. A pesar de que requiere permisos para su uso, es ampliamente adoptado por la comunidad científica, que valora su accesibilidad y adaptabilidad.

Claude: el experto en codificación
El modelo Claude 3.5 Sonnet de la firma Anthropic, basado en Silicon Valley, es altamente apreciado por su habilidad para escribir código y manejar información visual, como gráficos y tablas. Además, su capacidad para mantener el estilo técnico en la escritura lo hace útil para tareas como la redacción de propuestas de subvenciones y la anotación de códigos. Aunque su uso completo requiere acceso a una API de pago, se valora por su rendimiento en desafíos de codificación.

OLMo: la transparencia total
OLMo 2 es un modelo de código abierto que ofrece una transparencia total, permitiendo a los investigadores examinar tanto los datos de entrenamiento como los algoritmos utilizados para desarrollar el modelo. Este nivel de transparencia es valioso para entender sesgos en los resultados y mejorar la eficiencia del modelo. Sin embargo, su uso requiere conocimientos técnicos, aunque los cursos gratuitos están reduciendo las barreras de entrada.

En general, la IA generativa está transformando la investigación científica, pero la elección del modelo adecuado depende de las necesidades del investigador y los recursos disponibles. Aunque estas herramientas prometen avances significativos, su implementación aún enfrenta desafíos como la supervisión humana y la protección de datos sensibles.

Preparando los ecosistemas nacionales de investigación para la IA

International Science Council. Preparing National Research Ecosystems for AI – Second Edition (2025). Paris: The International Science Council, 2025.

Texto completo

¿Cómo influirá el uso creciente de la IA en la asignación de fondos para la investigación? ¿Qué estándares de datos de investigación evolucionarán? ¿Cómo cambiará la IA la naturaleza de los resultados científicos? ¿Cómo evolucionarán las carreras científicas con el aumento del uso de la IA en la investigación? ¿Qué inversiones en infraestructuras se requieren para el éxito de la IA en el sector científico? ¿Qué ajustes legales son necesarios para permitir el uso de la IA en la investigación, asegurando altos estándares en la conducta responsable de la ciencia? ¿Cómo afectará la IA las colaboraciones internacionales en investigación?

La noción dominante que se comunica sobre la influencia de la inteligencia artificial (IA) es su capacidad para cambiarlo todo en todos los sectores, incluida la ciencia. Más allá de las promesas de nuevos avances en diferentes campos de investigación, están surgiendo una serie de preguntas críticas sobre el impacto de la IA en la documentación, financiación e informes de la ciencia.

Las discusiones en torno a estas preguntas son cruciales para el futuro de la ciencia y los sistemas de investigación. Las instituciones de investigación y los ministerios están comenzando a abordarlas, aunque con recursos limitados para guiarlos. Como muestra este estudio, sigue existiendo una notable falta de literatura comprensiva sobre el impacto de la IA en los aspectos estructurales de la ciencia y la investigación.

Varios países han desarrollado estrategias generales de IA para establecer sus planes y aspiraciones en cuanto al desarrollo e implementación de la IA en diferentes sectores. A pesar de las implicaciones inmediatas y significativas de estas estrategias para la ciencia y la investigación, estos documentos generalmente solo ofrecen declaraciones generales sobre la participación de las instituciones científicas y de investigación en la ejecución de los planes nacionales, sin profundizar en las implicaciones concretas.

Esto no sugiere que los países estén inactivos. Al contrario, se están formando asociaciones, lanzando iniciativas de capacitación, estableciendo infraestructuras e implementando políticas. Sin embargo, las personas en los ministerios gubernamentales, universidades y empresas de consultoría encargadas de preparar el entorno de investigación para la IA están trabajando en gran medida con especulaciones sobre los principales desafíos y tienen una visión limitada sobre los enfoques adoptados por países de tamaño y capacidad similares.

Los marcos que delinean los problemas clave para que los países consideren al planificar la integración de la IA en sus ecosistemas de investigación pueden ser de gran ayuda en esta etapa crítica. Este documento de trabajo ofrece uno de estos marcos, derivado de un análisis de la literatura existente.

La segunda edición del documento presenta un total de 18 estudios de caso de países de diferentes tamaños y regiones, elaborados por personas directamente involucradas en estas discusiones en sus respectivos países. Este documento es una expansión de la edición anterior publicada en marzo de 2024.

Es importante considerar las circunstancias de países de diversos tamaños, que también son grandes contribuyentes a los avances científicos, en lugar de centrarse únicamente en las grandes potencias de la IA. Se buscó deliberadamente obtener información sobre cómo los países pequeños y medianos están preparando sus ecosistemas de investigación para la adopción de la IA.

Este documento de trabajo tiene como objetivo:

  • Recopilar conocimientos e información sobre los problemas y los esfuerzos actuales para preparar los sistemas de ciencia e investigación para la IA.
  • Ayudar a los países a desarrollar hojas de ruta para la adopción de la IA en sus sistemas científicos.
  • Crear redes regionales y globales de personas involucradas en la reflexión sobre la adaptación e implementación de la IA para la ciencia.
  • Sensibilizar y ayudar a dar forma a una discusión crítica entre las comunidades científicas y políticas sobre los problemas cruciales que plantea la IA para la organización de la ciencia y la investigación.

El desarrollo del documento de trabajo se benefició de un taller convocado en octubre de 2023 en Kuala Lumpur, Malasia, y un taller en Santiago de Chile, Chile, en abril de 2024, que reunió a participantes de alrededor de 12 países de cada región de Asia y el Pacífico, y América Latina y el Caribe. Las contribuciones de algunos países que participaron en los talleres se han incorporado a la segunda versión del documento. La coordinación de los talleres fue generosamente apoyada por la Academia Australiana de Ciencias y la Academia de Ciencias de Malasia para el taller en Malasia, y la Iniciativa Latinoamericana para Datos Abiertos (ILDA) y la Academia Colombiana de Ciencias Exactas, Físicas y Naturales (ACCEFYN) para el taller en Chile.

Identificación de las implicaciones económicas de la inteligencia artificial para la política de derechos de autor

: Lutes, Brent A. ed., Identifying the Economic Implications of Artificial Intelligence for Copyright Policy: Context and Direction for Economic Research, U.S. Copyright Office, 2025

Texto completo

Las cuestiones económicas en torno a la inteligencia artificial (IA) son amplias y complejas. Este análisis no pretende abordarlas en su totalidad ni ofrecer respuestas definitivas, sino identificar las preguntas económicas más relevantes en el contexto específico de la política de derechos de autor y proporcionar un marco para aplicar las respuestas provenientes de la comunidad económica a los debates de políticas públicas.

Antes de ello, se ofrece un repaso sobre la economía del copyright, los términos clave y el contexto tecnológico. El documento se divide en siete partes:

  • Partes 2, 3 y 4: Analizan el impacto de la IA en la producción de contenido, incluyendo la competencia entre obras generadas por IA y creaciones humanas, la replicación de obras humanas por parte de la IA y los derechos de imagen y publicidad.
  • Partes 5 a 8: Se centran en el uso de obras con copyright como insumo para la IA, abordando su efecto en los incentivos creativos, el desarrollo tecnológico e industrial de la IA, el control de acceso a obras protegidas y los efectos colaterales de las políticas de IA.

Dado que estos temas están interconectados (por ejemplo, el poder de mercado influye en varios de ellos), es esencial considerarlos de manera integral y no abordar cada cuestión de forma aislada.