El índice de transparencia de los principales modelos de Inteligencia Artificial revela que la gran mayoría son opacos

Índice de Transparencia de Modelos Fundamentales

«New Index Finds AI Models Are Murky, Not Transparent At All». 2023. Accedido 21 de diciembre de 2023. https://www.darkreading.com/cyber-risk/new-index-finds-ai-models-are-murky-not-transparent-at-all.


El Índice de Transparencia de Modelos Fundamentales de la Inteligencia Artificial es una evaluación que se realiza a los principales modelos de IA para medir la transparencia en su desarrollo y funcionamiento. Cuando se menciona que la gran mayoría de estos modelos son opacos, significa que existe una falta significativa de claridad y divulgación sobre cómo se entrenan, las fuentes de datos que utilizan, y cómo toman decisiones.


La nueva orden ejecutiva sobre inteligencia artificial (IA) firmada por el presidente de Estados Unidos, Joe Biden, detalla cómo la industria debe asegurarse de que la IA sea confiable y útil. La orden sigue a discusiones destacadas en julio y septiembre entre empresas de IA y la Casa Blanca, que resultaron en promesas sobre cómo las empresas de IA serán más transparentes acerca de las capacidades y limitaciones de la tecnología.

Hacer promesas de transparencia es un paso positivo, pero es necesario contar con un método para medir cuán bien se están cumpliendo esas promesas. Un método podría ser el Model Transparency Index desarrollado por el Centro de Investigación sobre Modelos Fundamentales de la Universidad de Stanford. El índice calificó 10 modelos de IA en función de 100 métricas diferentes, incluyendo cómo se entrenan los modelos, información sobre las propiedades y funciones del modelo, y cómo se distribuyen y utilizan los modelos. Las puntuaciones se calcularon en base a datos disponibles públicamente, aunque las empresas tuvieron la oportunidad de proporcionar información adicional para cambiar la puntuación.

¿Cómo se ve la transparencia al hablar de algunos de los modelos fundamentales más utilizados? No es buena. «Ningún desarrollador importante de modelos fundamentales se acerca a proporcionar transparencia adecuada, revelando una falta fundamental de transparencia en la industria de la IA», escribieron los investigadores de Stanford en el resumen de sus hallazgos.

Llama 2 de Meta recibió la puntuación total más alta en el índice, con 54 sobre 100.

El GPT-4 de OpenAI obtuvo 48, lo cual no es sorprendente, ya que OpenAI decidió retener detalles «sobre la arquitectura (incluido el tamaño del modelo), hardware, ordenador de entrenamiento, construcción del conjunto de datos [y] método de entrenamiento» al pasar de GPT-3 a GPT-4 a principios de este año.

En su mayor parte, los sistemas de IA potentes, como el GPT-4 de OpenAI y el PaLM2 de Google, son sistemas de caja negra. Estos modelos se entrenan con grandes volúmenes de datos y se pueden adaptar para su uso en una amplia variedad de aplicaciones. Pero para un creciente grupo de personas preocupadas por cómo se utiliza la IA y cómo podría afectar a las personas, el hecho de que haya poca información disponible sobre cómo se entrenan y utilizan estos modelos es un problema.

Según los investigadores, hay un poco más de transparencia en torno a la protección de datos de usuario y la funcionalidad básica del modelo. Los modelos de IA obtuvieron buenos resultados en indicadores relacionados con la protección de datos de usuario (67%), detalles básicos sobre cómo se desarrollan sus modelos fundamentales (63%), las capacidades de sus modelos (62%) y sus limitaciones (60%).

La nueva orden ejecutiva describe varias cosas que deben suceder para mejorar la transparencia. Los desarrolladores de IA deberán compartir los resultados de las pruebas de seguridad y otra información con el gobierno. El Instituto Nacional de Estándares y Tecnología tiene la tarea de crear estándares para garantizar que las herramientas de IA sean seguras y seguras antes de su lanzamiento público.

Las empresas que desarrollen modelos que representen riesgos serios para la salud y seguridad públicas, la economía o la seguridad nacional deberán notificar al gobierno federal cuando estén entrenando el modelo y compartir los resultados de las pruebas de seguridad antes de hacer públicos los modelos.

Urge solucionar la falta de transparencia en torno a los datos utilizados para entrenar modelos de Inteligencia Artificial

Hardinges, Jack, Elena Simperl, y Nigel Shadbolt. 2023. «We Must Fix the Lack of Transparency Around the Data Used to Train Foundation Models». Harvard Data Science Review, diciembre. https://doi.org/10.1162/99608f92.a50ec6e6.

En el ámbito de la IA, los modelos, ya sean de aprendizaje supervisado, no supervisado o de otro tipo, necesitan ser alimentados con grandes cantidades de datos para aprender patrones y realizar tareas específicas. Abordar esta falta de transparencia es crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable. La transparencia en este proceso implica proporcionar información clara y completa sobre la naturaleza y la fuente de los datos utilizados en el entrenamiento de estos modelos. Sin embargo, en la mayoría de los casos, las empresas o desarrolladores no muestran de dónde compilan esta información, lo que puede tener consecuencias significativas en términos de ética, sesgo y confianza pública.


El estudio aborda la importancia del acceso a información sobre los datos utilizados en la formación de modelos de inteligencia artificial (IA). Aunque algunos sectores de la comunidad de IA han progresado, persiste una falta general de transparencia sobre el contenido y las fuentes de los conjuntos de datos de entrenamiento, ya sea por iniciativa voluntaria de las empresas o por intervención regulatoria, y esto debe cambiar.

Los modelos fundamentales se entrenan con grandes colecciones de datos, muchos de los cuales se recopilan de toda la web. La investigación del Instituto Allen de IA y The Washington Post sobre el popular conjunto de datos de entrenamiento C4 reveló que su contenido provenía de 15 millones de dominios web diferentes.

Conocer el contenido de los conjuntos de datos utilizados para entrenar modelos y cómo se han compilado es de vital importancia. Sin esta información, el trabajo de desarrolladores, investigadores y éticos para abordar sesgos o eliminar contenido perjudicial de los datos se ve obstaculizado. La información sobre los datos de entrenamiento también es crucial para que los legisladores evalúen si los modelos fundamentales han absorbido datos personales o material con derechos de autor. Además, los operadores previstos de los sistemas de IA y aquellos afectados por su uso son mucho más propensos a confiar en ellos si comprenden cómo se han desarrollado.

Sin embargo, algunas empresas no documentan el contenido de sus datos de entrenamiento, incluso internamente, por temor a encontrar información personal sobre individuos identificables, material con derechos de autor y otros datos obtenidos sin consentimiento.

En público, las empresas han utilizado diferentes argumentos para justificar la falta de transparencia en torno a sus datos de entrenamiento. OpenAI, en el lanzamiento de su modelo GPT-4, declaró que no compartiría información detallada sobre la «construcción del conjunto de datos» y otros aspectos del desarrollo del modelo debido al «panorama competitivo y las implicaciones de seguridad de los modelos a gran escala». Aunque algunas empresas han publicado los datos de ajuste fino, tienden a omitir los conjuntos de datos de entrenamiento más grandes y complejos que son más propensos a contener contenido perjudicial o material con derechos de autor.

Partes de la comunidad de IA han avanzado en la transparencia de los datos de entrenamiento. La plataforma Hugging Face, inspirada en los pioneros de la seguridad de la IA Emily Bender, Batya Friedman y Timnit Gebru, promueve el uso de Model Cards y Dataset Cards entre su comunidad de desarrolladores. Las Dataset Cards documentan cómo se creó un conjunto de datos, su contenido y posibles problemas legales o éticos asociados.

En julio de 2023, la Casa Blanca anunció que siete grandes empresas de IA se comprometieron a «desarrollar medidas técnicas sólidas para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como el marcado de agua». Dado que los modelos fundamentales de IA han comenzado a entrenarse con datos generados por IA, estas herramientas desempeñarán un papel importante en documentar la procedencia de los datos de entrenamiento y la integridad de las salidas resultantes de la IA.

Las decisiones sobre qué documentar sobre los datos de entrenamiento podrían eventualmente salir de las manos de los desarrolladores. La Comisión Federal de Comercio de EE. UU. ha ordenado recientemente a OpenAI que documente todas las fuentes de datos utilizadas para entrenar sus grandes modelos de lenguaje. Un grupo de grandes medios de comunicación ha publicado una carta abierta instando a los legisladores de todo el mundo a introducir nuevas regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento.

Se prevé que la demanda de información sobre los datos de entrenamiento sea la última ola en un esfuerzo continuo por la transparencia empresarial. En el Reino Unido, las leyes sobre el registro obligatorio y la publicación de información por parte de las empresas se remontan al siglo XIX, y a lo largo del tiempo, los reguladores han desarrollado enfoques estandarizados para evitar que cada empresa elija su propia forma de informar sobre sus finanzas y otras actividades. Quizás necesitemos lo mismo para las divulgaciones sobre los datos en los que se han entrenado los modelos fundamentales de IA.

Ya sea que las empresas den un paso adelante o que intervengan los gobiernos, deben asegurarnos de que los datos utilizados para entrenar sistemas de IA no estén envueltos en secreto. La confianza pública, nuestra capacidad para mitigar sus posibles daños y la eficacia de nuestro régimen regulatorio dependen de ello.

Cinefórum y bibliotecas con Carlos Redondo. Planeta Biblioteca 2023/12/20

Cinefórum y bibliotecas con Carlos Redondo. Planeta Biblioteca 2023/12/20

ESCUCHAR EL PROGRAMA DE RADIO

Ir a descargar


Entrevistamos a Carlos Redondo Martín, encargado de la sección de cine en la Biblioteca Municipal Torrente Ballester de Salamanca, con el objetivo de obtener información sobre la organización de cinefórums en bibliotecas. Nos proporcionó detalles acerca de la naturaleza y propósito de un cinefórum, así como consejos sobre la planificación de esta actividad. Abordó temas como los requisitos para llevar a cabo un cinefórum, el proceso de selección de películas, los intereses de los usuarios y cómo esta iniciativa se convierte en un catalizador del debate dentro de la comunidad.

Liberar el poder de los espacios comunes europeos de datos para agilizar la información reglamentaria

Sziranyi, Z., Guasch, C., Nardin, A. et al., Unlocking the power of common European data spaces for streamlined regulatory reporting, Publications Office of the European Union, 2023, https://data.europa.eu/doi/10.2799/546237


Este documento temático tiene como objetivo explorar qué son los espacios de datos europeos comunes y cómo podrían ayudar en el contexto de la presentación de informes regulatorios. Al facilitar la consolidación, la descubribilidad y el intercambio de datos, los espacios de datos europeos comunes podrían desempeñar un papel beneficioso al respaldar la simplificación de las distintas etapas del proceso de presentación de informes regulatorios y, en consecuencia, reducir la carga administrativa.

Presentación del libro «Historia del Real Madrid: Memorias de la Leyenda Blanca y falsos relatos sobre su ‘Leyenda Negra’ de Javier Muñoz Castaño. Planeta Biblioteca 2023/12/20

Presentación del libro «Historia del Real Madrid: Memorias de la Leyenda Blanca y falsos relatos sobre su ‘Leyenda Negra’ de Javier Muñoz Castaño».

Adquirir la obra

Planeta Biblioteca 2023/12/20

ESCUCHAR EL PROGRAMA DE RADIO

Ir a descargar


Javier Muñoz Castaño, nacido en Plasencia en 1992, se graduó en Información y Documentación en la Universidad de Salamanca, además de completar el Máster en Marketing Digital. Su pasión por el Real Madrid CF se gestó desde su más temprana infancia, y durante la adolescencia, surgió en él un profundo interés por la comunicación. Después de siete años cubriendo eventos deportivos en Plasencia y Salamanca, así como de la Primera División, especialmente siguiendo al equipo de sus amores, y entrevistando a ídolos como José Emilio Amavisca, llegó el momento cumbre en 2020: la realización del sueño de publicar el presente libro, fusionando sus dos mayores vocaciones.

Este libro, en un emotivo tributo a los socios e integrantes del Real Madrid, busca ser la principal fuente de consulta para desmentir las falsedades históricas dirigidas al club. Desde sus orígenes hasta la temporada 2022/23, se abordan todos los logros cronológicamente, analizando aspectos tácticos, técnicos, sentimentales y estadísticos. El relato incluye hazañas épicas de cada generación del club, enfrentamientos con rivales europeos y la destacada presencia del baloncesto y el Real Madrid Femenino. Acompañado de frases memorables, anécdotas y detalles sobre las infraestructuras del club, el libro ofrece una perspectiva completa, incluyendo opiniones, valores y la esencia de la afición. El anexo fotográfico destaca momentos especiales vividos por el autor y otros madridistas, invitando al lector a sumergirse en la rica historia y pasión del Real Madrid.

Alfabetización informacional y sociedad: Un informe para presentar los resultados de una revisión de la literatura sobre el impacto de la alfabetización informacional en la sociedad.

Ryan, B., Cruickshank, P., & Milosheva, M. (2023). Information literacy and society: A report to present findings from a review of literature on the impact of information literacy on society. Media and Information Literacy Alliance

Texto completo



Este informe presenta los hallazgos derivados de una revisión de la literatura que informa sobre el impacto de la alfabetización informacional (AI) en la sociedad. Su objetivo es proporcionar consideraciones sobre cómo la investigación académica sobre la AI puede afectar positivamente a la sociedad, basándose en el informe del proyecto Marco de Impacto de la Alfabetización Informacional (ILIF) de 2022

El equipo del proyecto llevó a cabo las siguientes acciones:

  • A partir de un conjunto filtrado de más de 4000 resultados, desarrollaron listas largas correspondientes a los cinco temas en la definición de AI de CILIP (2018), totalizando 197 elementos para una posible revisión adicional.
  • Señalaron temas de investigación, barreras para la investigación de la AI, barreras y facilitadores para la formación de poblaciones con alfabetización informacional emergentes de las listas largas.
  • Filtraron las listas largas a listas cortas, totalizando 35 elementos, para una revisión detallada.
  • Clasificaron las listas largas y cortas en dos dimensiones: geografía y método de estudio.
  • Realizaron un análisis detallado de los elementos de la lista corta.
  • Extrajeron conclusiones sobre el papel de la alfabetización informacional en la sociedad.

La investigación central que examina el papel de la alfabetización informacional (AI) en la sociedad tiene un sesgo geográfico hacia el ámbito anglosajón y el primer mundo. Los factores que causan este sesgo no están claros, pero un sesgo aparente adicional puede haber resultado del enfoque de este proyecto en publicaciones revisadas por pares en inglés. La educación, especialmente la educación terciaria, está significativamente sobrerrepresentada en la literatura de investigación sobre AI. Se plantean barreras para la formación de poblaciones con alfabetización informacional debido a problemas relacionados con la enseñanza de la AI y las estructuras que podrían respaldarla, incluida la (in)acción gubernamental.

Otros hallazgos clave son:

  • La investigación sobre la alfabetización informacional abarca una amplia variedad de temas y contextos.
  • La formación/educación en AI debe ser impartida mediante la colaboración entre bibliotecarios y maestros/profesores, continuar a lo largo de la educación y reforzarse durante las carreras y vidas.
  • La investigación sobre la alfabetización informacional puede tener un impacto indirecto, por ejemplo, la investigación para mejorar la AI de los profesionales médicos no solo afecta a estos profesionales sino también a la sociedad en general, es decir, a sus pacientes.
  • Existen oportunidades perdidas para dicho impacto social, por ejemplo, cuando los profesionales médicos carecen de habilidades de alfabetización informacional y, por lo tanto, pueden no brindar el mejor tratamiento posible a sus pacientes; si los ciudadanos no tienen alfabetización en información de salud, su salud puede verse afectada.
  • Muchos de los hallazgos del proyecto ILIF están validados.

Urban Libraries Council y la Universidad de Albany se asocian para estudiar el impacto de la IA en bibliotecas

«RELEASE: Public Libraries Set the Stage for Integration of Artificial Intelligence in Their Services and Resources». s. f. Urban Libraries Council. Accedido 20 de diciembre de 2023. https://www.urbanlibraries.org/newsroom/release-public-libraries-set-the-stage-for-integration-of-artificial-intelligence-in-their-services-and-resources-1-1.


El Urban Libraries Council (ULC) y el Center for Technology in Government (CTG UAlbany) de la Universidad de Albany se han asociado para analizar cómo las bibliotecas pueden capacitar a las comunidades para comprender mejor la Inteligencia Artificial y garantizar su diseño y aplicación éticos. Este proyecto de investigación de tres años, financiado mediante una subvención del Instituto de Servicios de Museos y Bibliotecas, incluirá encuestas e entrevistas a las bibliotecas miembros del ULC, estudios de caso, un informe integral y una guía para profesionales de bibliotecas.

«Estar en la primera línea de la nueva tecnología es una posición común para las bibliotecas, y el rápido crecimiento de la IA ha convertido esto en un tema urgente para los líderes bibliotecarios», dijo Brooks Rainwater, Presidente y CEO de ULC. «Estamos emocionados de asociarnos con CTG UAlbany para demostrar cómo las bibliotecas públicas pueden actuar como catalizadores que fortalezcan la comprensión, el uso y el avance de la IA en nuestras vidas».

La investigación de CTG UAlbany abordará tres preguntas:

  1. ¿Qué papel pueden desempeñar las bibliotecas públicas en aumentar el conocimiento sobre la IA en la comunidad?
  2. ¿Cómo pueden las bibliotecas públicas fomentar la participación cívica inclusiva en iniciativas de IA?
  3. ¿Cuáles son las oportunidades, amenazas, beneficios y desafíos de que las bibliotecas públicas lideren la participación cívica inclusiva en iniciativas de IA?

«Aunque académicos y profesionales recomiendan la participación pública en la IA para identificar posibles perjuicios, mejorar la calidad de los conjuntos de datos y abordar mejor las necesidades de la comunidad, no hay estrategias claras para involucrar a las comunidades en iniciativas de IA ni espacios disponibles donde pueda tener lugar este compromiso», dijo Mila Gascó-Hernández, Directora de Investigación de CTG UAlbany. «Creemos que las bibliotecas públicas, como espacios de aprendizaje y socios comunitarios de confianza, pueden desempeñar un papel crucial en la promoción y el avance de la participación cívica inclusiva en iniciativas de IA».

La investigación se basará en el trabajo realizado por ambos socios. La iniciativa sigue a la investigación anterior de CTG UAlbany sobre el papel de las bibliotecas públicas en mejorar los ecosistemas de gobiernos abiertos y en el desarrollo de comunidades inteligentes. En octubre de 2023, ULC lanzó un informe de liderazgo sobre cómo las bibliotecas públicas pueden prepararse para una rápida integración de la IA en los servicios, recursos y operaciones de la biblioteca. Desde aprovechar las habilidades de ingeniería de los miembros del personal hasta utilizar la IA para avanzar en la alfabetización informacional, ULC recomienda que las bibliotecas deben estar preparadas para una rápida integración de la IA en sus servicios, recursos y operaciones.

Retos presentes y futuros sobre la adopción e implementación de RDA en las bibliotecas de América Latina

Martínez Arellano, Filiberto Felipe, y Patricia De la Rosa Valgañón (eds). Retos presentes y futuros sobre la adopción e implementación de RDA en las bibliotecas de América Latina. Universidad Nacional Autónoma de México. Instituto de Investigaciones Bibliotecológicas y de la Información, 2023.

Texto completo

Esta obra presenta los resultados de una reunión académica entre investigadores, profesores y bibliotecólogos vinculados con la teoría y la práctica de la catalogación, los catálogos y los metadatos, en donde se discutió el tema “Retos presentes y futuros sobre la adopción e implementación de RDA en las bibliotecas de América Latina” En la discusión académica, convocada por la Biblioteca Nacional de México (BNM), el Grupo RDA América Latina y el Caribe de ABINIA, el Instituto de Investigaciones Bibliotecológicas y de la Información (IIBI) y la Dirección General de Bibliotecas y Servicios Digitales de Información (DGBSDI) de la Universidad Nacional Autónoma de México (UNAM), se contó con la participación de representantes de estas instituciones, así como de otras instituciones nacionales e internacionales. La obra reúne valiosas contribuciones sobre el proceso de adopción e implementación del estándar de catalogación RDA (Resource Description and Access) en diversas bibliotecas y otras instituciones, así como contribuciones sobre las principales tendencias en la organización de la información y la catalogación: modelo LRM (Library Reference Model), Datos vinculados (Linked Data) y Grafos del conocimiento (Knowledge Graph). La publicación proporciona un mayor conocimiento de los cambios que han sido incorporados en RDA para afrontar de mejor forma su adopción e implementación en las bibliotecas de México y América Latina, así como su enseñanza e investigación

¿Qué es Copilot de Microsoft? ¿Es mejor que ChatGPT? 

Acceder a Coplitot

El año pasado, Microsoft presentó una versión especial de su motor de búsqueda Bing impulsada por inteligencia artificial (IA). A lo largo del último año y algunos meses, la compañía ha continuado expandiendo sus ofertas, utilizando el mismo servicio de motor de búsqueda como un chatbot de IA llamado Bing Chat, que ahora ha sido renombrado como Copilot. ¿Qué es exactamente Copilot y cómo se compara con otros chatbots de IA como ChatGPT y Claude? Aquí tienes lo que necesitas saber.

Microsoft Copilot es una herramienta de colaboración inteligente que utiliza técnicas de lenguaje natural y aprendizaje automático para proporcionar sugerencias útiles y personalizadas en tiempo real mientras trabajas.

¿Qué es Copilot? Esencialmente, Copilot es la versión de Microsoft de ChatGPT, utilizando el mismo lenguaje. Puedes hacerle preguntas similares y utilizarlo para resolver tareas complejas, como problemas matemáticos y crear imágenes. Copilot se basa en GPT-4, con acceso a internet para proporcionar información actualizada sobre las consultas.

¿Cuánto cuesta Copilot? Copilot es gratuito y es la única forma de acceder gratuitamente a GPT-4. Solo necesitas una cuenta de Microsoft, también gratuita.

¿Por qué hay múltiples aplicaciones Copilot? Hay varias ofertas bajo el paraguas de Copilot, como el chatbot Copilot, Windows Copilot, Copilot for Microsoft 365, Copilot for service, Copilot for Sales, entre otros. Aunque existen múltiples versiones, Copilot es el chatbot principal y es gratuito.

¿Qué modelo de lenguaje utiliza Copilot? Copilot se basa en la última versión del modelo GPT de OpenAI, GPT-4, que es el mismo modelo al que acceden los usuarios de ChatGPT Plus.

¿Cuál es el límite de chat de Copilot? Actualmente, Copilot tiene un límite de 2.000 caracteres por chat, menor que el límite de 4.096 de ChatGPT.

¿Cómo se accede a Copilot? Copilot es accesible de forma gratuita con una cuenta de Microsoft. Puedes ingresar a través del sitio web de Copilot. Microsoft no ha anunciado una opción premium para Copilot hasta ahora.

¿Hay una aplicación Copilot? Si no deseas usar el sitio web, puedes acceder a Copilot a través de la aplicación Bing en dispositivos iPhone y Android.

¿Es Copilot mejor que ChatGPT? Ambos operan de manera similar, ya que utilizan los mismos modelos de lenguaje. Copilot puede ser más eficiente y preciso que la versión gratuita de ChatGPT (GPT-3.5). Copilot se destaca en su integración con la búsqueda en línea, aprovechando la conexión a Internet a través de Bing, lo que lo hace eficiente para acceder a información actualizada. Ambos responderán de manera similar ya que utilizan el mismo modelo de lenguaje. Copilot también proporciona el enlace al contenido del que ha tomado la información.

FUENTE

El uso legítimo: mitos y conceptos erróneos sobre los derechos de autor

Carrie Russell «Figuring Out Fair Use». 2023. American Libraries Magazine. 1 de noviembre de 2023. https://americanlibrariesmagazine.org/?p=140589.

Libreros y maestros, profesionales bibliotecarios especializados en alfabetización informacional, acceso equitativo a la información y avance del aprendizaje, a menudo enfrentan ansiedades y conceptos erróneos sobre el copyright. El miedo infundado a litigios de copyright y la falta de educación sobre el tema contribuyen a esta situación.

El desconocimiento sobre el copyright se agrava en entornos educativos saturados de trabajo, donde el personal, ya sobrecargado, carece de tiempo para abordar cuestiones legales como el copyright. La complejidad añadida de los formatos digitales y las licencias privadas complica aún más la gestión efectiva del copyright en las escuelas.

La Constitución de EE.UU. dice que la ley de derechos de autor se crea «para promover el progreso de la ciencia y de las artes útiles». Su intención es, ante todo, fomentar la creación y difusión de obras originales y creativas que beneficien al público. Estas políticas también están diseñadas para avanzar en el bienestar público poniendo a disposición obras que promuevan el aprendizaje, inspiren la creación de nuevas obras, produzcan ciudadanos bien informados y fomenten la búsqueda de la felicidad.

La noción de que la ley de derechos de autor sirve al interés público puede sonar pintoresca cuando gran parte de la discusión pública, y ciertamente gran parte del debate político, gira en torno al valor monetario de los derechos de autor. Aunque los derechos de autor tienen un importante valor económico en la economía global de la información, el propósito fundamental de estas leyes es el bienestar público. Por lo tanto, los valores que subyacen a la ley de derechos de autor son totalmente coherentes con los valores profesionales de profesores y bibliotecarios.

A menudo se confunde a la gente o se le hace creer que la ley de derechos de autor es lo mismo que la ley de propiedad. Esta confusión se ve agravada por términos como propiedad intelectual, que es un término equivocado. En cambio, la ley de derechos de autor se asemeja a la regulación gubernamental en que el Congreso crea la ley para intervenir en el mercado mediante la concesión a los titulares de derechos de un monopolio -a través de los derechos exclusivos de autor- para lograr un propósito público.

A muchos bibliotecarios y profesores les molesta que no existan normas claras. A menudo, la respuesta a una pregunta concreta sobre derechos de autor exige analizar la situación para determinar si se trata de un uso legítimo. Puede que sea molesto, pero nos conviene que la ley sea ambigua. Fijar las normas de derechos de autor en piedra sería congelar la ley. La ley debe ser maleable para servir a nuestra sociedad ahora y en el futuro, un futuro sobre el que sólo podemos especular. El uso legítimo nos servirá porque está abierto a las nuevas tecnologías.

Cinco conceptos erróneos comunes sobre el copyright se destacan en el artículo:

  1. Erróneamente se cree que el propósito principal del copyright es compensar monetariamente a los autores y creadores, cuando en realidad busca fomentar el progreso de la ciencia y las artes útiles en beneficio del público.
  2. Existe el temor de que los titulares de derechos demanden a bibliotecarios, maestros y escuelas con frecuencia, cuando los casos reales en los tribunales son raros. Además, existen limitaciones legales y protecciones para instituciones educativas y bibliotecas.
  3. La confusión entre la ley de copyright y la propiedad intelectual lleva a la creencia errónea de que las obras protegidas son propiedad exclusiva de los creadores. En realidad, el copyright otorga derechos exclusivos para comercializar la obra, no para poseerla.
  4. Muchos esperan reglas legales definitivas para cuestiones de copyright, pero la ley es flexible y la determinación de uso justo a menudo requiere análisis caso por caso.
  5. Se percibe que el uso justo es difícil de entender y aplicar, cuando, en realidad, comprender y aplicar los cuatro factores del uso justo puede ser más natural con la práctica.

En conclusión, a pesar de las dificultades y malentendidos, es crucial para los profesionales de bibliotecas y educación comprender el copyright y aplicar el uso justo para equilibrar los derechos de los usuarios con los intereses de los titulares de derechos.