Archivo de la etiqueta: Principios

Principios del seguimiento de la ciencia abierta

Open Science Monitoring Initiative. (2025). The Principles of Open Science Monitoring. Recuperado de https://open-science-monitoring.org/principles/

Se presentan los principios del Open Science Monitoring Initiative (OSMI), diseñados para ofrecer un marco global que oriente la creación de sistemas de seguimiento (monitorización) de la ciencia abierta en distintos contextos nacionales, institucionales y disciplinarios.

La iniciativa surge como respuesta a la falta de directrices globales para evaluar el grado y avance de prácticas de ciencia abierta tras la adopción de la 2021 UNESCO Recommendation on Open Science.

Los principios se estructuran alrededor de tres pilares fundamentales:

  • Relevancia y significación: los indicadores deben ser útiles, adaptables a diversos contextos, desarrollados con participación de distintos actores, y capaces de reflejar impactos reales de la ciencia abierta. Esto asegura que los sistemas de monitoreo realmente aporten información significativa para políticas, instituciones o comunidades científicas.
  • Transparencia y reproducibilidad: los sistemas de monitoreo deben apoyarse en infraestructuras abiertas, usar herramientas de código abierto, documentar públicamente los procesos y metodologías, asegurar la trazabilidad de los datos y permitir la reutilización. Los datos deben ser accesibles, los métodos claros, y los resultados comunicados de forma abierta, lo cual promueve confianza, auditabilidad y comparabilidad entre contextos
  • Autoevaluación y uso responsable: la monitorización debe emplearse como herramienta de mejora continua, con revisiones periódicas, sensibilidad al contexto, y nunca como un mecanismo para clasificar o rankear a investigadores individualmente. En su lugar, debe centrarse en apoyar el desarrollo colectivo de prácticas de ciencia abierta, respetando diversidad disciplinaria, equidad, inclusión y adaptabilidad local.

El documento enfatiza que estos principios no son prescriptivos sino aspiracionales: buscan guiar y orientar la creación de sistemas de monitoreo —no imponer un modelo único. Su carácter flexible y modular facilita su adopción por diversos actores institucionales, gubernamentales o comunitarios con distintas capacidades, recursos y realidades.

Revisión de los Principios Internacionales de Catalogación (ICP) de IFLA

International Cataloguing Principles (ICP) Worldwide Review IFLA, 2025

borrador revisada de los ICP

El grupo de trabajo de los Principios Internacionales de Catalogación (ICP) ha presentado la versión revisada de los Principios, aprobada en 2025 por la Sección de Catalogación de la IFLA. Actualmente, se ha lanzado una revisión mundial para recopilar comentarios de todas las comunidades e individuos interesados.

Para comprender completamente el propósito y alcance de la revisión, se invita a los participantes a leer la Declaración de Intención publicada en la página. A continuación, se puede acceder a la versión borrador revisada de los ICP.

Se agradecen especialmente los comentarios sobre los siguientes temas:

  • ¿Considera que el lenguaje del documento es fácil de entender desde el punto de vista de un hablante no nativo de inglés?
  • ¿Cree que la estructura del documento es clara y coherente?
  • ¿Está el propósito del documento claramente expresado?
  • ¿Le fue útil la declaración de intención para evaluar el documento?
  • Una vez aprobado, ¿cómo le gustaría que IFLA se comunicara sobre el documento en el futuro?

Envíe sus respuestas por correo electrónico en un documento PDF o MS Word adjunto a: melanie.roche@bnf.fr y christian.Aliverti@nb.admin.ch

Las bibliotecas universitarias se preparan para un mundo de investigación y erudición influenciado por la Inteligencia Artificial

Ruttenberg, Judy. «Research Libraries Prepare for a World of AI-Influenced Research and Scholarship». Association of Research Libraries (blog), 23 de mayo de 2024. https://www.arl.org/blog/research-libraries-prepare-for-a-world-of-ai-influenced-research-and-scholarship/.

Las bibliotecas de investigación, responsables de preservar el pasado, el presente y el futuro del conocimiento, tienen una larga experiencia con tecnologías disruptivas. Ahora están utilizando el crecimiento de la inteligencia artificial (IA), especialmente la IA generativa, para mejorar sus servicios, crear oportunidades educativas y evaluar su impacto en las operaciones y colecciones. La Asociación de Bibliotecas de Investigación (ARL) se asegura de que sus miembros y las comunidades a las que sirven prosperen en medio de esta disrupción tecnológica. Esto implica equilibrar las oportunidades innovadoras de la IA generativa con las posibles amenazas al acceso equitativo, la libertad intelectual y la integridad de la información.

La ARL ha sido históricamente fuerte en la defensa de un régimen de derechos de autor equilibrado. A través de la Library Copyright Alliance (LCA), la Asociación emitió en 2023 un conjunto de principios para los derechos de autor y la inteligencia artificial. Estos principios fueron presentados a la Oficina de Derechos de Autor de EE. UU. y a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. Los principios destacan la diferencia crucial entre lo que un modelo de IA aprende y lo que produce en relación con las obras protegidas por derechos de autor. En resumen, para que la IA generativa pueda innovar, es necesario proteger el uso justo en el entrenamiento de modelos de IA, mientras que la ley actual puede abordar las posibles infracciones de derechos de autor en las producciones de IA.

Como líder en la creación de normas para bibliotecas de investigación, la ARL también ha formulado principios generales sobre la IA generativa. Estos principios buscan influir en las políticas y abogar por el desarrollo responsable de tecnologías de IA, promoviendo prácticas éticas y transparentes, y construyendo confianza entre todas las partes involucradas, tanto dentro de las bibliotecas como en el entorno de investigación en general.

Además, la ARL y la Coalición para la Información en Red (CNI) han publicado un conjunto de escenarios que anticipan el impacto del aprendizaje automático y la IA generativa en el ecosistema del conocimiento y la investigación para el año 2035. Estos escenarios no pretenden predecir el futuro, sino ayudar a imaginarlo y explorar las incertidumbres que el sector enfrentará. En una reciente reunión en Boston, la comunidad de la ARL utilizó estos escenarios para identificar y priorizar oportunidades.

Invertir en bibliotecas siempre ha beneficiado a las comunidades durante las disrupciones tecnológicas. La ARL y sus bibliotecas miembro colaboran con socios del sector de investigación y aprendizaje para preservar el patrimonio cultural, apoyar nuevas formas de investigación y publicación, y promover el éxito estudiantil. La Asociación invita a colaborar en el avance de sus principios de IA y en el uso de estos escenarios para asegurar un entorno informativo que promueva el progreso del conocimiento.

Principios Rectores de las Bibliotecas Universitarias y de Investigación para el uso de la Inteligencia Artificial de ARL

Research Libraries Guiding Principles for Artificial Intelligence.” Association of Research Libraries, April 2024

Texto completo


La articulación de un conjunto de principios rectores para la inteligencia artificial (IA) en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general.

La Asociación de Bibliotecas de Investigación (ARL, por sus siglas en inglés) ha publicado un conjunto de «Principios Rectores de las Bibliotecas de Investigación para la Inteligencia Artificial». Las tecnologías de inteligencia artificial (IA), y en particular, la IA generativa, tienen un gran potencial para mejorar el acceso a la información y promover la apertura en los resultados de investigación. Sin embargo, la IA también tiene el potencial de perturbar los paisajes de información y las comunidades que las bibliotecas de investigación apoyan y sirven. La creciente disponibilidad de modelos de IA plantea muchas posibilidades y también suscita varios consideraciones éticas, profesionales y legales.

Articular un conjunto de principios rectores para la IA en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general. Estos principios servirán como un marco fundamental para el uso ético y transparente de la IA, y reflejan los valores que sostienen las bibliotecas de investigación. La ARL se apoyará en estos principios en nuestra defensa política y compromiso.

Desarrollados a través del Comité de Académicos y Academia de la ARL y el Comité de Defensa y Política Pública de la ARL, estos principios han sido creados y refinados después de múltiples reuniones del comité, una sesión de oficina abierta para todos los miembros y un período de comentarios abierto. Durante el período de comentarios abierto solo, recibimos más de 60 comentarios que han sido tenidos en cuenta en el desarrollo de estos principios.

Los principios incluyen:

  1. Las bibliotecas democratizan el acceso a herramientas y tecnología de inteligencia artificial para fomentar la alfabetización digital entre todas las personas.
  2. Las bibliotecas se comprometen a comprender dónde están presentes las distorsiones y sesgos en los modelos y aplicaciones de IA.
  3. Las bibliotecas abogan por la transparencia e integridad de la información.
  4. Las bibliotecas creen en la importancia de la participación humana en los procesos de toma de decisiones críticas relacionadas con la IA.
  5. Las bibliotecas priorizan la seguridad y privacidad de los usuarios en el uso de herramientas y tecnología de IA.
  6. Las bibliotecas consideran que la ley de derechos de autor en Estados Unidos y Canadá es lo suficientemente flexible y robusta como para responder a muchos problemas de derechos de autor que surgen de la intersección de la tecnología y la inteligencia artificial.
  7. Las bibliotecas negocian para preservar el uso académico de la información digital.

Microsoft anuncia «principios de acceso a la IA» para contrarrestar los problemas de competencia de OpenAI

Microsoft’s AI Access Principles: Our commitments to promote innovation and competition in the new AI economy
Feb 26, 2024 | Brad Smith – Vice Chair & President

Texto completo

Microsoft presenta un nuevo marco que llama «Principios de Acceso a la IA» — un plan de once puntos que Microsoft dijo que «gobernará cómo operaremos nuestra infraestructura de centro de datos de IA y otros activos de IA importantes en todo el mundo».

Los puntos cubren áreas como la construcción y operación de una tienda de aplicaciones para permitir a las empresas elegir diferentes modelos de lenguaje y otros productos de IA, y un compromiso de mantener los datos propietarios de la empresa fuera de sus modelos de entrenamiento. También incluye un compromiso de permitir a los clientes cambiar de proveedores de nube o servicios dentro de la nube, si así lo eligen. También detalla un enfoque en la construcción de ciberseguridad en torno a los servicios de IA; atención a la construcción de centros de datos y otra infraestructura de manera ambientalmente responsable; e inversiones en educación.

Brad Smith, el presidente y vicepresidente de Microsoft, anunció el marco hoy en el Mobile World Congress en Barcelona. Aunque la implicación aquí es que Microsoft está abierto al diálogo y la conversación con las partes interesadas, irónicamente, Smith entregó la noticia en un discurso principal, sin margen para preguntas de seguimiento.

El anuncio llega al mismo tiempo que Microsoft está siendo objeto de un escrutinio regulatorio creciente por su inversión de 13 mil millones de $ en OpenAI, que actualmente le otorga una participación del 49% en la startup que lidera la carga de los servicios de IA generativa a nivel mundial. En enero, el organismo europeo de vigilancia de la competencia dijo que estaba evaluando si la inversión cae bajo las normas antimonopolio.

Los principios apuntan específicamente a cómo terceros podrían usar las plataformas y servicios de Microsoft para desarrollar productos de IA, un área comercial crítica y un servicio empresarial que la compañía espera desarrollar en los próximos años, no solo con los operadores que asisten al MWC, sino también con empresas y organizaciones de una gama mucho más amplia de industrias.

«Si están entrenando un modelo en nuestra infraestructura, si lo están implementando en nuestra infraestructura, reconocemos que sus datos son sus datos, no los accederemos ni los utilizaremos para competir con las empresas que dependen de nuestra infraestructura», dijo Smith.

Estos Principios de Acceso a la IA, para ser claros, no son reglas vinculantes para Microsoft, ni hay ningún tipo de detalle sobre cómo se podrían verificar o rastrear los compromisos, pero sirven para anticipar eso. En caso de investigaciones regulatorias formales, es probable que la empresa los utilice para argumentar que está tomando medidas proactivas para garantizar la competencia en el mercado.

«De hecho, a partir de hoy, tenemos casi 1600 modelos funcionando en nuestros centros de datos, 1500 de los cuales son modelos de código abierto», dijo Smith en el escenario hoy, «mostrando cómo nosotros como empresa… nos enfocamos en modelos propietarios y de código abierto, empresas, grandes y pequeñas».

Por otro lado, al hacerlos públicos de esta manera, los principios se convierten en un pronunciamiento público que el público, los competidores de Microsoft y, especialmente, los reguladores, podrían usar como punto de referencia si creen que Microsoft no ha estado a la altura.

Código de Ética de la Asociación Americana de Bibliotecas (ALA)

Código de Ética. ALA, 2021

https://www.ala.org/tools/ethics


El Código de Ética de la ALA es responsabilidad del Comité de Ética Profesional (COPE, por sus siglas en inglés). El Código de Ética es el documento que traduce los valores de la libertad intelectual que definen la profesión de bibliotecarios en principios amplios que pueden ser utilizados por miembros individuales de esa profesión, así como por otros empleados en una biblioteca, como un marco para abordar situaciones que involucran conflictos éticos.

Como miembros de la Asociación Americana de Bibliotecas, reconocemos la importancia de codificar y dar a conocer a la profesión y al público en general los principios éticos que guían el trabajo de bibliotecarios, otros profesionales que brindan servicios de información, fiduciarios de bibliotecas y personal de bibliotecas.

Los dilemas éticos ocurren cuando los valores entran en conflicto. El Código de Ética de la Asociación Americana de Bibliotecas establece los valores a los que estamos comprometidos, y encarna las responsabilidades éticas de la profesión en este entorno cambiante de la información.

Influyendo significativamente o controlando la selección, organización, preservación y difusión de información. En un sistema político fundamentado en una ciudadanía informada, somos miembros de una profesión explícitamente comprometida con la libertad intelectual y la libertad de acceso a la información. Tenemos una obligación especial de garantizar el libre flujo de información e ideas para las generaciones presentes y futuras.

Los principios de este Código se expresan en declaraciones amplias para guiar la toma de decisiones éticas. Estas declaraciones proporcionan un marco; no pueden ni deben dictar conductas para cubrir situaciones particulares.

  1. Proporcionamos el más alto nivel de servicio a todos los usuarios de la biblioteca a través de recursos apropiados y útilmente organizados; políticas de servicio equitativas; acceso equitativo; y respuestas precisas, imparciales y corteses a todas las solicitudes.
  2. Defendemos los principios de la libertad intelectual y resistimos todos los esfuerzos para censurar los recursos de la biblioteca.
  3. Protegemos el derecho de cada usuario de la biblioteca a la privacidad y confidencialidad con respecto a la información buscada o recibida y los recursos consultados, prestados, adquiridos o transmitidos.
  4. Respetamos los derechos de propiedad intelectual y abogamos por un equilibrio entre los intereses de los usuarios de la información y los titulares de derechos.
  5. Tratamos a los compañeros de trabajo y otros colegas con respeto, equidad y buena fe, y abogamos por condiciones de empleo que salvaguarden los derechos y el bienestar de todos los empleados de nuestras instituciones.
  6. No promovemos intereses privados a expensas de los usuarios de la biblioteca, colegas o nuestras instituciones empleadoras.
  7. Distinguimos entre nuestras convicciones personales y deberes profesionales y no permitimos que nuestras creencias personales interfieran con la representación justa de los objetivos de nuestras instituciones o la provisión de acceso a sus recursos de información.
  8. Nos esforzamos por la excelencia en la profesión al mantener y mejorar nuestro propio conocimiento y habilidades, alentando el desarrollo profesional de los compañeros de trabajo, y fomentando las aspiraciones de posibles miembros de la profesión.
  9. Afirmamos la dignidad inherente y los derechos de cada persona. Trabajamos para reconocer y desmantelar sesgos sistémicos e individuales; para enfrentar la inequidad y la opresión; para mejorar la diversidad y la inclusión; y para avanzar en la justicia racial y social en nuestras bibliotecas, comunidades, profesión y asociaciones a través de la conciencia, la defensa, la educación, la colaboración, los servicios y la asignación de recursos y espacios.

Adoptado en la Reunión de Mediados de Invierno de 1939 por el Consejo de la ALA; enmendado el 30 de junio de 1981; el 28 de junio de 1995; el 22 de enero de 2008; y el 29 de junio de 2021.

Principios para unas tecnologías de IA generativa responsables, fiables y que protejan la intimidad

Canada, Office of the Privacy Commissioner of. 2023. «Principles for Responsible, Trustworthy and Privacy-Protective Generative AI Technologies». 7 de diciembre de 2023. https://www.priv.gc.ca/en/privacy-topics/technology/artificial-intelligence/gd_principles_ai/.

En el contexto general de los avances continuos en las tecnologías de inteligencia artificial, una versión de la tecnología ha experimentado un desarrollo particularmente rápido, una proliferación de casos de uso y un aumento en la adopción en los últimos tiempos: la inteligencia artificial generativa. La inteligencia artificial generativa es un subconjunto del aprendizaje automático en el que los sistemas se entrenan en conjuntos masivos de información, a menudo incluyendo información personal, para generar contenido como texto, código informático, imágenes, video o audio en respuesta a una solicitud del usuario. Este contenido es probabilístico y puede variar incluso en respuesta a múltiples usos de solicitudes similares.

Las autoridades en múltiples campos en todo el mundo están reconociendo los riesgos potenciales planteados por esta tecnología, como se evidencia en la declaración conjunta de las autoridades de protección de datos y privacidad del G7 en junio de 2023 sobre las tecnologías de inteligencia artificial generativa, la Declaración de los líderes del G7 en noviembre de 2023 que incluyó principios rectores y un código de conducta para organizaciones que desarrollan sistemas de inteligencia artificial avanzados, y la resolución de la Asamblea Global de Privacidad en octubre de 2023 sobre sistemas de inteligencia artificial generativa. El Comisionado de Privacidad de Canadá (OPC) y sus homólogos en Columbia Británica, Quebec y Alberta también tienen una investigación abierta relacionada con un servicio específico de inteligencia artificial generativa. Las autoridades de privacidad de todo el mundo han instado recientemente a las organizaciones a ejercer gran precaución antes de recopilar información personal «accesible públicamente», que aún está sujeta a leyes de protección de datos y privacidad en la mayoría de las jurisdicciones. Esta práctica es común al entrenar sistemas de inteligencia artificial generativa. Las autoridades de privacidad también han estado trabajando con sus homólogos en campos relacionados, como los comisionados de derechos humanos, para pedir fuertes salvaguardias que aseguren que los sistemas de inteligencia artificial sean seguros, protectores de la privacidad, transparentes, responsables y afirmativos de los derechos humanos .

Si bien las herramientas de inteligencia artificial generativa pueden plantear riesgos novedosos para la privacidad y plantear nuevas preguntas e inquietudes sobre la recopilación, uso y divulgación de información personal, no se encuentran fuera de los marcos legislativos actuales. Las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa tienen la obligación de garantizar que sus actividades cumplan con las leyes y regulaciones de privacidad aplicables en Canadá. Las organizaciones también deben reconocer que, para construir y mantener una sociedad digital en la que la innovación sea socialmente beneficiosa y la dignidad humana esté protegida, el desarrollo y uso de la inteligencia artificial deben ser responsables y confiables.

En este documento, se identifican consideraciones para la aplicación de los principios clave de privacidad a las tecnologías de inteligencia artificial generativa. Reconocemos que la inteligencia artificial generativa es un campo emergente y que nuestra comprensión de ella evolucionará con el tiempo. Los comisionados de privacidad federales, provinciales y territoriales de Canadá continuarán explorando este tema complejo y pueden proporcionar orientación u otros recursos a medida que aprendamos más sobre la tecnología y sus riesgos potenciales, incluso a medida que se completen investigaciones formales relacionadas con la tecnología.

Las obligaciones bajo la legislación de privacidad en Canadá variarán según la naturaleza de la organización (si se encuentra en el sector privado, de la salud o público) y las actividades que realice. Como tal, aunque utilizamos «debería» a lo largo de este documento, muchas de las consideraciones enumeradas serán necesarias para que una organización cumpla con la ley de privacidad aplicable. Las organizaciones son responsables de comprender y cumplir con estas leyes. También señalamos que los principios establecidos a continuación no reflejan exhaustivamente todos los requisitos de cumplimiento bajo las leyes de privacidad y otras leyes y no vinculan a investigaciones o fallos específicos llevados a cabo por los comisionados federales, provinciales o territoriales de privacidad de Canadá, según las circunstancias individuales de cada caso.

El documento tiene como objetivo ayudar a las organizaciones que desarrollan, proporcionan o utilizan inteligencia artificial generativa a aplicar los principales principios de privacidad canadienses. Para este documento, utilizamos la siguiente terminología:

Desarrolladores y Proveedores: Individuos u organizaciones que desarrollan (incluido el entrenamiento) modelos básicos o sistemas de inteligencia artificial generativa, o que ponen dichos servicios en el mercado. En resumen, aquellas organizaciones que determinan cómo opera un sistema de inteligencia artificial generativa, cómo se entrena y prueba inicialmente, y cómo puede utilizarse.

Organizaciones que utilizan inteligencia artificial generativa: Organizaciones (o individuos que actúan en nombre de una organización) que utilizan un sistema de inteligencia artificial generativa como parte de sus actividades. Esto podría incluir usos dirigidos al público (por ejemplo, un chatbot basado en inteligencia artificial generativa para interactuar con clientes) o uso privado (por ejemplo, el uso de inteligencia artificial generativa como parte de un sistema de toma de decisiones). Las organizaciones que ajustan un modelo básico para un propósito específico (como al entrenarlo aún más en un conjunto de datos propio de la organización) están incluidas en esta categoría.

Una organización puede cambiar entre roles o desempeñar múltiples roles al mismo tiempo. Las actividades realizadas (incluida la recopilación, el uso o la divulgación de información personal) por una organización también variarán dentro de cada grupo. Sin embargo, la división en «desarrolladores y proveedores» y «organizaciones que utilizan inteligencia artificial generativa» es una forma útil de examinar la aplicación de los principios de privacidad a múltiples elementos del ecosistema de inteligencia artificial generativa.

Para mayor claridad, estos principios se centran en la legislación y regulación de privacidad, y cómo pueden aplicarse a las organizaciones. Sin embargo, reconocemos que las personas u organizaciones pueden tener más obligaciones, restricciones o responsabilidades según otras leyes, regulaciones o políticas.

Declaración de IARLA: Principios Internacionales para Bibliotecas de Investigación en una Internet Segura y Abierta

Las bibliotecas de investigación, junto con sus instituciones de origen, proporcionan acceso a Internet para estudiantes, profesores, investigadores y las comunidades más amplias a las que servimos. Como tal, es una prioridad clave asegurar que los usuarios tengan acceso sin restricciones a la información en un entorno seguro y abierto. A medida que la tecnología avanza y los gobiernos de todo el mundo intentan desarrollar legislación para abordar estos cambios, hay una falta de consistencia entre las naciones en la legislación propuesta. Mientras las bibliotecas intentan navegar por propuestas legislativas y regulatorias a nivel mundial, los miembros de la Alianza Internacional de Asociaciones de Bibliotecas de Investigación (IARLA) respaldan los siguientes principios, que guiarán la posición y defensa de cada miembro de la IARLA en relación con el discurso y las funciones en Internet:

  1. Facilitar el acceso al contenido y proporcionar plataformas para el discurso de terceros ha sido un papel central de las bibliotecas de investigación durante siglos.
  2. Según las Naciones Unidas, el acceso a Internet es un derecho humano, y muchas personas acceden a Internet a través de las bibliotecas.
  3. La integridad y el acceso a largo plazo a la información son fundamentales para la investigación y la creación y preservación del conocimiento.
  4. Las bibliotecas de investigación respaldan un «entorno en línea seguro, inclusivo y abierto».

En el contexto de estos principios y en nuestros paisajes geopolíticos, la IARLA sostiene que las bibliotecas de investigación:

  1. Apoyan el principio de neutralidad de la red, es decir, que los usuarios de Internet deben tener el derecho de acceder y proporcionar contenido y utilizar servicios en línea según lo deseen. Apoyamos las reglas de neutralidad de la red, como proteger a los usuarios de prácticas como el bloqueo, la discriminación y la prioritización pagada.
  2. Apoyan un equilibrio entre la privacidad digital, el derecho al olvido y el derecho a la privacidad individual con la libertad de expresión de los demás. Instamos a la precaución contra la eliminación excesiva de contenido, especialmente a través de filtros o inteligencia artificial, y respetamos la integridad del registro histórico.
  3. Dependen de las protecciones de responsabilidad de las plataformas digitales para cumplir con sus misiones de servicio público.
  4. Tienen políticas para gestionar el discurso y frenar el acoso o el discurso de odio.
  5. Se comprometen a representar la plena diversidad de la experiencia humana. Como tal, proporcionamos plataformas para que las personas exploren una variedad de perspectivas siempre que no sean discriminatorias, ataques personales o acoso.
  6. Reconocen que los filtros algorítmicos afectan el contenido en línea de muchas maneras y se esfuerzan por utilizar estas herramientas de manera transparente y no discriminatoria.
  7. Facilitan y enseñan alfabetización mediática y de datos, con el objetivo de mejorar el acceso a información en línea reputada y verificable.
  8. Apoyan la colaboración global en investigación, que depende de una internet abierta y segura.
  9. Se oponen a prácticas anticompetitivas y monopolísticas que llevan a restringir el flujo de información abierta en Internet.
  10. Apoyan la declaración pública de LIBER sobre la Ley de Servicios Digitales, que sostiene que los gobiernos deben «reconocer la posición única de las universidades y otras organizaciones de investigación en la provisión de servicios digitales e infraestructura dirigidos al bien común y proporcionar un marco legal general que excluya a los repositorios relacionados con la universidad e investigación y sus correspondientes infraestructuras de la legislación orientada al mercado… para evitar daños colaterales no deseados de la legislación actual y futura dirigida a actores comerciales».

Principios ACRL para la protección de datos sensibles en la investigación académica

45346314045_bfef18657b_b_d

Nurnberger, A. L., Lach, P., Goben, A. H., De Groote, S., & Shorish, Y. (2018, November 27). ACRL Primer for Protecting Sensitive Data in Academic Research, ACRL 2018.

Texto completo

Esta publicación de la Asociación de Bibliotecas Universitarias y de Investigación (ACRL) fue preparada por el  comité de ACRL Research and Scholarly Environment Committee (ReSEC) como un recurso de comunicación para la protección de datos confidenciales que pueden ser utilizados o producidos en el curso de la realización de investigaciones académicas.

Este documento proporciona una rápida del por qué y cómo de las regulaciones y prácticas actuales para la protección de datos confidenciales. Se basa en el trabajo creado en los Países Bajos para el Reglamento General de Protección de Datos en la legislación de la UE, pero adaptado al contexto de los Estados Unidos. El documento de ACRL para la protección de datos sensibles en la investigación académica está bajo licencia CC BY-NC 4.0

Principios:

  1. Reconocer que la gestión de datos de investigación es un esfuerzo de colaboración para permitir una investigación responsable. Si se dispone de datos sensibles, la protección de la intimidad de los interesados es un aspecto esencial.
  2. Invertir en la comprensión del qué, el por qué y el cómo salvaguardar la privacidad en investigación académica y obtener el apoyo, la infraestructura, las herramientas y los instrumentos pertinentes para la protección de datos.
  3. Evaluar la disponibilidad de la privacidad de tu organización y reconocer las diferencias de perspectiva a través de la institución. Desarrollar un plan de salvaguarda de la privacidad en el ámbito académico de investigación.
  4. Definir e implementar un estrategia para mantener la integridad y la protección de los datos sensibles.