Archivo de la etiqueta: Recomendaciones

Recomendaciones para mejorar la claridad metodológica en las publicaciones

Batista Leite, S., Brooke, M., Carusi, A. et al., Promoting reusable and open methods and protocols (PRO-MaP) – Recommendations to improve methodological clarity in life sciences publications, Publications Office of the European Union, 20242024, https://data.europa.eu/doi/10.2760/46124

Las publicaciones académicas en campos de las ciencias de la vida, como biomedicina y biología, a menudo carecen de detalles esenciales sobre los métodos de estudio. Esta falta de información puede socavar la confianza, limitar el uso de nuevos métodos y dificultar la reproducibilidad y reutilización de datos. La iniciativa Promoting Reusable and Open Methods and Protocols (PRO-MaP) busca mejorar la calidad y claridad en el reporte de métodos detallados, estructurados y abiertos, así como protocolos reutilizables paso a paso en las ciencias de la vida, apoyando las políticas de ciencia abierta y valorización de la UE.

Las recomendaciones se dirigen a cuatro grupos de interés: investigadores, instituciones y departamentos de investigación, editores y publicaciones, y financiadores. Estas recomendaciones están diseñadas para mejorar la calidad del reporte de métodos, recompensar e incentivar el intercambio de métodos, fomentar el intercambio de protocolos detallados en repositorios dinámicos que permitan su actualización a medida que evolucionan, y promover el uso responsable de citas abreviadas metodológicas.

Acciones clave

  • Investigadores: Deben proporcionar detalles metodológicos claros y precisos en sus publicaciones, utilizar y compartir protocolos paso a paso en repositorios adecuados y actualizar estos protocolos conforme evolucionen.
  • Instituciones y departamentos de investigación: Necesitan implementar cambios en políticas que apoyen y monitoreen la implementación de estas recomendaciones, creando un entorno que incentive a los científicos a seguir estas directrices.
  • Editores y publicaciones: Deben asegurar que los artículos incluyan detalles metodológicos adecuados y promover políticas que favorezcan la transparencia y reproducibilidad de los estudios.
  • Financiadores: Deberían establecer requisitos que incentiven la correcta documentación y compartición de métodos y protocolos en las investigaciones que financian.

El enfoque principal de las recomendaciones es capturar detalles metodológicos claros y precisos, más allá de los lineamientos generales de diseño y reporte de estudios. Cambios en políticas, junto con planes de implementación y monitoreo, serán cruciales para las instituciones, editores y financiadores al adoptar estas recomendaciones. Estas organizaciones deben crear un entorno que incentive a los científicos a implementar y ser recompensados por seguir las recomendaciones para investigadores.

¿Qué hacer una vez que el artículo es retractado?: NISO emite prácticas recomendadas sobre la comunicación de retractaciones, eliminaciones y expresiones de preocupación

Communication of Retractions, Removals, and Expressions of Concern (CREC): A Recommended Practice of the National Information Standards Organization. NISO, 2024

Texto completo

La confianza es el elemento central de las comunicaciones académicas, distinguiéndolas de otras formas de publicación. Este artículo aborda la importancia de corregir errores en la publicación académica mediante procesos de retractación, eliminación y expresiones de preocupación. Estos procedimientos son cruciales para mantener la confianza en la validez de los resultados publicados.

Hasta ahora no habia una forma consistente de comunicar el estado de retractación de un trabajo académico. Hace dos semanas, NISO (National Information Standards Organization) emitió una nueva Práctica Recomendada sobre la Comunicación de Retractaciones, Eliminaciones y Expresiones de Preocupación (CREC). El objetivo de esta práctica es establecer mejores prácticas para la creación, transferencia y visualización de metadatos, facilitando la comunicación oportuna y eficiente de información a todos los interesados.

El proyecto CREC surgió de la Conferencia NISO Plus 2021, y con el apoyo de la Fundación Alfred P. Sloan, un grupo de trabajo de NISO compuesto por más de dos docenas de editores, intermediarios, bibliotecarios e investigadores desarrolló un conjunto de recomendaciones. La práctica recomendada establece una terminología consistente y protocolos de visualización para la presentación de trabajos retractados. También proporciona orientación sobre cómo distribuir metadatos relacionados con retractaciones y define las responsabilidades de los editores.

Algunas recomendaciones incluyen anteponer «RETRACTED:» en el título del artículo y usar marcas de agua y etiquetas consistentes en las páginas de contenido. Las notificaciones de retractación deben publicarse por separado, pero ser accesibles gratuitamente y vinculadas al contenido original debidamente etiquetado. Además, el documento describe cómo implementar estas recomendaciones y compartir la información con el ecosistema académico, incluyendo agregadores, servicios de descubrimiento y preservación.

El CREC define elementos de metadatos específicos para publicaciones retractadas y notificaciones de retractación, clasificándolos como «Esenciales», «Esenciales si están disponibles» o «Recomendados». Estos metadatos son cruciales para limitar la difusión de investigaciones retractadas en sistemas digitales.

Finalmente, la práctica recomendada de CREC está disponible gratuitamente y NISO organizará un seminario web sobre el tema el 23 de julio de 2024.

Para más información, visite: NISO CREC Recommended Practice.

Principios Globales de las Naciones Unidas para la Integridad de la Información

United Nations Global Principles for Information Integrity. ONU, 2024

Texto completo

Los avances tecnológicos han revolucionado las comunicaciones, conectando a las personas a una escala antes inimaginable. Han apoyado a las comunidades en tiempos de crisis, elevado las voces marginadas y ayudado a movilizar movimientos globales por la justicia racial y la igualdad de género.

Sin embargo, estos mismos avances han permitido la propagación de desinformación, información errónea y discursos de odio a un volumen, velocidad y viralidad sin precedentes, poniendo en riesgo la integridad del ecosistema de la información.

Los nuevos y crecientes riesgos derivados de los avances en tecnologías de inteligencia artificial han hecho que fortalecer la integridad de la información sea una de las tareas más urgentes de nuestro tiempo.

Esta amenaza global clara y presente exige una acción internacional coordinada.

Los Principios Globales para la Integridad de la Información de las Naciones Unidas nos muestran que otro futuro es posible.

Recomendaciones

Las recomendaciones dentro de los Principios Globales están diseñadas para fomentar espacios de información más saludables y seguros que promuevan los derechos humanos, sociedades pacíficas y un futuro sostenible.

Las propuestas incluyen:

  • Evitar la desinformación y el discurso de odio: Los gobiernos, empresas tecnológicas, anunciantes, medios de comunicación y otros actores deben abstenerse de usar, apoyar o amplificar la desinformación y el discurso de odio para cualquier propósito.
  • Acceso a la información y libertad de prensa: Los gobiernos deben proporcionar acceso oportuno a la información, garantizar un panorama mediático libre, viable, independiente y plural, y asegurar fuertes protecciones para periodistas, investigadores y la sociedad civil.
  • Seguridad y privacidad por diseño: Las empresas tecnológicas deben asegurar la seguridad y privacidad desde el diseño en todos sus productos, junto con una aplicación consistente de políticas y recursos en todos los países e idiomas, prestando especial atención a los grupos que a menudo son atacados en línea. Deben mejorar la respuesta a crisis y tomar medidas para apoyar la integridad de la información durante las elecciones.
  • Desarrollo responsable de IA: Todos los involucrados en el desarrollo de tecnologías de inteligencia artificial deben tomar medidas urgentes, inclusivas y transparentes para garantizar que todas las aplicaciones de IA se diseñen, desplieguen y utilicen de manera segura, responsable y ética, y respeten los derechos humanos.
  • Modelos de negocio éticos: Las empresas tecnológicas deben explorar modelos de negocio que no dependan de la publicidad programática y que no prioricen el engagement por encima de los derechos humanos, la privacidad y la seguridad, permitiendo a los usuarios una mayor elección y control sobre su experiencia en línea y sus datos personales.
  • Transparencia en la publicidad digital: Los anunciantes deben exigir transparencia en los procesos de publicidad digital del sector tecnológico para garantizar que los presupuestos publicitarios no financien inadvertidamente la desinformación o el odio ni socaven los derechos humanos.
  • Transparencia y auditorías independientes: Las empresas tecnológicas y los desarrolladores de IA deben asegurar una transparencia significativa y permitir el acceso a datos a investigadores y académicos, respetando la privacidad de los usuarios, encargar auditorías independientes y co-desarrollar marcos de responsabilidad industrial.
  • Protección y empoderamiento de los niños: Gobiernos, empresas tecnológicas, desarrolladores de IA y anunciantes deben tomar medidas especiales para proteger y empoderar a los niños, proporcionando recursos para padres, tutores y educadores.

Plan de Acción EDUCAUSE 2024: Políticas y directrices de AI

EDUCAUSE. «2024 EDUCAUSE Action Plan: AI Policies and Guidelines». Accedido 26 de mayo de 2024. https://www.educause.edu/research/2024/2024-educause-action-plan-ai-policies-and-guidelines.

El Estudio del Panorama de la IA 2024 de EDUCAUSE, basado en una encuesta a más de 900 profesionales de tecnología en educación superior, reveló brechas significativas en las políticas y directrices relacionadas con la IA en la educación superior

«Solo el 23% de los encuestados indicó que su institución tiene políticas de uso aceptable relacionadas con la IA ya implementadas, y casi la mitad (48%) de los encuestados no estuvo de acuerdo o estuvo en desacuerdo en que su institución tiene políticas y directrices adecuadas para permitir una toma de decisiones ética y efectiva sobre el uso de la IA».

Más de un año después del «renacimiento de la IA» que revolucionó las expectativas dentro y fuera del aula, la mayoría de las instituciones aún están intentando ponerse al día y establecer políticas y directrices que ayuden a sus líderes, personal, profesores y estudiantes a utilizar estas nuevas y poderosas tecnologías de manera efectiva y segura.

Afortunadamente, las instituciones no necesitan empezar desde cero en el desarrollo de sus políticas y directrices de IA. Gracias al trabajo de Cecilia Ka Yuk Chan y WCET, las instituciones cuentan con una base sobre la cual construir, un marco de políticas que abarca la gobernanza institucional, las operaciones y la pedagogía. Este marco ayuda a garantizar que las políticas y directrices relacionadas con la IA aborden de manera integral aspectos críticos de la vida y el funcionamiento institucional:

Gobernanza incluye la gestión de datos, la evaluación del uso de la IA en toda la institución, la promoción y el monitoreo del uso de la IA por parte de profesores y personal (incluida la investigación), el acceso inclusivo y equitativo, la propiedad intelectual y el uso de la IA para prácticas de promoción, tenencia y recontratación.

Operaciones abarca el desarrollo profesional (capacitación y apoyo), el desarrollo y mantenimiento de la infraestructura para la IA, y la revisión y recomendación de la implementación de la IA para mejorar las prácticas operativas.

Pedagogía incluye la integridad académica, las prácticas de evaluación, la comunicación clara a los estudiantes sobre las expectativas de la IA, el desarrollo de competencias y habilidades en IA para la preparación laboral, la comprensión del sesgo algorítmico, la interacción regular y sustantiva, y la accesibilidad del aprendizaje.

Con este marco como telón de fondo, se desarrolló este plan de acción convocando a un panel de profesionales de tecnología en educación superior para proponer posibles acciones que las instituciones podrían tomar en los próximos dos años para comenzar a establecer políticas y directrices efectivas de IA. Se pidió a los panelistas que revisaran el contenido del Plan de Acción de Horizon 2023 de EDUCAUSE: IA Generativa, reflexionando específicamente sobre el «futuro preferido» descrito en este informe, y que enumeraran los posibles impactos de las políticas y directrices de IA en individuos, unidades, instituciones y colaboraciones entre instituciones. Luego se les pidió a los panelistas que consideraran las acciones que podrían ayudar a los interesados en la educación superior a navegar tanto las políticas y directrices de IA existentes como las nuevas.

En comparación con la línea de tiempo de diez años que normalmente se utiliza para el trabajo de previsión, la ventana de dos años permitió a los panelistas reflexionar sobre los desafíos y oportunidades mucho más inmediatos para la planificación y toma de decisiones del presente. Las capacidades y necesidades de la IA están evolucionando rápidamente, y los líderes de la educación superior deben tomar medidas ahora. Delineando acciones que pueden aprovechar las políticas y directrices existentes o ayudarnos a crear nuevas, el panel ha comenzado a trazar un camino a seguir para la práctica de la IA en la educación superior que esperamos encuentre perspicaz, relevante y accionable.

EDUCAUSE y la Cooperativa WICHE para Tecnologías Educativas (WCET) colaboraron en la planificación y recopilación de datos para este plan de acción.

Aprovechando Políticas y Directrices Existentes

Muchas instituciones ya tienen políticas, directrices y procesos que, aunque no específicos para la IA, podrían estar relacionados o ser aplicables a herramientas y prácticas de IA. En lugar de «reinventar la rueda» creando un conjunto completamente nuevo de políticas y directrices, los líderes de estas instituciones podrían centrarse en comprender cómo aprovechar mejor los recursos y apoyos existentes. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a construir sobre lo que ya existe:

Acciones Individuales

  • Familiarizarse con herramientas comunes de IA.
  • Ser buenos administradores de los datos institucionales y las directrices existentes.
  • Desarrollar la alfabetización individual en IA.

Acciones Departamentales o de Unidad

  • Aclarar qué políticas departamentales o de unidad existentes se aplican a la IA y cuáles no.
  • Desarrollar un lenguaje estándar para múltiples tipos de uso de IA en los cursos.
  • Crear oportunidades de colaboración para descubrir qué funciona y qué no.

Acciones Institucionales

  • Formar comités interfuncionales y comunidades de práctica para evaluar y mejorar las prácticas de IA.
  • Ampliar la formación profesional existente para incluir capacitación en IA para todo el personal docente, administrativo y estudiantil.
  • Mapear las políticas y directrices de IA a la misión, valores y estrategias existentes de la institución.

Acciones Multiinstitucionales

  • Colaborar para crear un entendimiento común de las implicaciones potenciales de las regulaciones estatales/federales.
  • Desarrollar criterios de evaluación que puedan añadirse a los recursos existentes.
  • Colaborar con instituciones pares para revisar y comparar políticas y procedimientos de IA.

Creación de Nuevas Políticas y Directrices

Aunque los recursos y apoyos existentes pueden ayudar con algunas necesidades relacionadas con la IA, las tecnologías y prácticas de IA incipientes pueden presentar desafíos novedosos que las políticas y directrices existentes simplemente no abordan. En estos casos, las instituciones pueden necesitar crear nuevas políticas y directrices y establecer nuevas estructuras y apoyos para ayudar a los interesados a navegar estas aguas inexploradas. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a saber por dónde empezar cuando tienen una hoja en blanco frente a ellos:

Acciones Individuales

  • Incorporar las voces y perspectivas de los estudiantes al desarrollar nuevas políticas y directrices.
  • Recomendar escenarios o problemas para los que se necesita orientación adicional sobre IA.
  • Ser transparentes y abiertos sobre el uso de IA para generar conversación, incluyendo la documentación de casos de uso nuevos y emergentes.

Acciones Departamentales o de Unidad

  • Revisar regularmente los programas académicos y cursos para determinar dónde debe mejorarse y apoyarse el uso de IA y/o la alfabetización.
  • Desarrollar nuevas colaboraciones para romper barreras.
  • Establecer políticas y procedimientos claros para temas relacionados con la tenencia y promoción de IA.

Acciones Institucionales

  • Garantizar el acceso equitativo a herramientas de IA en todo el campus.
  • Contratar líderes y/o personal específicamente encargado de dirigir la IA para la institución.
  • Crear una estructura de gobernanza de IA de alto nivel (fuera de TI), incluyendo auditorías regulares.

Acciones Multiinstitucionales

  • Construir marcos compartidos para evaluar productos y modelos de IA internos y de proveedores.
  • Aprovechar la comunidad de educación superior y los estándares de cumplimiento comunes para presionar a los proveedores de soluciones de IA para que satisfagan las necesidades de la educación superior.
  • Lanzar iniciativas interinstitucionales para avanzar en las políticas y estándares de IA.

Las bibliotecas universitarias se preparan para un mundo de investigación y erudición influenciado por la Inteligencia Artificial

Ruttenberg, Judy. «Research Libraries Prepare for a World of AI-Influenced Research and Scholarship». Association of Research Libraries (blog), 23 de mayo de 2024. https://www.arl.org/blog/research-libraries-prepare-for-a-world-of-ai-influenced-research-and-scholarship/.

Las bibliotecas de investigación, responsables de preservar el pasado, el presente y el futuro del conocimiento, tienen una larga experiencia con tecnologías disruptivas. Ahora están utilizando el crecimiento de la inteligencia artificial (IA), especialmente la IA generativa, para mejorar sus servicios, crear oportunidades educativas y evaluar su impacto en las operaciones y colecciones. La Asociación de Bibliotecas de Investigación (ARL) se asegura de que sus miembros y las comunidades a las que sirven prosperen en medio de esta disrupción tecnológica. Esto implica equilibrar las oportunidades innovadoras de la IA generativa con las posibles amenazas al acceso equitativo, la libertad intelectual y la integridad de la información.

La ARL ha sido históricamente fuerte en la defensa de un régimen de derechos de autor equilibrado. A través de la Library Copyright Alliance (LCA), la Asociación emitió en 2023 un conjunto de principios para los derechos de autor y la inteligencia artificial. Estos principios fueron presentados a la Oficina de Derechos de Autor de EE. UU. y a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. Los principios destacan la diferencia crucial entre lo que un modelo de IA aprende y lo que produce en relación con las obras protegidas por derechos de autor. En resumen, para que la IA generativa pueda innovar, es necesario proteger el uso justo en el entrenamiento de modelos de IA, mientras que la ley actual puede abordar las posibles infracciones de derechos de autor en las producciones de IA.

Como líder en la creación de normas para bibliotecas de investigación, la ARL también ha formulado principios generales sobre la IA generativa. Estos principios buscan influir en las políticas y abogar por el desarrollo responsable de tecnologías de IA, promoviendo prácticas éticas y transparentes, y construyendo confianza entre todas las partes involucradas, tanto dentro de las bibliotecas como en el entorno de investigación en general.

Además, la ARL y la Coalición para la Información en Red (CNI) han publicado un conjunto de escenarios que anticipan el impacto del aprendizaje automático y la IA generativa en el ecosistema del conocimiento y la investigación para el año 2035. Estos escenarios no pretenden predecir el futuro, sino ayudar a imaginarlo y explorar las incertidumbres que el sector enfrentará. En una reciente reunión en Boston, la comunidad de la ARL utilizó estos escenarios para identificar y priorizar oportunidades.

Invertir en bibliotecas siempre ha beneficiado a las comunidades durante las disrupciones tecnológicas. La ARL y sus bibliotecas miembro colaboran con socios del sector de investigación y aprendizaje para preservar el patrimonio cultural, apoyar nuevas formas de investigación y publicación, y promover el éxito estudiantil. La Asociación invita a colaborar en el avance de sus principios de IA y en el uso de estos escenarios para asegurar un entorno informativo que promueva el progreso del conocimiento.

Nuevas directrices sobre Inteligencia Artificial para bibliotecas universitarias y de investigación

Research Libraries Guiding Principles for Artificial
Intelligence
Association of Research Libraries (ARL), abril 2024

Texto completo

La Asociación de Bibliotecas de Investigación (ARL) ha presentado un conjunto de siete principios guía dirigidos a los bibliotecarios universitarios, con el objetivo de orientar su labor ante el creciente uso de inteligencia artificial generativa.

En los dos años transcurridos desde el lanzamiento de ChatGPT, los bibliotecarios han sido solicitados frecuentemente para liderar la investigación y el desarrollo de la tecnología emergente de IA, abordando preguntas sobre derechos de autor y preocupaciones de citación. Algunos bibliotecarios han creado sus propias guías de IA o lanzado proyectos piloto para abordan algunas inquietudes académicas.

Los siete principios de la ARL se centran en el desarrollo y la implementación de la IA generativa, que generalmente se refiere a modelos de lenguaje grande como ChatGPT de OpenAI. La asociación afirma que los principios tienen como objetivo «promover prácticas éticas y transparentes, y generar confianza entre los interesados, tanto en las bibliotecas de investigación como en todo el entorno de investigación».

Principios Guía de la ARL

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca y a los profesionales de TI sobre la IA.
  2. Entender y crear conciencia sobre el sesgo de la IA: Ayudar a los usuarios a navegar y evaluar la IA considerando posibles distorsiones en la información e imágenes generadas.
  3. Defender la apertura y la transparencia: Enfocarse en los algoritmos, datos de entrenamiento y metodologías utilizadas para crear la IA.
  4. Reconocer que no hay IA sin humanos: La participación humana es necesaria en consideraciones éticas, de accesibilidad y de fiabilidad al usar IA en entornos de investigación.
  5. La seguridad y la privacidad son clave: Abogar por leyes y regulaciones que prioricen la información personal de los usuarios de la biblioteca.
  6. Continuar la aplicación de la ley de derechos de autor: Preservar los derechos de las bibliotecas para fines de investigación y educación, y abordar la intersección de los derechos de autor con la IA.
  7. Equidad en la información digital: Asegurar que la ley de derechos de autor guíe los contratos con revistas académicas e instituciones de investigación, y promover el uso justo, la libertad intelectual y de información.

Desarrollo y Aplicación

Las discusiones sobre los principios comenzaron hace más de un año, aproximadamente seis meses después del debut de ChatGPT. Los principios fueron desarrollados a través de ARL Scholars and Scholarship Committee y ARL Advocacy and Public Policy Committee, definidos después de múltiples reuniones y un período de comentarios abiertos para todos los miembros.

Cynthia Hudson Vitale, directora de política científica y becas de la ARL, y Katherine Klosek, directora de política de información y relaciones federales, señalaron que, aunque no hay un plan fijo para revisar y cambiar los principios, están abiertos a la discusión a medida que evolucionan la IA y las preocupaciones relacionadas.

Jeanette Moss, bibliotecaria de apoyo curricular e instrucción en la Universidad Northwestern, afirmó: «Los bibliotecarios siempre han estado en la tarea de enseñar cómo evaluar la información, ya sea información escrita o fuentes de información, por lo que eso no ha cambiado desde que comenzó Internet. Pero ahora tenemos que reforzar aún más ese punto».

Recomendaciones éticas para la investigación en inteligencia artificial del Comité Español de Ética de la Investigación (CEEI)

Recomendaciones éticas para la investigación en inteligencia artificial. Comité Español de Ética de la Investigación (CEEI), 2024

Descargar

Este informe, elaborado en colaboración con la Oficina Española de Prospectiva Tecnológica, analiza los desafíos éticos que plantea el desarrollo y la aplicación de la inteligencia artificial (IA). El CEEI ofrece una serie de recomendaciones para garantizar que la investigación en IA se lleve a cabo de forma responsable y ética, teniendo en cuenta los posibles riesgos y beneficios para la sociedad.

RESPONSABILIDAD EN EL DESARROLLO Y EL USO DE SISTEMAS AUTÓNOMOS

Este conjunto de desafíos se centra en la capacidad de los sistemas de IA para tomar decisiones de manera automática, siempre bajo supervisión humana, conforme a las Directrices Éticas para una IA Fiable publicadas por la Comisión Europea en 2018 y las de la UNESCO de 2021. Aspectos específicos relacionados con la investigación en IA incluyen:

  1. Salvaguardar los derechos humanos y fundamentales: Los investigadores y las instituciones deben asegurar que los sistemas de IA respeten la dignidad, la autodeterminación y los derechos humanos y democráticos.
  2. Salvaguardar el medioambiente: Los sistemas de IA deben desarrollarse considerando su consumo energético y su impacto ambiental.
  3. Responsabilidad: Los investigadores deben proporcionar orientación sobre las decisiones y acciones de los sistemas de IA y colaborar con sus instituciones y otras partes interesadas.
  4. Inspeccionabilidad y trazabilidad: Es necesario identificar las fuentes de datos utilizadas por el sistema y la forma en que toma decisiones para garantizar su transparencia y justicia.
  5. Divulgación de la investigación: Los investigadores deben contribuir al debate público sobre los riesgos y oportunidades de la IA y presentar un balance equilibrado entre ambos.

CONSECUENCIAS SOCIALES Y RESPONSABILIDAD SOCIAL DE LA INVESTIGACIÓN

La IA tiene un gran potencial para generar cambios en diversas áreas de aplicación. En la investigación, es esencial:

  1. Reconocer la incertidumbre: Asesorar adecuadamente sobre la incertidumbre asociada con la investigación en IA y fomentar la investigación interdisciplinar.
  2. Asegurar una participación amplia: Comunicar los riesgos y oportunidades de manera transparente e involucrar a aquellos que se ven más afectados por las decisiones.
  3. Protección de datos y consideración a los individuos: Seguir los principios fundamentales de la protección de datos y asegurar el consentimiento adecuado en el uso de datos personales.

DATOS

El uso de datos, especialmente de grandes cantidades, plantea desafíos éticos en la investigación en IA. Es esencial:

  1. Asegurar la calidad de los datos: Cuestionar la calidad y relevancia de los datos, facilitar el acceso a fuentes de datos abiertas y garantizar la verificabilidad.
  2. Acceso justo a los datos: Asegurar que la investigación, los datos utilizados y los resultados obtenidos estén disponibles públicamente, evitando la evasión de los requisitos de transparencia.

Informe sobre la autoría y las filiaciones de los trabajos científicos y técnicos

Informe sobre la autoría y las filiaciones de los trabajos científicos y técnicos. Comité Español de Ética de la Investigación. nov. 2023

Descargar


El Comité Español de Ética en la Investigación ha aprobado su primer informe sobre la autoría y afiliaciones en trabajos científicos y técnicos, en respuesta a un encargo del Ministerio de Ciencia e Innovación. Recomienda que los códigos de buenas prácticas de investigación incluyan pautas sobre la indicación de afiliaciones, priorizando el orden basado en la relación contractual. La nueva Ley de la Ciencia permite la adscripción parcial o total del personal de investigación con terceras entidades, así como la posibilidad de doble afiliación. El Comité, compuesto por expertos en diversas áreas, promueve la ética profesional y la integridad científica, emitiendo informes y recomendaciones sobre estas materias, además de establecer principios para códigos de buenas prácticas en investigación.

Principios Rectores de las Bibliotecas Universitarias y de Investigación para el uso de la Inteligencia Artificial de ARL

Research Libraries Guiding Principles for Artificial Intelligence.” Association of Research Libraries, April 2024

Texto completo


La articulación de un conjunto de principios rectores para la inteligencia artificial (IA) en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general.

La Asociación de Bibliotecas de Investigación (ARL, por sus siglas en inglés) ha publicado un conjunto de «Principios Rectores de las Bibliotecas de Investigación para la Inteligencia Artificial». Las tecnologías de inteligencia artificial (IA), y en particular, la IA generativa, tienen un gran potencial para mejorar el acceso a la información y promover la apertura en los resultados de investigación. Sin embargo, la IA también tiene el potencial de perturbar los paisajes de información y las comunidades que las bibliotecas de investigación apoyan y sirven. La creciente disponibilidad de modelos de IA plantea muchas posibilidades y también suscita varios consideraciones éticas, profesionales y legales.

Articular un conjunto de principios rectores para la IA en las bibliotecas de investigación es útil para influir en las políticas y abogar por el desarrollo y despliegue responsables de las tecnologías de IA, promover prácticas éticas y transparentes, y construir confianza entre las partes interesadas, tanto dentro de las bibliotecas de investigación como en el entorno de investigación en general. Estos principios servirán como un marco fundamental para el uso ético y transparente de la IA, y reflejan los valores que sostienen las bibliotecas de investigación. La ARL se apoyará en estos principios en nuestra defensa política y compromiso.

Desarrollados a través del Comité de Académicos y Academia de la ARL y el Comité de Defensa y Política Pública de la ARL, estos principios han sido creados y refinados después de múltiples reuniones del comité, una sesión de oficina abierta para todos los miembros y un período de comentarios abierto. Durante el período de comentarios abierto solo, recibimos más de 60 comentarios que han sido tenidos en cuenta en el desarrollo de estos principios.

Los principios incluyen:

  1. Las bibliotecas democratizan el acceso a herramientas y tecnología de inteligencia artificial para fomentar la alfabetización digital entre todas las personas.
  2. Las bibliotecas se comprometen a comprender dónde están presentes las distorsiones y sesgos en los modelos y aplicaciones de IA.
  3. Las bibliotecas abogan por la transparencia e integridad de la información.
  4. Las bibliotecas creen en la importancia de la participación humana en los procesos de toma de decisiones críticas relacionadas con la IA.
  5. Las bibliotecas priorizan la seguridad y privacidad de los usuarios en el uso de herramientas y tecnología de IA.
  6. Las bibliotecas consideran que la ley de derechos de autor en Estados Unidos y Canadá es lo suficientemente flexible y robusta como para responder a muchos problemas de derechos de autor que surgen de la intersección de la tecnología y la inteligencia artificial.
  7. Las bibliotecas negocian para preservar el uso académico de la información digital.

¿Deben los investigadores utilizar la IA para escribir artículos? Un grupo aboga por normas comunitarias

Else, H. «Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards». Science, accedido 22 de abril de 2024. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards.

En los últimos meses ha surgido un intenso debate sobre cuándo y cómo deberían los programas de inteligencia artificial (IA) generadora de texto, como ChatGPT, ayudar a redactar artículos de investigación. Un grupo de 4000 investigadores de diversas disciplinas y países está trabajando en directrices que podrían ser adoptadas ampliamente en la publicación académica. Esta iniciativa, conocida como CANGARU, busca reemplazar el paisaje fragmentado de las directrices actuales con un conjunto único de estándares que representen el consenso de la comunidad investigadora.

CANGARU Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines es una colaboración entre investigadores y editoriales como Elsevier, Springer Nature y Wiley, así como representantes de revistas como eLife, Cell y The BMJ, junto con el Comité de Ética de Publicación. El objetivo es lanzar un conjunto final de directrices para agosto, actualizándolas anualmente debido a la rápida evolución de esta tecnología. Estas directrices incluirán formas en las que los autores no deben utilizar los grandes modelos de lenguaje (LLMs) que alimentan a los chatbots, así como cómo deben revelar otros usos.

Si bien algunos argumentan que las herramientas de IA pueden ayudar a redactar manuscritos de manera responsable, otros temen que los defraudadores científicos las utilicen para publicar trabajos falsos convincentes rápidamente. La propensión de los LLMs a inventar cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, representa una grave amenaza para la investigación y la publicación científica, según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch.

Algunas revistas y organismos ya han establecido reglas sobre cómo los científicos pueden usar herramientas de IA generativa en su trabajo, aunque el nivel de orientación varía. CANGARU está llevando a cabo una revisión sistemática de la literatura relevante para informar las directrices de IA. Sin embargo, algunos investigadores temen que la iniciativa no avance lo suficientemente rápido, dado el rápido progreso de la IA generativa.

El número de investigadores que utilizan estas herramientas en sus escritos parece estar aumentando, y se han identificado casos de uso no divulgado e ilícito de ChatGPT. Algunos investigadores han buscado pistas más sutiles en el texto generado por LLM. A medida que se establezcan las directrices de IA, el próximo paso será garantizar que los autores las cumplan, lo que requerirá la colaboración de las editoriales y un riguroso proceso de revisión por pares.