Archivo de la etiqueta: Inteligencia artificial

Directrices para académicos buscan reducir los riesgos éticos en el uso de IA generativa

Drew, Liam. «Guidelines for Academics Aim to Lessen Ethical Pitfalls in Generative-AI Use». Nature, 22 de mayo de 2024. https://doi.org/10.1038/d41586-024-01543-1.

Investigadores del Reino Unido están desarrollando un nuevo conjunto de herramientas para ayudar a los académicos a utilizar la inteligencia artificial generativa (IA generativa) de manera más ética.

Wendy Moncur, investigadora en ciberseguridad de la Universidad de Strathclyde en Glasgow, lidera este proyecto. La falta de orientación en el uso de herramientas de IA generativa ha llevado a Moncur y su equipo a considerar la necesidad de un conjunto de directrices que aborden las fortalezas y amenazas de estas tecnologías.

El proyecto se centra en los problemas que pueden surgir cuando se utilizan herramientas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, para analizar y procesar información personal de voluntarios en estudios. Moncur y su equipo están utilizando herramientas de IA generativa para crear materiales educativos basados en las historias de los participantes, pero se preocupan por el riesgo de que la información anonimizada pueda ser reidentificada y distorsionada por la IA.

Las inquietudes de Moncur la llevaron a colaborar con científicos informáticos y un académico en derecho para desarrollar soluciones. Financiado por el Centro Nacional de Investigación del Reino Unido sobre Privacidad, Reducción de Daños e Influencia Adversarial en Línea, el proyecto de diez meses busca crear directrices para investigadores y comités de ética universitarios, con fecha de finalización en agosto.

El proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad, cumplir con los requisitos de gestión de datos en la investigación del Reino Unido y mitigar los riesgos legales para las instituciones que utilizan IA generativa para procesar datos de participantes.

El equipo está realizando una revisión de la literatura y planea entrevistar a académicos en comités de ética para desarrollar una herramienta que analice fortalezas, debilidades, oportunidades y amenazas, y que esté disponible en línea de forma gratuita.

Robert Davison, científico de sistemas de información en la Universidad de la Ciudad de Hong Kong, apoya estos esfuerzos y advierte contra la normalización del uso de IA generativa sin la debida atención ética. Moncur y sus colegas apuntan a los comités de ética universitarios como el primer paso para establecer normas éticas robustas en el uso de esta tecnología.

Plan de Acción EDUCAUSE 2024: Políticas y directrices de AI

EDUCAUSE. «2024 EDUCAUSE Action Plan: AI Policies and Guidelines». Accedido 26 de mayo de 2024. https://www.educause.edu/research/2024/2024-educause-action-plan-ai-policies-and-guidelines.

El Estudio del Panorama de la IA 2024 de EDUCAUSE, basado en una encuesta a más de 900 profesionales de tecnología en educación superior, reveló brechas significativas en las políticas y directrices relacionadas con la IA en la educación superior

«Solo el 23% de los encuestados indicó que su institución tiene políticas de uso aceptable relacionadas con la IA ya implementadas, y casi la mitad (48%) de los encuestados no estuvo de acuerdo o estuvo en desacuerdo en que su institución tiene políticas y directrices adecuadas para permitir una toma de decisiones ética y efectiva sobre el uso de la IA».

Más de un año después del «renacimiento de la IA» que revolucionó las expectativas dentro y fuera del aula, la mayoría de las instituciones aún están intentando ponerse al día y establecer políticas y directrices que ayuden a sus líderes, personal, profesores y estudiantes a utilizar estas nuevas y poderosas tecnologías de manera efectiva y segura.

Afortunadamente, las instituciones no necesitan empezar desde cero en el desarrollo de sus políticas y directrices de IA. Gracias al trabajo de Cecilia Ka Yuk Chan y WCET, las instituciones cuentan con una base sobre la cual construir, un marco de políticas que abarca la gobernanza institucional, las operaciones y la pedagogía. Este marco ayuda a garantizar que las políticas y directrices relacionadas con la IA aborden de manera integral aspectos críticos de la vida y el funcionamiento institucional:

Gobernanza incluye la gestión de datos, la evaluación del uso de la IA en toda la institución, la promoción y el monitoreo del uso de la IA por parte de profesores y personal (incluida la investigación), el acceso inclusivo y equitativo, la propiedad intelectual y el uso de la IA para prácticas de promoción, tenencia y recontratación.

Operaciones abarca el desarrollo profesional (capacitación y apoyo), el desarrollo y mantenimiento de la infraestructura para la IA, y la revisión y recomendación de la implementación de la IA para mejorar las prácticas operativas.

Pedagogía incluye la integridad académica, las prácticas de evaluación, la comunicación clara a los estudiantes sobre las expectativas de la IA, el desarrollo de competencias y habilidades en IA para la preparación laboral, la comprensión del sesgo algorítmico, la interacción regular y sustantiva, y la accesibilidad del aprendizaje.

Con este marco como telón de fondo, se desarrolló este plan de acción convocando a un panel de profesionales de tecnología en educación superior para proponer posibles acciones que las instituciones podrían tomar en los próximos dos años para comenzar a establecer políticas y directrices efectivas de IA. Se pidió a los panelistas que revisaran el contenido del Plan de Acción de Horizon 2023 de EDUCAUSE: IA Generativa, reflexionando específicamente sobre el «futuro preferido» descrito en este informe, y que enumeraran los posibles impactos de las políticas y directrices de IA en individuos, unidades, instituciones y colaboraciones entre instituciones. Luego se les pidió a los panelistas que consideraran las acciones que podrían ayudar a los interesados en la educación superior a navegar tanto las políticas y directrices de IA existentes como las nuevas.

En comparación con la línea de tiempo de diez años que normalmente se utiliza para el trabajo de previsión, la ventana de dos años permitió a los panelistas reflexionar sobre los desafíos y oportunidades mucho más inmediatos para la planificación y toma de decisiones del presente. Las capacidades y necesidades de la IA están evolucionando rápidamente, y los líderes de la educación superior deben tomar medidas ahora. Delineando acciones que pueden aprovechar las políticas y directrices existentes o ayudarnos a crear nuevas, el panel ha comenzado a trazar un camino a seguir para la práctica de la IA en la educación superior que esperamos encuentre perspicaz, relevante y accionable.

EDUCAUSE y la Cooperativa WICHE para Tecnologías Educativas (WCET) colaboraron en la planificación y recopilación de datos para este plan de acción.

Aprovechando Políticas y Directrices Existentes

Muchas instituciones ya tienen políticas, directrices y procesos que, aunque no específicos para la IA, podrían estar relacionados o ser aplicables a herramientas y prácticas de IA. En lugar de «reinventar la rueda» creando un conjunto completamente nuevo de políticas y directrices, los líderes de estas instituciones podrían centrarse en comprender cómo aprovechar mejor los recursos y apoyos existentes. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a construir sobre lo que ya existe:

Acciones Individuales

  • Familiarizarse con herramientas comunes de IA.
  • Ser buenos administradores de los datos institucionales y las directrices existentes.
  • Desarrollar la alfabetización individual en IA.

Acciones Departamentales o de Unidad

  • Aclarar qué políticas departamentales o de unidad existentes se aplican a la IA y cuáles no.
  • Desarrollar un lenguaje estándar para múltiples tipos de uso de IA en los cursos.
  • Crear oportunidades de colaboración para descubrir qué funciona y qué no.

Acciones Institucionales

  • Formar comités interfuncionales y comunidades de práctica para evaluar y mejorar las prácticas de IA.
  • Ampliar la formación profesional existente para incluir capacitación en IA para todo el personal docente, administrativo y estudiantil.
  • Mapear las políticas y directrices de IA a la misión, valores y estrategias existentes de la institución.

Acciones Multiinstitucionales

  • Colaborar para crear un entendimiento común de las implicaciones potenciales de las regulaciones estatales/federales.
  • Desarrollar criterios de evaluación que puedan añadirse a los recursos existentes.
  • Colaborar con instituciones pares para revisar y comparar políticas y procedimientos de IA.

Creación de Nuevas Políticas y Directrices

Aunque los recursos y apoyos existentes pueden ayudar con algunas necesidades relacionadas con la IA, las tecnologías y prácticas de IA incipientes pueden presentar desafíos novedosos que las políticas y directrices existentes simplemente no abordan. En estos casos, las instituciones pueden necesitar crear nuevas políticas y directrices y establecer nuevas estructuras y apoyos para ayudar a los interesados a navegar estas aguas inexploradas. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a saber por dónde empezar cuando tienen una hoja en blanco frente a ellos:

Acciones Individuales

  • Incorporar las voces y perspectivas de los estudiantes al desarrollar nuevas políticas y directrices.
  • Recomendar escenarios o problemas para los que se necesita orientación adicional sobre IA.
  • Ser transparentes y abiertos sobre el uso de IA para generar conversación, incluyendo la documentación de casos de uso nuevos y emergentes.

Acciones Departamentales o de Unidad

  • Revisar regularmente los programas académicos y cursos para determinar dónde debe mejorarse y apoyarse el uso de IA y/o la alfabetización.
  • Desarrollar nuevas colaboraciones para romper barreras.
  • Establecer políticas y procedimientos claros para temas relacionados con la tenencia y promoción de IA.

Acciones Institucionales

  • Garantizar el acceso equitativo a herramientas de IA en todo el campus.
  • Contratar líderes y/o personal específicamente encargado de dirigir la IA para la institución.
  • Crear una estructura de gobernanza de IA de alto nivel (fuera de TI), incluyendo auditorías regulares.

Acciones Multiinstitucionales

  • Construir marcos compartidos para evaluar productos y modelos de IA internos y de proveedores.
  • Aprovechar la comunidad de educación superior y los estándares de cumplimiento comunes para presionar a los proveedores de soluciones de IA para que satisfagan las necesidades de la educación superior.
  • Lanzar iniciativas interinstitucionales para avanzar en las políticas y estándares de IA.

Lanzamiento de la Plataforma de IA de Clarivate

Ben-Porat, Guy. «Introducing the Clarivate Academic AI Platform». Clarivate (blog), 21 de mayo de 2024. https://clarivate.com/blog/introducing-the-clarivate-academic-ai-platform/.

La Plataforma Académica de IA de Clarivate marca un hito significativo en su esfuerzo por empoderar a la comunidad académica con herramientas y tecnologías de IA innovadoras y servirá como una columna vertebral tecnológica, permitiendo la implementación acelerada y consistente de capacidades de IA en todo su portafolio de soluciones Académicas y Gubernamentales.

Esta iniciativa ha sido el resultado de varios proyectos de investigación en los que la empresa se ha involucrado durante el último año, trabajando estrechamente entre sus equipos de ciencia de datos, ingeniería, contenido y experiencia de usuario, y la comunidad de clientes para aprender de primera mano sobre el potencial y las limitaciones de la IA generativa (GenIA). Además, la experiencia acumulada durante años de uso de IA y aprendizaje automático en sus productos ha sido fundamental para dar forma a este avance.

Algunas de sus características son:

  • Asistente de Investigación de Web of Science: Ayudando a investigadores de todos los niveles a explorar el índice de citas más confiable del mundo, aprovechando más de un siglo de investigación, con descubrimiento en lenguaje natural, tareas guiadas y visualizaciones contextuales.
  • Asistente de Investigación de ProQuest: Permitiendo a los usuarios navegar por millones de trabajos académicos de texto completo dentro de ProQuest y obtener fácilmente nuevos conocimientos para la investigación y el aprendizaje.
  • Entrenador Académico Alethea: Fomentando las habilidades de aprendizaje y pensamiento crítico de los estudiantes al guiarlos hacia el núcleo de sus lecturas de curso, ayudándolos a destilar los puntos clave y prepararse para la discusión en clase.
  • Asistente de Investigación de Primo: Transformando el descubrimiento en bibliotecas, proporcionando a los usuarios una nueva forma de encontrar y explorar materiales a través de la búsqueda en lenguaje natural, referencias de artículos y consultas recomendadas para apoyar la investigación.

En el futuro, la plataforma ampliará sus capacidades para admitir la introducción de capacidades de IA en productos adicionales, incluidos Alma, Ebook Central, EndNote y Leganto, así como presentar eficiencias de backend como la creación y enriquecimiento de metadatos.

Las bibliotecas universitarias se preparan para un mundo de investigación y erudición influenciado por la Inteligencia Artificial

Ruttenberg, Judy. «Research Libraries Prepare for a World of AI-Influenced Research and Scholarship». Association of Research Libraries (blog), 23 de mayo de 2024. https://www.arl.org/blog/research-libraries-prepare-for-a-world-of-ai-influenced-research-and-scholarship/.

Las bibliotecas de investigación, responsables de preservar el pasado, el presente y el futuro del conocimiento, tienen una larga experiencia con tecnologías disruptivas. Ahora están utilizando el crecimiento de la inteligencia artificial (IA), especialmente la IA generativa, para mejorar sus servicios, crear oportunidades educativas y evaluar su impacto en las operaciones y colecciones. La Asociación de Bibliotecas de Investigación (ARL) se asegura de que sus miembros y las comunidades a las que sirven prosperen en medio de esta disrupción tecnológica. Esto implica equilibrar las oportunidades innovadoras de la IA generativa con las posibles amenazas al acceso equitativo, la libertad intelectual y la integridad de la información.

La ARL ha sido históricamente fuerte en la defensa de un régimen de derechos de autor equilibrado. A través de la Library Copyright Alliance (LCA), la Asociación emitió en 2023 un conjunto de principios para los derechos de autor y la inteligencia artificial. Estos principios fueron presentados a la Oficina de Derechos de Autor de EE. UU. y a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. Los principios destacan la diferencia crucial entre lo que un modelo de IA aprende y lo que produce en relación con las obras protegidas por derechos de autor. En resumen, para que la IA generativa pueda innovar, es necesario proteger el uso justo en el entrenamiento de modelos de IA, mientras que la ley actual puede abordar las posibles infracciones de derechos de autor en las producciones de IA.

Como líder en la creación de normas para bibliotecas de investigación, la ARL también ha formulado principios generales sobre la IA generativa. Estos principios buscan influir en las políticas y abogar por el desarrollo responsable de tecnologías de IA, promoviendo prácticas éticas y transparentes, y construyendo confianza entre todas las partes involucradas, tanto dentro de las bibliotecas como en el entorno de investigación en general.

Además, la ARL y la Coalición para la Información en Red (CNI) han publicado un conjunto de escenarios que anticipan el impacto del aprendizaje automático y la IA generativa en el ecosistema del conocimiento y la investigación para el año 2035. Estos escenarios no pretenden predecir el futuro, sino ayudar a imaginarlo y explorar las incertidumbres que el sector enfrentará. En una reciente reunión en Boston, la comunidad de la ARL utilizó estos escenarios para identificar y priorizar oportunidades.

Invertir en bibliotecas siempre ha beneficiado a las comunidades durante las disrupciones tecnológicas. La ARL y sus bibliotecas miembro colaboran con socios del sector de investigación y aprendizaje para preservar el patrimonio cultural, apoyar nuevas formas de investigación y publicación, y promover el éxito estudiantil. La Asociación invita a colaborar en el avance de sus principios de IA y en el uso de estos escenarios para asegurar un entorno informativo que promueva el progreso del conocimiento.

AI a juicio: los modelos de Inteligencia Artificial alucinan en 1 de cada 6 consultas en el ámbito legal

Magesh, Varun, Faiz Surani, Matthew Dahl, Mirac Suzgun, Christopher D. Manning, y Daniel E. Ho. «AI on Trial: Legal Models Hallucinate in 1 Out of 6 Queries.» Stanford HAI, May 23, 2024.

PDF

Los modelos de inteligencia artificial (IA) están transformando rápidamente la práctica del derecho, con casi tres cuartas partes de los abogados planeando usar IA generativa para su trabajo. Sin embargo, surgen dudas sobre su fiabilidad.

Los modelos de lenguaje grandes tienden a «alucinar» o inventar información falsa. Un caso notorio fue el de un abogado de Nueva York sancionado por citar casos ficticios creados por ChatGPT. Estudios previos encontraron que los chatbots generales alucinaban entre el 58% y el 82% del tiempo en consultas legales. El Presidente del Tribunal Supremo Roberts advirtió a los abogados sobre estas alucinaciones en su informe anual de 2023.

Para reducir las alucinaciones, se promueve la generación aumentada por recuperación (RAG), que integra un modelo de lenguaje con una base de datos de documentos legales. Los servicios de investigación legal afirman que sus productos basados en RAG «evitan» alucinaciones y garantizan citas legales «libres de alucinaciones». Sin embargo, no han proporcionado evidencia sólida de estas afirmaciones ni han definido claramente «alucinación».

Un estudio reciente de Stanford RegLab y HAI evaluó las afirmaciones de dos proveedores, LexisNexis y Thomson Reuters. Aunque sus herramientas reducen los errores en comparación con modelos de IA generales como GPT-4, aún producen información incorrecta en más del 17% de las consultas, es decir, una de cada seis consultas.

Los sistemas de IA pueden alucinar de dos maneras:

  1. Respuesta incorrecta: describe la ley incorrectamente o comete un error factual.
  2. Respuesta mal fundamentada: describe la ley correctamente pero cita una fuente que no respalda sus afirmaciones.

El estudio resalta la necesidad de evaluaciones rigurosas y transparentes de las herramientas de IA legal. La opacidad actual dificulta a los abogados cumplir con sus responsabilidades éticas y profesionales, y podría socavar los beneficios de eficiencia prometidos por estas herramientas. Se requiere transparencia para que los abogados puedan adoptar la IA de manera responsable y cumplir con las regulaciones emergentes sobre el uso de IA en la práctica legal.

En conclusión, las alucinaciones legales no han sido resueltas y la profesión legal debe enfocarse en establecer puntos de referencia públicos y evaluaciones rigurosas de las herramientas de IA.

Nuevas directrices sobre Inteligencia Artificial para bibliotecas universitarias y de investigación

Research Libraries Guiding Principles for Artificial
Intelligence
Association of Research Libraries (ARL), abril 2024

Texto completo

La Asociación de Bibliotecas de Investigación (ARL) ha presentado un conjunto de siete principios guía dirigidos a los bibliotecarios universitarios, con el objetivo de orientar su labor ante el creciente uso de inteligencia artificial generativa.

En los dos años transcurridos desde el lanzamiento de ChatGPT, los bibliotecarios han sido solicitados frecuentemente para liderar la investigación y el desarrollo de la tecnología emergente de IA, abordando preguntas sobre derechos de autor y preocupaciones de citación. Algunos bibliotecarios han creado sus propias guías de IA o lanzado proyectos piloto para abordan algunas inquietudes académicas.

Los siete principios de la ARL se centran en el desarrollo y la implementación de la IA generativa, que generalmente se refiere a modelos de lenguaje grande como ChatGPT de OpenAI. La asociación afirma que los principios tienen como objetivo «promover prácticas éticas y transparentes, y generar confianza entre los interesados, tanto en las bibliotecas de investigación como en todo el entorno de investigación».

Principios Guía de la ARL

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca y a los profesionales de TI sobre la IA.
  2. Entender y crear conciencia sobre el sesgo de la IA: Ayudar a los usuarios a navegar y evaluar la IA considerando posibles distorsiones en la información e imágenes generadas.
  3. Defender la apertura y la transparencia: Enfocarse en los algoritmos, datos de entrenamiento y metodologías utilizadas para crear la IA.
  4. Reconocer que no hay IA sin humanos: La participación humana es necesaria en consideraciones éticas, de accesibilidad y de fiabilidad al usar IA en entornos de investigación.
  5. La seguridad y la privacidad son clave: Abogar por leyes y regulaciones que prioricen la información personal de los usuarios de la biblioteca.
  6. Continuar la aplicación de la ley de derechos de autor: Preservar los derechos de las bibliotecas para fines de investigación y educación, y abordar la intersección de los derechos de autor con la IA.
  7. Equidad en la información digital: Asegurar que la ley de derechos de autor guíe los contratos con revistas académicas e instituciones de investigación, y promover el uso justo, la libertad intelectual y de información.

Desarrollo y Aplicación

Las discusiones sobre los principios comenzaron hace más de un año, aproximadamente seis meses después del debut de ChatGPT. Los principios fueron desarrollados a través de ARL Scholars and Scholarship Committee y ARL Advocacy and Public Policy Committee, definidos después de múltiples reuniones y un período de comentarios abiertos para todos los miembros.

Cynthia Hudson Vitale, directora de política científica y becas de la ARL, y Katherine Klosek, directora de política de información y relaciones federales, señalaron que, aunque no hay un plan fijo para revisar y cambiar los principios, están abiertos a la discusión a medida que evolucionan la IA y las preocupaciones relacionadas.

Jeanette Moss, bibliotecaria de apoyo curricular e instrucción en la Universidad Northwestern, afirmó: «Los bibliotecarios siempre han estado en la tarea de enseñar cómo evaluar la información, ya sea información escrita o fuentes de información, por lo que eso no ha cambiado desde que comenzó Internet. Pero ahora tenemos que reforzar aún más ese punto».

Futuros escenarios influidos por la IA en el entorno de la investigación en bibliotecas universitarias

ARL, Xuemao Wang, Northwestern University; Dianne Babski, US National Library of Medicine; Christy Long, University of Oregon; Devin Savage, Illinois Institute of Technology; Catherine Steeves, Western University; and Cynthia Hudson Vitale. «AI and Libraries: Strengths in a Digital Tomorrow». Association of Research Libraries (blog), 22 de mayo de 2024. https://www.arl.org/blog/ai-and-libraries-strengths-in-a-digital-tomorrow/.

En la Reunión de Primavera de la Asociación de Bibliotecas de Investigación (ARL) en Boston, los líderes de bibliotecas y tecnología de la información examinaron los escenarios recientemente publicados por ARL/CNI para el año 2035, centrados en futuros influenciados por la inteligencia artificial (IA) en el entorno de investigación.

Enfoque en Escenarios para la Planificación Estratégica

Al utilizar escenarios para la planificación estratégica, es crucial no centrarse en un solo escenario, sino considerar un espectro de escenarios que destacan las incertidumbres clave dentro del ecosistema académico. Esta metodología reconoce que el futuro probablemente integrará aspectos de múltiples escenarios e incluirá desarrollos imprevistos. Un componente clave de la exploración fue identificar las fortalezas actuales de las bibliotecas de investigación, las cuales son beneficiosas en cada posible futuro. Esto ayuda a preparar a las bibliotecas para aprovechar sus capacidades a través de diversas condiciones futuras, fomentando una estrategia flexible.

Resultados de la Encuesta para Cada Escenario


Escenario 1: IA Democratizada e Integrada Socialmente

Fortalezas Identificadas:

  • Preservar contenido abierto y confiable (38.4% de los votos): Las bibliotecas son vistas como guardianes críticos de contenido confiable y abierto, crucial en un escenario de acceso libre al conocimiento.
  • Instituciones de confianza con historial ético en la gestión de datos (36.0%): La privacidad y la ética en la gestión de datos son altamente valoradas.
  • Apoyo a nuevos modos de investigación (18.6%): Adaptabilidad de las bibliotecas a las metodologías de investigación en evolución.
  • Espacio para la participación comunitaria (7.0%): A pesar de ser menos valorada, sigue siendo significativa para la colaboración interdisciplinaria.

Escenario 2: IA Orientada al Consumidor en Educación y Entretenimiento

Fortalezas Identificadas:

  • Democratizar el acceso a tecnologías y bases de datos (38.3%): Crucial para proporcionar acceso equitativo a tecnologías avanzadas.
  • Grandes cantidades de datos y colecciones (25.9%): Permite apoyar diversas actividades académicas y de investigación personal.
  • Defensores del acceso abierto (25.9%): Aseguran que el conocimiento siga siendo un bien público.
  • Capacidad organizativa para asociarse con empresas tecnológicas (8.6%): Facilita la integración de tecnologías avanzadas.
  • Experiencia en aprendizaje online y virtual (1.2%): Vista como la fortaleza menos destacada.

Escenario 3: IA de Laissez-Faire


Fortalezas Identificadas:

  • Preservar contenido abierto y confiable (29.3%): Crucial en un entorno lleno de desinformación.
  • Democratizar el acceso a tecnologías y bases de datos (29.3%): Equitativo acceso a recursos tecnológicos.
  • Zonas inclusivas para el acceso a la investigación global (17.1%): Garantiza que diversas comunidades puedan acceder a la información.
  • Compartir mejores prácticas para la gestión de crisis y riesgos (13.4%): Importante en un entorno de mal uso de IA.
  • Programas educativos y talleres para aumentar la alfabetización (11.0%): Necesario para mejorar la comprensión y mitigación de los desafíos de la IA.

Escenario 4: IA Autónoma

Fortalezas Identificadas:

  • Preservadores de la ética en datos y la integridad de la información (35.0%): Crucial para mantener la ética y la integridad en la investigación.
  • Preservar contenido abierto y confiable (28.8%): Mantener una base de conocimiento confiable.
  • Fomentar la comunidad y la colaboración (13.8%): Valioso para integrar diversas perspectivas.
  • Apoyar la enseñanza y el aprendizaje adaptativo (12.5%): Crucial en la transformación educativa impulsada por IA.
  • Proximidad a la empresa de investigación (10.0%): Facilita el acceso directo a herramientas y datos de investigación.

Conclusión

Los resultados de la encuesta del ARL/CNI 2035 revelan diversas fortalezas que las bibliotecas de investigación pueden aprovechar mientras navegan por futuros influenciados por la IA. Estas fortalezas subrayan el papel vital de las bibliotecas en mantener la integridad de la información y asegurar el acceso equitativo. Para las bibliotecas, estos conocimientos enfatizan la importancia de continuar construyendo sobre estas competencias básicas mientras se adaptan a las tendencias tecnológicas emergentes. Aprovechar estos escenarios y prestando atención al panorama estratégico más amplio permitirá a las bibliotecas ser proactivas y seguir siendo efectivas como custodios del conocimiento en un mundo cada vez más digital e impulsado por la IA.

Inteligencia artificial generativa y alfabetización mediática en bibliotecas. Planeta Biblioteca 2024/05/22

Inteligencia artificial generativa y alfabetización mediática en bibliotecas

Planeta Biblioteca 2024/05/22

ESCUCHAR

Ir a descargar


Alonso-Arévalo, Julio. Inteligencia artificial generativa y alfabetización mediática en bibliotecas. Mi Biblioteca, Año 20, n. 78. pp 54-58

Texto completo

La inteligencia artificial (IA) está emergiendo como una tecnología disruptiva que está remodelando rápidamente varios aspectos de nuestra sociedad. Aunque la IA ha estado en uso durante varios años, ha sido la IA generativa, con su capacidad para realizar tareas que normalmente requerirían inteligencia humana, la que ha suscitado este interés. La habilidad de generar contenido de manera similar a como lo haría un ser humano tiene aplicaciones en una amplia variedad de campos, desde la educación hasta la investigación o la salud, que involucran tanto a los profesionales de biblioteca como a las instituciones mismas.

Cómo la IA puede beneficiar a bibliotecarios y usuarios en las bibliotecas públicas

Team, PressReader. «How AI in Public Libraries Can Benefit Librarians and Patrons Alike». Accedido 22 de mayo de 2024. https://blog.pressreader.com/libraries-institutions/how-ai-in-public-libraries-can-benefit-librarians-and-patrons-alike.

La inteligencia artificial (IA) ha surgido como una tecnología que cambia el juego en diversos sectores, desde la academia hasta la industria hotelera. Si bien su implementación ha generado preocupaciones éticas, como la privacidad de datos y el plagio, es innegable que estas tecnologías emergentes están aquí para quedarse y es crucial mejorar nuestra alfabetización en IA.

Las bibliotecas han descubierto que integrar tecnología de IA puede mejorar y optimizar sus servicios. En este artículo, exploramos las formas en que las bibliotecas públicas pueden aprovechar la inteligencia artificial para beneficiar tanto a los usuarios como a los profesionales de las bibliotecas.

Beneficios para los bibliotecarios:

  1. Búsqueda y descubrimiento mejorados: Los motores de búsqueda y los sistemas de recomendación basados en IA pueden ayudar a los bibliotecarios y usuarios a encontrar recursos relevantes de manera más eficiente, mejorando la experiencia general del usuario.
  2. Optimización del desarrollo de colecciones: Los algoritmos de IA pueden ayudar a los bibliotecarios a gestionar y curar colecciones a través de la toma de decisiones basada en datos, analizando estadísticas de circulación, datos demográficos de los usuarios y patrones de uso de recursos.
  3. Servicios al usuario: Los chatbots y asistentes virtuales basados en IA pueden manejar consultas rutinarias y brindar asistencia básica a los usuarios, liberando a los bibliotecarios para centrarse en tareas más complejas y proporcionar un servicio más receptivo fuera del horario regular.
  4. Creación y curación de contenido: Los algoritmos de IA pueden ayudar a los bibliotecarios a crear y curar contenido digital, como etiquetado de metadatos, resúmenes y enriquecimiento de contenido, mejorando la usabilidad y la accesibilidad de los recursos de la biblioteca.

Beneficios para los usuarios:

  1. Recomendaciones personalizadas: Los sistemas de IA pueden analizar los hábitos y preferencias de lectura de los usuarios para ofrecer recomendaciones de libros personalizadas, mejorando su experiencia de lectura.
  2. Búsqueda y descubrimiento mejorados: Los motores de búsqueda basados en IA pueden proporcionar resultados más precisos y relevantes, facilitando a los usuarios encontrar la información que necesitan dentro de la vasta colección de recursos de la biblioteca.
  3. Asistencia 24/7: Los chatbots basados en IA pueden brindar asistencia las 24 horas del día, los 7 días de la semana, respondiendo preguntas comunes, ayudando con consultas básicas de investigación y proporcionando orientación sobre el uso de servicios bibliotecarios y recursos digitales.
  4. Accesibilidad: Las tecnologías de IA pueden ayudar a los usuarios con discapacidades proporcionando formatos alternativos para los materiales de la biblioteca, como versiones de audio de libros o capacidades de texto a voz para recursos en línea.
  5. Traducción de idiomas: Las herramientas de traducción basadas en IA pueden ayudar a los usuarios que hablan diferentes idiomas a acceder a materiales y servicios bibliotecarios, derribando barreras lingüísticas y promoviendo la inclusión.

La ley de Inteligencia Artificial de la Unión Europea garantiza el respeto de los derechos fundamentales de los ciudadanos y estimula la inversión y la innovación

Regulation laying down harmonised rules on artificial intelligence (artificial intelligence act), 21 May 2024 European Union, may 2024

Ver la ley

Hoy, el Consejo aprobó una ley pionera que busca armonizar las normas sobre inteligencia artificial (IA), conocida como la Ley de Inteligencia Artificial. Esta legislación emblemática sigue un enfoque «basado en el riesgo», lo que significa que cuanto mayor sea el riesgo de causar daño a la sociedad, más estrictas serán las reglas. Es la primera de su tipo en el mundo y puede establecer un estándar global para la regulación de la IA.

La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en el mercado único de la UE, tanto por actores privados como públicos. Al mismo tiempo, busca garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa. La Ley de IA se aplica solo a áreas dentro del derecho de la UE y prevé exenciones para sistemas utilizados exclusivamente con fines militares y de defensa, así como para fines de investigación.

La adopción de la Ley de IA es un hito significativo para la Unión Europea. Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías. Con la Ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad al tratar con nuevas tecnologías, al tiempo que asegura que esta tecnología en rápida evolución pueda florecer y estimular la innovación europea.

Clasificación de sistemas de IA como de alto riesgo y prácticas prohibidas de IA

La nueva ley clasifica diferentes tipos de inteligencia artificial según su riesgo. Los sistemas de IA que presenten un riesgo limitado estarán sujetos a obligaciones de transparencia muy ligeras, mientras que los sistemas de IA de alto riesgo serán autorizados, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE. Los sistemas de IA como la manipulación cognitivo-conductual y la puntuación social serán prohibidos en la UE debido a que su riesgo se considera inaceptable. La ley también prohíbe el uso de IA para la vigilancia predictiva basada en perfiles y sistemas que utilizan datos biométricos para categorizar a las personas según categorías específicas como raza, religión u orientación sexual.

Modelos de IA de propósito general

La Ley de IA también aborda el uso de modelos de IA de propósito general (GPAI). Los modelos GPAI que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo, en cuanto a la transparencia, pero aquellos con riesgos sistémicos deberán cumplir con reglas más estrictas.

Nueva arquitectura de gobernanza

Para asegurar una adecuada aplicación, se establecen varios órganos de gobierno:

  • Una Oficina de IA dentro de la Comisión para hacer cumplir las reglas comunes en toda la UE.
  • Un panel científico de expertos independientes para apoyar las actividades de aplicación.
  • Un Consejo de IA con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación coherente y efectiva de la Ley de IA.
  • Un foro consultivo para las partes interesadas que proporcione experiencia técnica al Consejo de IA y a la Comisión.

Sanciones

Las multas por infracciones a la Ley de IA se establecen como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. Las PYMEs y las start-ups estarán sujetas a multas administrativas proporcionales.

Transparencia y protección de los derechos fundamentales

Antes de que un sistema de IA de alto riesgo sea desplegado por algunas entidades que brindan servicios públicos, se deberá evaluar el impacto en los derechos fundamentales. La regulación también prevé una mayor transparencia respecto al desarrollo y uso de sistemas de IA de alto riesgo. Los sistemas de IA de alto riesgo, así como ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas, deberán registrarse en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones deberán informar a las personas naturales cuando estén siendo expuestas a dicho sistema.

Medidas en apoyo de la innovación

La Ley de IA prevé un marco legal favorable a la innovación y tiene como objetivo promover el aprendizaje regulatorio basado en evidencias. La nueva ley contempla que los entornos regulatorios de prueba para la IA, que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también permitan la prueba de sistemas de IA innovadores en condiciones del mundo real.

Próximos pasos

Después de ser firmada por los presidentes del Parlamento Europeo y del Consejo, la ley se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor veinte días después de esta publicación. La nueva regulación se aplicará dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.

Antecedentes

La Ley de IA es un elemento clave de la política de la UE para fomentar el desarrollo y la adopción de IA segura y legal que respete los derechos fundamentales en todo el mercado único. La Comisión (Thierry Breton, comisario de mercado interior) presentó la propuesta de la Ley de IA en abril de 2021. Brando Benifei (S&D / IT) y Dragoş Tudorache (Renew Europe / RO) fueron los ponentes del Parlamento Europeo en este expediente y se alcanzó un acuerdo provisional entre los colegisladores el 8 de diciembre de 2023.