Archivo de la categoría: Tecnologías de la información

Plan de Acción EDUCAUSE 2024: Políticas y directrices de AI

EDUCAUSE. «2024 EDUCAUSE Action Plan: AI Policies and Guidelines». Accedido 26 de mayo de 2024. https://www.educause.edu/research/2024/2024-educause-action-plan-ai-policies-and-guidelines.

El Estudio del Panorama de la IA 2024 de EDUCAUSE, basado en una encuesta a más de 900 profesionales de tecnología en educación superior, reveló brechas significativas en las políticas y directrices relacionadas con la IA en la educación superior

«Solo el 23% de los encuestados indicó que su institución tiene políticas de uso aceptable relacionadas con la IA ya implementadas, y casi la mitad (48%) de los encuestados no estuvo de acuerdo o estuvo en desacuerdo en que su institución tiene políticas y directrices adecuadas para permitir una toma de decisiones ética y efectiva sobre el uso de la IA».

Más de un año después del «renacimiento de la IA» que revolucionó las expectativas dentro y fuera del aula, la mayoría de las instituciones aún están intentando ponerse al día y establecer políticas y directrices que ayuden a sus líderes, personal, profesores y estudiantes a utilizar estas nuevas y poderosas tecnologías de manera efectiva y segura.

Afortunadamente, las instituciones no necesitan empezar desde cero en el desarrollo de sus políticas y directrices de IA. Gracias al trabajo de Cecilia Ka Yuk Chan y WCET, las instituciones cuentan con una base sobre la cual construir, un marco de políticas que abarca la gobernanza institucional, las operaciones y la pedagogía. Este marco ayuda a garantizar que las políticas y directrices relacionadas con la IA aborden de manera integral aspectos críticos de la vida y el funcionamiento institucional:

Gobernanza incluye la gestión de datos, la evaluación del uso de la IA en toda la institución, la promoción y el monitoreo del uso de la IA por parte de profesores y personal (incluida la investigación), el acceso inclusivo y equitativo, la propiedad intelectual y el uso de la IA para prácticas de promoción, tenencia y recontratación.

Operaciones abarca el desarrollo profesional (capacitación y apoyo), el desarrollo y mantenimiento de la infraestructura para la IA, y la revisión y recomendación de la implementación de la IA para mejorar las prácticas operativas.

Pedagogía incluye la integridad académica, las prácticas de evaluación, la comunicación clara a los estudiantes sobre las expectativas de la IA, el desarrollo de competencias y habilidades en IA para la preparación laboral, la comprensión del sesgo algorítmico, la interacción regular y sustantiva, y la accesibilidad del aprendizaje.

Con este marco como telón de fondo, se desarrolló este plan de acción convocando a un panel de profesionales de tecnología en educación superior para proponer posibles acciones que las instituciones podrían tomar en los próximos dos años para comenzar a establecer políticas y directrices efectivas de IA. Se pidió a los panelistas que revisaran el contenido del Plan de Acción de Horizon 2023 de EDUCAUSE: IA Generativa, reflexionando específicamente sobre el «futuro preferido» descrito en este informe, y que enumeraran los posibles impactos de las políticas y directrices de IA en individuos, unidades, instituciones y colaboraciones entre instituciones. Luego se les pidió a los panelistas que consideraran las acciones que podrían ayudar a los interesados en la educación superior a navegar tanto las políticas y directrices de IA existentes como las nuevas.

En comparación con la línea de tiempo de diez años que normalmente se utiliza para el trabajo de previsión, la ventana de dos años permitió a los panelistas reflexionar sobre los desafíos y oportunidades mucho más inmediatos para la planificación y toma de decisiones del presente. Las capacidades y necesidades de la IA están evolucionando rápidamente, y los líderes de la educación superior deben tomar medidas ahora. Delineando acciones que pueden aprovechar las políticas y directrices existentes o ayudarnos a crear nuevas, el panel ha comenzado a trazar un camino a seguir para la práctica de la IA en la educación superior que esperamos encuentre perspicaz, relevante y accionable.

EDUCAUSE y la Cooperativa WICHE para Tecnologías Educativas (WCET) colaboraron en la planificación y recopilación de datos para este plan de acción.

Aprovechando Políticas y Directrices Existentes

Muchas instituciones ya tienen políticas, directrices y procesos que, aunque no específicos para la IA, podrían estar relacionados o ser aplicables a herramientas y prácticas de IA. En lugar de «reinventar la rueda» creando un conjunto completamente nuevo de políticas y directrices, los líderes de estas instituciones podrían centrarse en comprender cómo aprovechar mejor los recursos y apoyos existentes. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a construir sobre lo que ya existe:

Acciones Individuales

  • Familiarizarse con herramientas comunes de IA.
  • Ser buenos administradores de los datos institucionales y las directrices existentes.
  • Desarrollar la alfabetización individual en IA.

Acciones Departamentales o de Unidad

  • Aclarar qué políticas departamentales o de unidad existentes se aplican a la IA y cuáles no.
  • Desarrollar un lenguaje estándar para múltiples tipos de uso de IA en los cursos.
  • Crear oportunidades de colaboración para descubrir qué funciona y qué no.

Acciones Institucionales

  • Formar comités interfuncionales y comunidades de práctica para evaluar y mejorar las prácticas de IA.
  • Ampliar la formación profesional existente para incluir capacitación en IA para todo el personal docente, administrativo y estudiantil.
  • Mapear las políticas y directrices de IA a la misión, valores y estrategias existentes de la institución.

Acciones Multiinstitucionales

  • Colaborar para crear un entendimiento común de las implicaciones potenciales de las regulaciones estatales/federales.
  • Desarrollar criterios de evaluación que puedan añadirse a los recursos existentes.
  • Colaborar con instituciones pares para revisar y comparar políticas y procedimientos de IA.

Creación de Nuevas Políticas y Directrices

Aunque los recursos y apoyos existentes pueden ayudar con algunas necesidades relacionadas con la IA, las tecnologías y prácticas de IA incipientes pueden presentar desafíos novedosos que las políticas y directrices existentes simplemente no abordan. En estos casos, las instituciones pueden necesitar crear nuevas políticas y directrices y establecer nuevas estructuras y apoyos para ayudar a los interesados a navegar estas aguas inexploradas. Las siguientes acciones recomendadas pueden ayudar a los interesados institucionales a saber por dónde empezar cuando tienen una hoja en blanco frente a ellos:

Acciones Individuales

  • Incorporar las voces y perspectivas de los estudiantes al desarrollar nuevas políticas y directrices.
  • Recomendar escenarios o problemas para los que se necesita orientación adicional sobre IA.
  • Ser transparentes y abiertos sobre el uso de IA para generar conversación, incluyendo la documentación de casos de uso nuevos y emergentes.

Acciones Departamentales o de Unidad

  • Revisar regularmente los programas académicos y cursos para determinar dónde debe mejorarse y apoyarse el uso de IA y/o la alfabetización.
  • Desarrollar nuevas colaboraciones para romper barreras.
  • Establecer políticas y procedimientos claros para temas relacionados con la tenencia y promoción de IA.

Acciones Institucionales

  • Garantizar el acceso equitativo a herramientas de IA en todo el campus.
  • Contratar líderes y/o personal específicamente encargado de dirigir la IA para la institución.
  • Crear una estructura de gobernanza de IA de alto nivel (fuera de TI), incluyendo auditorías regulares.

Acciones Multiinstitucionales

  • Construir marcos compartidos para evaluar productos y modelos de IA internos y de proveedores.
  • Aprovechar la comunidad de educación superior y los estándares de cumplimiento comunes para presionar a los proveedores de soluciones de IA para que satisfagan las necesidades de la educación superior.
  • Lanzar iniciativas interinstitucionales para avanzar en las políticas y estándares de IA.

Lanzamiento de la Plataforma de IA de Clarivate

Ben-Porat, Guy. «Introducing the Clarivate Academic AI Platform». Clarivate (blog), 21 de mayo de 2024. https://clarivate.com/blog/introducing-the-clarivate-academic-ai-platform/.

La Plataforma Académica de IA de Clarivate marca un hito significativo en su esfuerzo por empoderar a la comunidad académica con herramientas y tecnologías de IA innovadoras y servirá como una columna vertebral tecnológica, permitiendo la implementación acelerada y consistente de capacidades de IA en todo su portafolio de soluciones Académicas y Gubernamentales.

Esta iniciativa ha sido el resultado de varios proyectos de investigación en los que la empresa se ha involucrado durante el último año, trabajando estrechamente entre sus equipos de ciencia de datos, ingeniería, contenido y experiencia de usuario, y la comunidad de clientes para aprender de primera mano sobre el potencial y las limitaciones de la IA generativa (GenIA). Además, la experiencia acumulada durante años de uso de IA y aprendizaje automático en sus productos ha sido fundamental para dar forma a este avance.

Algunas de sus características son:

  • Asistente de Investigación de Web of Science: Ayudando a investigadores de todos los niveles a explorar el índice de citas más confiable del mundo, aprovechando más de un siglo de investigación, con descubrimiento en lenguaje natural, tareas guiadas y visualizaciones contextuales.
  • Asistente de Investigación de ProQuest: Permitiendo a los usuarios navegar por millones de trabajos académicos de texto completo dentro de ProQuest y obtener fácilmente nuevos conocimientos para la investigación y el aprendizaje.
  • Entrenador Académico Alethea: Fomentando las habilidades de aprendizaje y pensamiento crítico de los estudiantes al guiarlos hacia el núcleo de sus lecturas de curso, ayudándolos a destilar los puntos clave y prepararse para la discusión en clase.
  • Asistente de Investigación de Primo: Transformando el descubrimiento en bibliotecas, proporcionando a los usuarios una nueva forma de encontrar y explorar materiales a través de la búsqueda en lenguaje natural, referencias de artículos y consultas recomendadas para apoyar la investigación.

En el futuro, la plataforma ampliará sus capacidades para admitir la introducción de capacidades de IA en productos adicionales, incluidos Alma, Ebook Central, EndNote y Leganto, así como presentar eficiencias de backend como la creación y enriquecimiento de metadatos.

Las bibliotecas universitarias se preparan para un mundo de investigación y erudición influenciado por la Inteligencia Artificial

Ruttenberg, Judy. «Research Libraries Prepare for a World of AI-Influenced Research and Scholarship». Association of Research Libraries (blog), 23 de mayo de 2024. https://www.arl.org/blog/research-libraries-prepare-for-a-world-of-ai-influenced-research-and-scholarship/.

Las bibliotecas de investigación, responsables de preservar el pasado, el presente y el futuro del conocimiento, tienen una larga experiencia con tecnologías disruptivas. Ahora están utilizando el crecimiento de la inteligencia artificial (IA), especialmente la IA generativa, para mejorar sus servicios, crear oportunidades educativas y evaluar su impacto en las operaciones y colecciones. La Asociación de Bibliotecas de Investigación (ARL) se asegura de que sus miembros y las comunidades a las que sirven prosperen en medio de esta disrupción tecnológica. Esto implica equilibrar las oportunidades innovadoras de la IA generativa con las posibles amenazas al acceso equitativo, la libertad intelectual y la integridad de la información.

La ARL ha sido históricamente fuerte en la defensa de un régimen de derechos de autor equilibrado. A través de la Library Copyright Alliance (LCA), la Asociación emitió en 2023 un conjunto de principios para los derechos de autor y la inteligencia artificial. Estos principios fueron presentados a la Oficina de Derechos de Autor de EE. UU. y a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. Los principios destacan la diferencia crucial entre lo que un modelo de IA aprende y lo que produce en relación con las obras protegidas por derechos de autor. En resumen, para que la IA generativa pueda innovar, es necesario proteger el uso justo en el entrenamiento de modelos de IA, mientras que la ley actual puede abordar las posibles infracciones de derechos de autor en las producciones de IA.

Como líder en la creación de normas para bibliotecas de investigación, la ARL también ha formulado principios generales sobre la IA generativa. Estos principios buscan influir en las políticas y abogar por el desarrollo responsable de tecnologías de IA, promoviendo prácticas éticas y transparentes, y construyendo confianza entre todas las partes involucradas, tanto dentro de las bibliotecas como en el entorno de investigación en general.

Además, la ARL y la Coalición para la Información en Red (CNI) han publicado un conjunto de escenarios que anticipan el impacto del aprendizaje automático y la IA generativa en el ecosistema del conocimiento y la investigación para el año 2035. Estos escenarios no pretenden predecir el futuro, sino ayudar a imaginarlo y explorar las incertidumbres que el sector enfrentará. En una reciente reunión en Boston, la comunidad de la ARL utilizó estos escenarios para identificar y priorizar oportunidades.

Invertir en bibliotecas siempre ha beneficiado a las comunidades durante las disrupciones tecnológicas. La ARL y sus bibliotecas miembro colaboran con socios del sector de investigación y aprendizaje para preservar el patrimonio cultural, apoyar nuevas formas de investigación y publicación, y promover el éxito estudiantil. La Asociación invita a colaborar en el avance de sus principios de IA y en el uso de estos escenarios para asegurar un entorno informativo que promueva el progreso del conocimiento.

AI a juicio: los modelos de Inteligencia Artificial alucinan en 1 de cada 6 consultas en el ámbito legal

Magesh, Varun, Faiz Surani, Matthew Dahl, Mirac Suzgun, Christopher D. Manning, y Daniel E. Ho. «AI on Trial: Legal Models Hallucinate in 1 Out of 6 Queries.» Stanford HAI, May 23, 2024.

PDF

Los modelos de inteligencia artificial (IA) están transformando rápidamente la práctica del derecho, con casi tres cuartas partes de los abogados planeando usar IA generativa para su trabajo. Sin embargo, surgen dudas sobre su fiabilidad.

Los modelos de lenguaje grandes tienden a «alucinar» o inventar información falsa. Un caso notorio fue el de un abogado de Nueva York sancionado por citar casos ficticios creados por ChatGPT. Estudios previos encontraron que los chatbots generales alucinaban entre el 58% y el 82% del tiempo en consultas legales. El Presidente del Tribunal Supremo Roberts advirtió a los abogados sobre estas alucinaciones en su informe anual de 2023.

Para reducir las alucinaciones, se promueve la generación aumentada por recuperación (RAG), que integra un modelo de lenguaje con una base de datos de documentos legales. Los servicios de investigación legal afirman que sus productos basados en RAG «evitan» alucinaciones y garantizan citas legales «libres de alucinaciones». Sin embargo, no han proporcionado evidencia sólida de estas afirmaciones ni han definido claramente «alucinación».

Un estudio reciente de Stanford RegLab y HAI evaluó las afirmaciones de dos proveedores, LexisNexis y Thomson Reuters. Aunque sus herramientas reducen los errores en comparación con modelos de IA generales como GPT-4, aún producen información incorrecta en más del 17% de las consultas, es decir, una de cada seis consultas.

Los sistemas de IA pueden alucinar de dos maneras:

  1. Respuesta incorrecta: describe la ley incorrectamente o comete un error factual.
  2. Respuesta mal fundamentada: describe la ley correctamente pero cita una fuente que no respalda sus afirmaciones.

El estudio resalta la necesidad de evaluaciones rigurosas y transparentes de las herramientas de IA legal. La opacidad actual dificulta a los abogados cumplir con sus responsabilidades éticas y profesionales, y podría socavar los beneficios de eficiencia prometidos por estas herramientas. Se requiere transparencia para que los abogados puedan adoptar la IA de manera responsable y cumplir con las regulaciones emergentes sobre el uso de IA en la práctica legal.

En conclusión, las alucinaciones legales no han sido resueltas y la profesión legal debe enfocarse en establecer puntos de referencia públicos y evaluaciones rigurosas de las herramientas de IA.

Nuevas directrices sobre Inteligencia Artificial para bibliotecas universitarias y de investigación

Research Libraries Guiding Principles for Artificial
Intelligence
Association of Research Libraries (ARL), abril 2024

Texto completo

La Asociación de Bibliotecas de Investigación (ARL) ha presentado un conjunto de siete principios guía dirigidos a los bibliotecarios universitarios, con el objetivo de orientar su labor ante el creciente uso de inteligencia artificial generativa.

En los dos años transcurridos desde el lanzamiento de ChatGPT, los bibliotecarios han sido solicitados frecuentemente para liderar la investigación y el desarrollo de la tecnología emergente de IA, abordando preguntas sobre derechos de autor y preocupaciones de citación. Algunos bibliotecarios han creado sus propias guías de IA o lanzado proyectos piloto para abordan algunas inquietudes académicas.

Los siete principios de la ARL se centran en el desarrollo y la implementación de la IA generativa, que generalmente se refiere a modelos de lenguaje grande como ChatGPT de OpenAI. La asociación afirma que los principios tienen como objetivo «promover prácticas éticas y transparentes, y generar confianza entre los interesados, tanto en las bibliotecas de investigación como en todo el entorno de investigación».

Principios Guía de la ARL

  1. Fomentar la alfabetización digital: Educar a los usuarios de la biblioteca y a los profesionales de TI sobre la IA.
  2. Entender y crear conciencia sobre el sesgo de la IA: Ayudar a los usuarios a navegar y evaluar la IA considerando posibles distorsiones en la información e imágenes generadas.
  3. Defender la apertura y la transparencia: Enfocarse en los algoritmos, datos de entrenamiento y metodologías utilizadas para crear la IA.
  4. Reconocer que no hay IA sin humanos: La participación humana es necesaria en consideraciones éticas, de accesibilidad y de fiabilidad al usar IA en entornos de investigación.
  5. La seguridad y la privacidad son clave: Abogar por leyes y regulaciones que prioricen la información personal de los usuarios de la biblioteca.
  6. Continuar la aplicación de la ley de derechos de autor: Preservar los derechos de las bibliotecas para fines de investigación y educación, y abordar la intersección de los derechos de autor con la IA.
  7. Equidad en la información digital: Asegurar que la ley de derechos de autor guíe los contratos con revistas académicas e instituciones de investigación, y promover el uso justo, la libertad intelectual y de información.

Desarrollo y Aplicación

Las discusiones sobre los principios comenzaron hace más de un año, aproximadamente seis meses después del debut de ChatGPT. Los principios fueron desarrollados a través de ARL Scholars and Scholarship Committee y ARL Advocacy and Public Policy Committee, definidos después de múltiples reuniones y un período de comentarios abiertos para todos los miembros.

Cynthia Hudson Vitale, directora de política científica y becas de la ARL, y Katherine Klosek, directora de política de información y relaciones federales, señalaron que, aunque no hay un plan fijo para revisar y cambiar los principios, están abiertos a la discusión a medida que evolucionan la IA y las preocupaciones relacionadas.

Jeanette Moss, bibliotecaria de apoyo curricular e instrucción en la Universidad Northwestern, afirmó: «Los bibliotecarios siempre han estado en la tarea de enseñar cómo evaluar la información, ya sea información escrita o fuentes de información, por lo que eso no ha cambiado desde que comenzó Internet. Pero ahora tenemos que reforzar aún más ese punto».

Futuros escenarios influidos por la IA en el entorno de la investigación en bibliotecas universitarias

ARL, Xuemao Wang, Northwestern University; Dianne Babski, US National Library of Medicine; Christy Long, University of Oregon; Devin Savage, Illinois Institute of Technology; Catherine Steeves, Western University; and Cynthia Hudson Vitale. «AI and Libraries: Strengths in a Digital Tomorrow». Association of Research Libraries (blog), 22 de mayo de 2024. https://www.arl.org/blog/ai-and-libraries-strengths-in-a-digital-tomorrow/.

En la Reunión de Primavera de la Asociación de Bibliotecas de Investigación (ARL) en Boston, los líderes de bibliotecas y tecnología de la información examinaron los escenarios recientemente publicados por ARL/CNI para el año 2035, centrados en futuros influenciados por la inteligencia artificial (IA) en el entorno de investigación.

Enfoque en Escenarios para la Planificación Estratégica

Al utilizar escenarios para la planificación estratégica, es crucial no centrarse en un solo escenario, sino considerar un espectro de escenarios que destacan las incertidumbres clave dentro del ecosistema académico. Esta metodología reconoce que el futuro probablemente integrará aspectos de múltiples escenarios e incluirá desarrollos imprevistos. Un componente clave de la exploración fue identificar las fortalezas actuales de las bibliotecas de investigación, las cuales son beneficiosas en cada posible futuro. Esto ayuda a preparar a las bibliotecas para aprovechar sus capacidades a través de diversas condiciones futuras, fomentando una estrategia flexible.

Resultados de la Encuesta para Cada Escenario


Escenario 1: IA Democratizada e Integrada Socialmente

Fortalezas Identificadas:

  • Preservar contenido abierto y confiable (38.4% de los votos): Las bibliotecas son vistas como guardianes críticos de contenido confiable y abierto, crucial en un escenario de acceso libre al conocimiento.
  • Instituciones de confianza con historial ético en la gestión de datos (36.0%): La privacidad y la ética en la gestión de datos son altamente valoradas.
  • Apoyo a nuevos modos de investigación (18.6%): Adaptabilidad de las bibliotecas a las metodologías de investigación en evolución.
  • Espacio para la participación comunitaria (7.0%): A pesar de ser menos valorada, sigue siendo significativa para la colaboración interdisciplinaria.

Escenario 2: IA Orientada al Consumidor en Educación y Entretenimiento

Fortalezas Identificadas:

  • Democratizar el acceso a tecnologías y bases de datos (38.3%): Crucial para proporcionar acceso equitativo a tecnologías avanzadas.
  • Grandes cantidades de datos y colecciones (25.9%): Permite apoyar diversas actividades académicas y de investigación personal.
  • Defensores del acceso abierto (25.9%): Aseguran que el conocimiento siga siendo un bien público.
  • Capacidad organizativa para asociarse con empresas tecnológicas (8.6%): Facilita la integración de tecnologías avanzadas.
  • Experiencia en aprendizaje online y virtual (1.2%): Vista como la fortaleza menos destacada.

Escenario 3: IA de Laissez-Faire


Fortalezas Identificadas:

  • Preservar contenido abierto y confiable (29.3%): Crucial en un entorno lleno de desinformación.
  • Democratizar el acceso a tecnologías y bases de datos (29.3%): Equitativo acceso a recursos tecnológicos.
  • Zonas inclusivas para el acceso a la investigación global (17.1%): Garantiza que diversas comunidades puedan acceder a la información.
  • Compartir mejores prácticas para la gestión de crisis y riesgos (13.4%): Importante en un entorno de mal uso de IA.
  • Programas educativos y talleres para aumentar la alfabetización (11.0%): Necesario para mejorar la comprensión y mitigación de los desafíos de la IA.

Escenario 4: IA Autónoma

Fortalezas Identificadas:

  • Preservadores de la ética en datos y la integridad de la información (35.0%): Crucial para mantener la ética y la integridad en la investigación.
  • Preservar contenido abierto y confiable (28.8%): Mantener una base de conocimiento confiable.
  • Fomentar la comunidad y la colaboración (13.8%): Valioso para integrar diversas perspectivas.
  • Apoyar la enseñanza y el aprendizaje adaptativo (12.5%): Crucial en la transformación educativa impulsada por IA.
  • Proximidad a la empresa de investigación (10.0%): Facilita el acceso directo a herramientas y datos de investigación.

Conclusión

Los resultados de la encuesta del ARL/CNI 2035 revelan diversas fortalezas que las bibliotecas de investigación pueden aprovechar mientras navegan por futuros influenciados por la IA. Estas fortalezas subrayan el papel vital de las bibliotecas en mantener la integridad de la información y asegurar el acceso equitativo. Para las bibliotecas, estos conocimientos enfatizan la importancia de continuar construyendo sobre estas competencias básicas mientras se adaptan a las tendencias tecnológicas emergentes. Aprovechar estos escenarios y prestando atención al panorama estratégico más amplio permitirá a las bibliotecas ser proactivas y seguir siendo efectivas como custodios del conocimiento en un mundo cada vez más digital e impulsado por la IA.

Enanos sin gigantes: arquitectura descentralizada y servicios de Internet

Musiani, Francesca. Nains sans géants : Architecture décentralisée et services Internet. Presses des Mines, 2015. https://directory.doabooks.org/handle/20.500.12854/85751

La descentralización está en el corazón del origen de internet, cuyo objetivo principal era permitir la comunicación entre máquinas heterogéneas y distantes sin pasar por un único punto central. Hoy en día, la concentración domina, alrededor de macro-actores, estos «gigantes» cuyas inmensas granjas de servidores manejan la mayor parte del tráfico web. Sin embargo, el principio original no ha sido completamente abandonado y, en todos los ámbitos de aplicación, los desarrolladores exploran alternativas descentralizadas. Estos «enanos» ofrecen motores de búsqueda, redes sociales, espacios de almacenamiento que distribuyen recursos y competencias entre los miembros de la red. Este libro explora las formas de organización descentralizadas de internet: muestra cómo una red que distribuye la responsabilidad de su funcionamiento en sus márgenes, organizándose según un modelo no – o débilmente – jerárquico, puede desarrollarse en el internet contemporáneo, tan fuertemente estructurado.

Un dispositivo así plantea cuestiones sobre la organización de los mercados, la eficiencia de las técnicas, la durabilidad de los modelos, así como la protección de la privacidad y los derechos sobre los datos personales. Como señala Geoffrey Bowker en su prefacio, este libro nos lleva a cuestionar la gobernanza de internet, y, para comprender esta cuestión sociotécnica clave de nuestro tiempo, debemos analizar las alternativas al funcionamiento actual. Precisamente eso hace, de manera detallada e informada, Enanos sin gigantes.

Inteligencia artificial generativa y alfabetización mediática en bibliotecas. Planeta Biblioteca 2024/05/22

Inteligencia artificial generativa y alfabetización mediática en bibliotecas

Planeta Biblioteca 2024/05/22

ESCUCHAR

Ir a descargar


Alonso-Arévalo, Julio. Inteligencia artificial generativa y alfabetización mediática en bibliotecas. Mi Biblioteca, Año 20, n. 78. pp 54-58

Texto completo

La inteligencia artificial (IA) está emergiendo como una tecnología disruptiva que está remodelando rápidamente varios aspectos de nuestra sociedad. Aunque la IA ha estado en uso durante varios años, ha sido la IA generativa, con su capacidad para realizar tareas que normalmente requerirían inteligencia humana, la que ha suscitado este interés. La habilidad de generar contenido de manera similar a como lo haría un ser humano tiene aplicaciones en una amplia variedad de campos, desde la educación hasta la investigación o la salud, que involucran tanto a los profesionales de biblioteca como a las instituciones mismas.

Cómo la IA puede beneficiar a bibliotecarios y usuarios en las bibliotecas públicas

Team, PressReader. «How AI in Public Libraries Can Benefit Librarians and Patrons Alike». Accedido 22 de mayo de 2024. https://blog.pressreader.com/libraries-institutions/how-ai-in-public-libraries-can-benefit-librarians-and-patrons-alike.

La inteligencia artificial (IA) ha surgido como una tecnología que cambia el juego en diversos sectores, desde la academia hasta la industria hotelera. Si bien su implementación ha generado preocupaciones éticas, como la privacidad de datos y el plagio, es innegable que estas tecnologías emergentes están aquí para quedarse y es crucial mejorar nuestra alfabetización en IA.

Las bibliotecas han descubierto que integrar tecnología de IA puede mejorar y optimizar sus servicios. En este artículo, exploramos las formas en que las bibliotecas públicas pueden aprovechar la inteligencia artificial para beneficiar tanto a los usuarios como a los profesionales de las bibliotecas.

Beneficios para los bibliotecarios:

  1. Búsqueda y descubrimiento mejorados: Los motores de búsqueda y los sistemas de recomendación basados en IA pueden ayudar a los bibliotecarios y usuarios a encontrar recursos relevantes de manera más eficiente, mejorando la experiencia general del usuario.
  2. Optimización del desarrollo de colecciones: Los algoritmos de IA pueden ayudar a los bibliotecarios a gestionar y curar colecciones a través de la toma de decisiones basada en datos, analizando estadísticas de circulación, datos demográficos de los usuarios y patrones de uso de recursos.
  3. Servicios al usuario: Los chatbots y asistentes virtuales basados en IA pueden manejar consultas rutinarias y brindar asistencia básica a los usuarios, liberando a los bibliotecarios para centrarse en tareas más complejas y proporcionar un servicio más receptivo fuera del horario regular.
  4. Creación y curación de contenido: Los algoritmos de IA pueden ayudar a los bibliotecarios a crear y curar contenido digital, como etiquetado de metadatos, resúmenes y enriquecimiento de contenido, mejorando la usabilidad y la accesibilidad de los recursos de la biblioteca.

Beneficios para los usuarios:

  1. Recomendaciones personalizadas: Los sistemas de IA pueden analizar los hábitos y preferencias de lectura de los usuarios para ofrecer recomendaciones de libros personalizadas, mejorando su experiencia de lectura.
  2. Búsqueda y descubrimiento mejorados: Los motores de búsqueda basados en IA pueden proporcionar resultados más precisos y relevantes, facilitando a los usuarios encontrar la información que necesitan dentro de la vasta colección de recursos de la biblioteca.
  3. Asistencia 24/7: Los chatbots basados en IA pueden brindar asistencia las 24 horas del día, los 7 días de la semana, respondiendo preguntas comunes, ayudando con consultas básicas de investigación y proporcionando orientación sobre el uso de servicios bibliotecarios y recursos digitales.
  4. Accesibilidad: Las tecnologías de IA pueden ayudar a los usuarios con discapacidades proporcionando formatos alternativos para los materiales de la biblioteca, como versiones de audio de libros o capacidades de texto a voz para recursos en línea.
  5. Traducción de idiomas: Las herramientas de traducción basadas en IA pueden ayudar a los usuarios que hablan diferentes idiomas a acceder a materiales y servicios bibliotecarios, derribando barreras lingüísticas y promoviendo la inclusión.

¿Cuánto ganan los CEO de las más grandes empresas tecnológicas ‘The Magnificent 7’?»

Mann, Ana Altchek, Jyoti. «The Magnificent 7 Companies Are Worth a Combined $14 Trillion — Here’s How Much Their CEOs Make». Business Insider. Accedido 22 de mayo de 2024. https://www.businessinsider.com/ceo-pay-apple-nvidia-microsoft-alphabet-meta-amazon-tesla-2024-5.

Las siete empresas conocidas como los «The Magnificent 7» —Microsoft, Apple, Nvidia, Alphabet, Amazon, Meta y Tesla— tienen un valor combinado de casi 14 billones de dólares según datos de Business Insider. Sus directores ejecutivos reciben sustanciosas compensaciones económicas.

Dirigir una de estas empresas de tecnología también implica recibir un paquete de compensación bastante sustancioso. Por ejemplo, el CEO* de Apple, Tim Cook, recibió una compensación total de 63.2 millones de dólares el año pasado, mientras que Andy Jassy de Amazon recibió aproximadamente 1.3 millones.

Business Insider examinó la compensación total de estos CEOs el año pasado a través de las declaraciones de proxy más recientes de la SEC.

Aquí te mostramos cuánto ganan, quién recibe más y un desglose de su salario:

Tim Cook, CEO de Apple: Su compensación total ascendió a 63.2 millones de dólares el año pasado, incluyendo salario base, premios de acciones e incentivos no patrimoniales.

Satya Nadella, CEO de Microsoft: Su compensación total fue de 48.5 millones de dólares, que incluye salario, acciones y otros beneficios.

Jensen Huang, CEO de Nvidia: Recibió un paquete de compensación de 34.2 millones de dólares, compuesto por premios en acciones, bonificaciones en efectivo y otros gastos.

Mark Zuckerberg, CEO de Meta: Con un salario base simbólico de 1$, su compensación total en 2023 fue de 24.4 millones de dólares.

Sundar Pichai, CEO de Alphabet: Su compensación en 2023 fue de 8.8 millones de dólares, principalmente por salario y seguridad personal.

Andy Jassy, CEO de Amazon: Su compensación fue de 1.3 millones de dólares., con salario y gastos de seguridad.

Elon Musk, CEO de Tesla: Su compensación en 2023 está en espera después de que un juez rechazara su paquete de remuneración de56 mil millones de dólares. Sin embargo, su riqueza proviene principalmente de su participación en Tesla y otras empresas.

*»CEO» significa «Chief Executive Officer» en inglés, que traducido al español sería «Director Ejecutivo» o «Director General». Es el título de la persona que ocupa el cargo más alto en una organización o empresa y que tiene la máxima autoridad en la toma de decisiones.