Archivo por meses: diciembre 2023

El uso de la IA generativa por parte de los estudiantes: la amenaza de las alucinaciones

«Students’ Use of Generative AI: The Threat of Hallucinations». 2023. Center for Democracy and Technology (blog). 18 de diciembre de 2023. https://cdt.org/insights/students-use-of-generative-ai-the-threat-of-hallucinations/.


Los sistemas de inteligencia artificial generativa entrenados con grandes cantidades de datos existentes utilizan el aprendizaje automático para producir nuevo contenido (como texto o imágenes) en respuesta a las indicaciones de los usuarios. En educación, la inteligencia artificial generativa se menciona con mayor frecuencia en el contexto de la integridad académica, con profesores expresando temores sobre el fraude en el aula.

Sin embargo, la encuesta a profesores, padres y estudiantes muestra que el 45 por ciento de los estudiantes que dicen haber utilizado inteligencia artificial generativa informan haberlo hecho por razones personales, mientras que solo el 23 por ciento informa haberlo utilizado para la escuela. De aquellos que han utilizado la tecnología por razones personales, muchas de las aplicaciones son de gran importancia: el 29 por ciento la ha utilizado para lidiar con la ansiedad o problemas de salud mental, el 22 por ciento para lidiar con problemas con amigos y el 16 por ciento para lidiar con problemas familiares. Como resultado, incluso en el contexto de uso personal, los sistemas de inteligencia artificial generativa que producen información incorrecta pueden tener consecuencias perjudiciales significativas.

¿Qué son las alucinaciones y por qué ocurren? Por su estilo de escritura y la forma en que proporcionan información, los sistemas de inteligencia artificial generativa pueden parecer fuentes confiables y autorizadas de información. Sin embargo, estos sistemas a menudo producen texto que es factualmente incorrecto. Estos errores factuales se conocen como «alucinaciones». Las alucinaciones son una consecuencia tanto del diseño como de la estructura operativa de los sistemas de inteligencia artificial generativa.

Desde el punto de vista del diseño, los sistemas de inteligencia artificial generativa están construidos con la intención de imitar el texto producido por humanos. Para lograr esto, generalmente se entrenan con enormes conjuntos de datos de texto a partir de los cuales el sistema aprende sobre la estructura de oraciones y párrafos, y luego produce texto que parece tener sentido para los lectores humanos al predecir repetidamente la siguiente palabra más lógica. Este proceso no está diseñado para crear contenido que sea verdadero o correcto, sino que tenga sentido.

Estructuralmente, la mayoría de los sistemas de inteligencia artificial generativa operan «desconectados», lo que significa que no están obteniendo activamente datos de internet para responder a indicaciones. Por lo tanto, están limitados a los datos contenidos en sus conjuntos de datos de entrenamiento. Esto hace que los sistemas de inteligencia artificial generativa sean particularmente poco confiables cuando se trata de eventos actuales que no aparecen en sus conjuntos de datos de entrenamiento.

Los posibles impactos perjudiciales de las alucinaciones en los estudiantes La realidad de las alucinaciones de inteligencia artificial generativa, junto con los altos niveles de uso personal por parte de los estudiantes para asuntos importantes, plantea grandes preocupaciones sobre el acceso a información precisa en momentos de crisis. Por ejemplo, los estudiantes podrían estar haciendo preguntas a ChatGPT (u otra herramienta de inteligencia artificial generativa) sobre cómo lidiar con un problema de salud mental en curso, que podría ser potencialmente una situación de vida o muerte. Dado que la mayoría de los sistemas de inteligencia artificial generativa probablemente utilizados por los estudiantes se entrenan con información recopilada de internet, podrían replicar malentendidos comunes sobre problemas sensibles como desafíos de salud mental, roles de género y orientación sexual.

Además de las alucinaciones tradicionales, que son simplemente información incorrecta, la inteligencia artificial generativa también puede tener impactos emocionales significativos en los estudiantes que utilizan la herramienta por razones personales al replicar prejuicios sociales contra poblaciones marginadas, incluidas cuestiones de raza, género u orientación sexual. Los estudiantes, especialmente durante las etapas vitales de desarrollo de la educación K-12, pueden internalizar estos prejuicios, ya sea contra ellos mismos o contra otros.

Las alucinaciones también son motivo de preocupación significativa cuando los estudiantes utilizan plataformas de inteligencia artificial generativa con fines académicos. La posibilidad de que los estudiantes reciban información inexacta puede ir en contra directa del objetivo de las escuelas de proporcionar información confiable y de calidad a los estudiantes. Los estudiantes que no comprenden las posibilidades de alucinaciones de estas herramientas pueden usarlas de manera ineficaz y perder usos beneficiosos. Sin comprender las limitaciones de la inteligencia artificial generativa, los estudiantes pueden no poder aprovechar de manera efectiva su potencial como herramienta para complementar su aprendizaje y habilidades de pensamiento crítico.

¿Cómo deben abordar las escuelas el problema de las alucinaciones?

Para combatir las posibles consecuencias devastadoras de las alucinaciones de inteligencia artificial generativa tanto en contextos personales como académicos, las escuelas deben:

  • Comprender las limitaciones de la inteligencia artificial generativa y asegurarse de que los maestros estén adecuadamente capacitados. Aunque los beneficios potenciales de estas herramientas para mejorar el aprendizaje pueden ser emocionantes, es imperativo que los funcionarios escolares estén completamente familiarizados con las deficiencias tecnológicas e impartan ese conocimiento a los educadores. Los maestros desempeñan un papel crucial para garantizar que la inteligencia artificial generativa se utilice de manera responsable y apropiada en el aula. Pero para hacerlo, necesitan acceso a recursos y capacitación.
  • Continuar invirtiendo en consejeros y otros apoyos de salud mental. Las escuelas deben tener cuidado de no dirigir a los estudiantes hacia el uso de inteligencia artificial generativa como recurso sobre temas tan sensibles como su salud mental. Los problemas de salud mental en curso requieren empatía y experiencia humanas, por lo que las escuelas no deben adquirir herramientas de inteligencia artificial generativa para reemplazar o incluso triar el cuidado que de otro modo proporcionaría un ser humano. Si las escuelas van a adquirir una herramienta para complementar a los consejeros y apoyos de salud mental ya existentes, deberían hacer referencia a nuestra guía sobre principios de adquisición responsables, ya que incluso como herramienta complementaria, los sistemas de inteligencia artificial generativa pueden causar daño si no se prueban y regulan adecuadamente.
  • Brindar educación a los estudiantes sobre qué es la inteligencia artificial generativa, cómo funciona y por qué ocurren las alucinaciones. Para combatir la exageración no controlada del público en torno a la inteligencia artificial generativa, las escuelas deben dotar a los estudiantes con conocimientos básicos sobre la tecnología, sus capacidades y limitaciones, y cómo puede salir mal tanto en usos académicos como personales.
  • Brindar educación a los estudiantes sobre la alfabetización mediática y las habilidades de investigación. El lanzamiento de ChatGPT en noviembre pasado subrayó la necesidad de que los estudiantes comprendan cómo ser consumidores responsables y efectivos del conocimiento a través de nuevas herramientas tecnológicas. El uso de la inteligencia artificial generativa es cada vez más inevitable de la misma manera que el uso de internet, por lo que es vital que las escuelas proporcionen a los estudiantes capacitación y recursos sobre cómo evaluar la precisión y confiabilidad de la información obtenida a través de ChatGPT y otras plataformas de inteligencia artificial generativa.
  • Asegurarse de que maestros y estudiantes comprendan cuándo es apropiado usar la inteligencia artificial generativa. La inteligencia artificial generativa no está destinada a reemplazar la enseñanza y el aprendizaje tradicionales en ningún caso; no es un reemplazo del conocimiento y no es un terapeuta o consejero efectivo para problemas personales. Sin embargo, puede usarse, por ejemplo, como una herramienta de apoyo para mejorar la escritura o como una herramienta novedosa para la investigación al explorar un nuevo tema. Las escuelas deben proporcionar orientación y capacitación tanto a maestros como a estudiantes sobre cómo hacer un uso efectivo de la inteligencia artificial generativa.

El índice de transparencia de los principales modelos de Inteligencia Artificial revela que la gran mayoría son opacos

Índice de Transparencia de Modelos Fundamentales

«New Index Finds AI Models Are Murky, Not Transparent At All». 2023. Accedido 21 de diciembre de 2023. https://www.darkreading.com/cyber-risk/new-index-finds-ai-models-are-murky-not-transparent-at-all.


El Índice de Transparencia de Modelos Fundamentales de la Inteligencia Artificial es una evaluación que se realiza a los principales modelos de IA para medir la transparencia en su desarrollo y funcionamiento. Cuando se menciona que la gran mayoría de estos modelos son opacos, significa que existe una falta significativa de claridad y divulgación sobre cómo se entrenan, las fuentes de datos que utilizan, y cómo toman decisiones.


La nueva orden ejecutiva sobre inteligencia artificial (IA) firmada por el presidente de Estados Unidos, Joe Biden, detalla cómo la industria debe asegurarse de que la IA sea confiable y útil. La orden sigue a discusiones destacadas en julio y septiembre entre empresas de IA y la Casa Blanca, que resultaron en promesas sobre cómo las empresas de IA serán más transparentes acerca de las capacidades y limitaciones de la tecnología.

Hacer promesas de transparencia es un paso positivo, pero es necesario contar con un método para medir cuán bien se están cumpliendo esas promesas. Un método podría ser el Model Transparency Index desarrollado por el Centro de Investigación sobre Modelos Fundamentales de la Universidad de Stanford. El índice calificó 10 modelos de IA en función de 100 métricas diferentes, incluyendo cómo se entrenan los modelos, información sobre las propiedades y funciones del modelo, y cómo se distribuyen y utilizan los modelos. Las puntuaciones se calcularon en base a datos disponibles públicamente, aunque las empresas tuvieron la oportunidad de proporcionar información adicional para cambiar la puntuación.

¿Cómo se ve la transparencia al hablar de algunos de los modelos fundamentales más utilizados? No es buena. «Ningún desarrollador importante de modelos fundamentales se acerca a proporcionar transparencia adecuada, revelando una falta fundamental de transparencia en la industria de la IA», escribieron los investigadores de Stanford en el resumen de sus hallazgos.

Llama 2 de Meta recibió la puntuación total más alta en el índice, con 54 sobre 100.

El GPT-4 de OpenAI obtuvo 48, lo cual no es sorprendente, ya que OpenAI decidió retener detalles «sobre la arquitectura (incluido el tamaño del modelo), hardware, ordenador de entrenamiento, construcción del conjunto de datos [y] método de entrenamiento» al pasar de GPT-3 a GPT-4 a principios de este año.

En su mayor parte, los sistemas de IA potentes, como el GPT-4 de OpenAI y el PaLM2 de Google, son sistemas de caja negra. Estos modelos se entrenan con grandes volúmenes de datos y se pueden adaptar para su uso en una amplia variedad de aplicaciones. Pero para un creciente grupo de personas preocupadas por cómo se utiliza la IA y cómo podría afectar a las personas, el hecho de que haya poca información disponible sobre cómo se entrenan y utilizan estos modelos es un problema.

Según los investigadores, hay un poco más de transparencia en torno a la protección de datos de usuario y la funcionalidad básica del modelo. Los modelos de IA obtuvieron buenos resultados en indicadores relacionados con la protección de datos de usuario (67%), detalles básicos sobre cómo se desarrollan sus modelos fundamentales (63%), las capacidades de sus modelos (62%) y sus limitaciones (60%).

La nueva orden ejecutiva describe varias cosas que deben suceder para mejorar la transparencia. Los desarrolladores de IA deberán compartir los resultados de las pruebas de seguridad y otra información con el gobierno. El Instituto Nacional de Estándares y Tecnología tiene la tarea de crear estándares para garantizar que las herramientas de IA sean seguras y seguras antes de su lanzamiento público.

Las empresas que desarrollen modelos que representen riesgos serios para la salud y seguridad públicas, la economía o la seguridad nacional deberán notificar al gobierno federal cuando estén entrenando el modelo y compartir los resultados de las pruebas de seguridad antes de hacer públicos los modelos.

Urge solucionar la falta de transparencia en torno a los datos utilizados para entrenar modelos de Inteligencia Artificial

Hardinges, Jack, Elena Simperl, y Nigel Shadbolt. 2023. «We Must Fix the Lack of Transparency Around the Data Used to Train Foundation Models». Harvard Data Science Review, diciembre. https://doi.org/10.1162/99608f92.a50ec6e6.

En el ámbito de la IA, los modelos, ya sean de aprendizaje supervisado, no supervisado o de otro tipo, necesitan ser alimentados con grandes cantidades de datos para aprender patrones y realizar tareas específicas. Abordar esta falta de transparencia es crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable. La transparencia en este proceso implica proporcionar información clara y completa sobre la naturaleza y la fuente de los datos utilizados en el entrenamiento de estos modelos. Sin embargo, en la mayoría de los casos, las empresas o desarrolladores no muestran de dónde compilan esta información, lo que puede tener consecuencias significativas en términos de ética, sesgo y confianza pública.


El estudio aborda la importancia del acceso a información sobre los datos utilizados en la formación de modelos de inteligencia artificial (IA). Aunque algunos sectores de la comunidad de IA han progresado, persiste una falta general de transparencia sobre el contenido y las fuentes de los conjuntos de datos de entrenamiento, ya sea por iniciativa voluntaria de las empresas o por intervención regulatoria, y esto debe cambiar.

Los modelos fundamentales se entrenan con grandes colecciones de datos, muchos de los cuales se recopilan de toda la web. La investigación del Instituto Allen de IA y The Washington Post sobre el popular conjunto de datos de entrenamiento C4 reveló que su contenido provenía de 15 millones de dominios web diferentes.

Conocer el contenido de los conjuntos de datos utilizados para entrenar modelos y cómo se han compilado es de vital importancia. Sin esta información, el trabajo de desarrolladores, investigadores y éticos para abordar sesgos o eliminar contenido perjudicial de los datos se ve obstaculizado. La información sobre los datos de entrenamiento también es crucial para que los legisladores evalúen si los modelos fundamentales han absorbido datos personales o material con derechos de autor. Además, los operadores previstos de los sistemas de IA y aquellos afectados por su uso son mucho más propensos a confiar en ellos si comprenden cómo se han desarrollado.

Sin embargo, algunas empresas no documentan el contenido de sus datos de entrenamiento, incluso internamente, por temor a encontrar información personal sobre individuos identificables, material con derechos de autor y otros datos obtenidos sin consentimiento.

En público, las empresas han utilizado diferentes argumentos para justificar la falta de transparencia en torno a sus datos de entrenamiento. OpenAI, en el lanzamiento de su modelo GPT-4, declaró que no compartiría información detallada sobre la «construcción del conjunto de datos» y otros aspectos del desarrollo del modelo debido al «panorama competitivo y las implicaciones de seguridad de los modelos a gran escala». Aunque algunas empresas han publicado los datos de ajuste fino, tienden a omitir los conjuntos de datos de entrenamiento más grandes y complejos que son más propensos a contener contenido perjudicial o material con derechos de autor.

Partes de la comunidad de IA han avanzado en la transparencia de los datos de entrenamiento. La plataforma Hugging Face, inspirada en los pioneros de la seguridad de la IA Emily Bender, Batya Friedman y Timnit Gebru, promueve el uso de Model Cards y Dataset Cards entre su comunidad de desarrolladores. Las Dataset Cards documentan cómo se creó un conjunto de datos, su contenido y posibles problemas legales o éticos asociados.

En julio de 2023, la Casa Blanca anunció que siete grandes empresas de IA se comprometieron a «desarrollar medidas técnicas sólidas para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como el marcado de agua». Dado que los modelos fundamentales de IA han comenzado a entrenarse con datos generados por IA, estas herramientas desempeñarán un papel importante en documentar la procedencia de los datos de entrenamiento y la integridad de las salidas resultantes de la IA.

Las decisiones sobre qué documentar sobre los datos de entrenamiento podrían eventualmente salir de las manos de los desarrolladores. La Comisión Federal de Comercio de EE. UU. ha ordenado recientemente a OpenAI que documente todas las fuentes de datos utilizadas para entrenar sus grandes modelos de lenguaje. Un grupo de grandes medios de comunicación ha publicado una carta abierta instando a los legisladores de todo el mundo a introducir nuevas regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento.

Se prevé que la demanda de información sobre los datos de entrenamiento sea la última ola en un esfuerzo continuo por la transparencia empresarial. En el Reino Unido, las leyes sobre el registro obligatorio y la publicación de información por parte de las empresas se remontan al siglo XIX, y a lo largo del tiempo, los reguladores han desarrollado enfoques estandarizados para evitar que cada empresa elija su propia forma de informar sobre sus finanzas y otras actividades. Quizás necesitemos lo mismo para las divulgaciones sobre los datos en los que se han entrenado los modelos fundamentales de IA.

Ya sea que las empresas den un paso adelante o que intervengan los gobiernos, deben asegurarnos de que los datos utilizados para entrenar sistemas de IA no estén envueltos en secreto. La confianza pública, nuestra capacidad para mitigar sus posibles daños y la eficacia de nuestro régimen regulatorio dependen de ello.

Cinefórum y bibliotecas con Carlos Redondo. Planeta Biblioteca 2023/12/20

Cinefórum y bibliotecas con Carlos Redondo. Planeta Biblioteca 2023/12/20

ESCUCHAR EL PROGRAMA DE RADIO

Ir a descargar


Entrevistamos a Carlos Redondo Martín, encargado de la sección de cine en la Biblioteca Municipal Torrente Ballester de Salamanca, con el objetivo de obtener información sobre la organización de cinefórums en bibliotecas. Nos proporcionó detalles acerca de la naturaleza y propósito de un cinefórum, así como consejos sobre la planificación de esta actividad. Abordó temas como los requisitos para llevar a cabo un cinefórum, el proceso de selección de películas, los intereses de los usuarios y cómo esta iniciativa se convierte en un catalizador del debate dentro de la comunidad.

Liberar el poder de los espacios comunes europeos de datos para agilizar la información reglamentaria

Sziranyi, Z., Guasch, C., Nardin, A. et al., Unlocking the power of common European data spaces for streamlined regulatory reporting, Publications Office of the European Union, 2023, https://data.europa.eu/doi/10.2799/546237


Este documento temático tiene como objetivo explorar qué son los espacios de datos europeos comunes y cómo podrían ayudar en el contexto de la presentación de informes regulatorios. Al facilitar la consolidación, la descubribilidad y el intercambio de datos, los espacios de datos europeos comunes podrían desempeñar un papel beneficioso al respaldar la simplificación de las distintas etapas del proceso de presentación de informes regulatorios y, en consecuencia, reducir la carga administrativa.

Presentación del libro «Historia del Real Madrid: Memorias de la Leyenda Blanca y falsos relatos sobre su ‘Leyenda Negra’ de Javier Muñoz Castaño. Planeta Biblioteca 2023/12/20

Presentación del libro «Historia del Real Madrid: Memorias de la Leyenda Blanca y falsos relatos sobre su ‘Leyenda Negra’ de Javier Muñoz Castaño».

Adquirir la obra

Planeta Biblioteca 2023/12/20

ESCUCHAR EL PROGRAMA DE RADIO

Ir a descargar


Javier Muñoz Castaño, nacido en Plasencia en 1992, se graduó en Información y Documentación en la Universidad de Salamanca, además de completar el Máster en Marketing Digital. Su pasión por el Real Madrid CF se gestó desde su más temprana infancia, y durante la adolescencia, surgió en él un profundo interés por la comunicación. Después de siete años cubriendo eventos deportivos en Plasencia y Salamanca, así como de la Primera División, especialmente siguiendo al equipo de sus amores, y entrevistando a ídolos como José Emilio Amavisca, llegó el momento cumbre en 2020: la realización del sueño de publicar el presente libro, fusionando sus dos mayores vocaciones.

Este libro, en un emotivo tributo a los socios e integrantes del Real Madrid, busca ser la principal fuente de consulta para desmentir las falsedades históricas dirigidas al club. Desde sus orígenes hasta la temporada 2022/23, se abordan todos los logros cronológicamente, analizando aspectos tácticos, técnicos, sentimentales y estadísticos. El relato incluye hazañas épicas de cada generación del club, enfrentamientos con rivales europeos y la destacada presencia del baloncesto y el Real Madrid Femenino. Acompañado de frases memorables, anécdotas y detalles sobre las infraestructuras del club, el libro ofrece una perspectiva completa, incluyendo opiniones, valores y la esencia de la afición. El anexo fotográfico destaca momentos especiales vividos por el autor y otros madridistas, invitando al lector a sumergirse en la rica historia y pasión del Real Madrid.

Alfabetización informacional y sociedad: Un informe para presentar los resultados de una revisión de la literatura sobre el impacto de la alfabetización informacional en la sociedad.

Ryan, B., Cruickshank, P., & Milosheva, M. (2023). Information literacy and society: A report to present findings from a review of literature on the impact of information literacy on society. Media and Information Literacy Alliance

Texto completo



Este informe presenta los hallazgos derivados de una revisión de la literatura que informa sobre el impacto de la alfabetización informacional (AI) en la sociedad. Su objetivo es proporcionar consideraciones sobre cómo la investigación académica sobre la AI puede afectar positivamente a la sociedad, basándose en el informe del proyecto Marco de Impacto de la Alfabetización Informacional (ILIF) de 2022

El equipo del proyecto llevó a cabo las siguientes acciones:

  • A partir de un conjunto filtrado de más de 4000 resultados, desarrollaron listas largas correspondientes a los cinco temas en la definición de AI de CILIP (2018), totalizando 197 elementos para una posible revisión adicional.
  • Señalaron temas de investigación, barreras para la investigación de la AI, barreras y facilitadores para la formación de poblaciones con alfabetización informacional emergentes de las listas largas.
  • Filtraron las listas largas a listas cortas, totalizando 35 elementos, para una revisión detallada.
  • Clasificaron las listas largas y cortas en dos dimensiones: geografía y método de estudio.
  • Realizaron un análisis detallado de los elementos de la lista corta.
  • Extrajeron conclusiones sobre el papel de la alfabetización informacional en la sociedad.

La investigación central que examina el papel de la alfabetización informacional (AI) en la sociedad tiene un sesgo geográfico hacia el ámbito anglosajón y el primer mundo. Los factores que causan este sesgo no están claros, pero un sesgo aparente adicional puede haber resultado del enfoque de este proyecto en publicaciones revisadas por pares en inglés. La educación, especialmente la educación terciaria, está significativamente sobrerrepresentada en la literatura de investigación sobre AI. Se plantean barreras para la formación de poblaciones con alfabetización informacional debido a problemas relacionados con la enseñanza de la AI y las estructuras que podrían respaldarla, incluida la (in)acción gubernamental.

Otros hallazgos clave son:

  • La investigación sobre la alfabetización informacional abarca una amplia variedad de temas y contextos.
  • La formación/educación en AI debe ser impartida mediante la colaboración entre bibliotecarios y maestros/profesores, continuar a lo largo de la educación y reforzarse durante las carreras y vidas.
  • La investigación sobre la alfabetización informacional puede tener un impacto indirecto, por ejemplo, la investigación para mejorar la AI de los profesionales médicos no solo afecta a estos profesionales sino también a la sociedad en general, es decir, a sus pacientes.
  • Existen oportunidades perdidas para dicho impacto social, por ejemplo, cuando los profesionales médicos carecen de habilidades de alfabetización informacional y, por lo tanto, pueden no brindar el mejor tratamiento posible a sus pacientes; si los ciudadanos no tienen alfabetización en información de salud, su salud puede verse afectada.
  • Muchos de los hallazgos del proyecto ILIF están validados.

Urban Libraries Council y la Universidad de Albany se asocian para estudiar el impacto de la IA en bibliotecas

«RELEASE: Public Libraries Set the Stage for Integration of Artificial Intelligence in Their Services and Resources». s. f. Urban Libraries Council. Accedido 20 de diciembre de 2023. https://www.urbanlibraries.org/newsroom/release-public-libraries-set-the-stage-for-integration-of-artificial-intelligence-in-their-services-and-resources-1-1.


El Urban Libraries Council (ULC) y el Center for Technology in Government (CTG UAlbany) de la Universidad de Albany se han asociado para analizar cómo las bibliotecas pueden capacitar a las comunidades para comprender mejor la Inteligencia Artificial y garantizar su diseño y aplicación éticos. Este proyecto de investigación de tres años, financiado mediante una subvención del Instituto de Servicios de Museos y Bibliotecas, incluirá encuestas e entrevistas a las bibliotecas miembros del ULC, estudios de caso, un informe integral y una guía para profesionales de bibliotecas.

«Estar en la primera línea de la nueva tecnología es una posición común para las bibliotecas, y el rápido crecimiento de la IA ha convertido esto en un tema urgente para los líderes bibliotecarios», dijo Brooks Rainwater, Presidente y CEO de ULC. «Estamos emocionados de asociarnos con CTG UAlbany para demostrar cómo las bibliotecas públicas pueden actuar como catalizadores que fortalezcan la comprensión, el uso y el avance de la IA en nuestras vidas».

La investigación de CTG UAlbany abordará tres preguntas:

  1. ¿Qué papel pueden desempeñar las bibliotecas públicas en aumentar el conocimiento sobre la IA en la comunidad?
  2. ¿Cómo pueden las bibliotecas públicas fomentar la participación cívica inclusiva en iniciativas de IA?
  3. ¿Cuáles son las oportunidades, amenazas, beneficios y desafíos de que las bibliotecas públicas lideren la participación cívica inclusiva en iniciativas de IA?

«Aunque académicos y profesionales recomiendan la participación pública en la IA para identificar posibles perjuicios, mejorar la calidad de los conjuntos de datos y abordar mejor las necesidades de la comunidad, no hay estrategias claras para involucrar a las comunidades en iniciativas de IA ni espacios disponibles donde pueda tener lugar este compromiso», dijo Mila Gascó-Hernández, Directora de Investigación de CTG UAlbany. «Creemos que las bibliotecas públicas, como espacios de aprendizaje y socios comunitarios de confianza, pueden desempeñar un papel crucial en la promoción y el avance de la participación cívica inclusiva en iniciativas de IA».

La investigación se basará en el trabajo realizado por ambos socios. La iniciativa sigue a la investigación anterior de CTG UAlbany sobre el papel de las bibliotecas públicas en mejorar los ecosistemas de gobiernos abiertos y en el desarrollo de comunidades inteligentes. En octubre de 2023, ULC lanzó un informe de liderazgo sobre cómo las bibliotecas públicas pueden prepararse para una rápida integración de la IA en los servicios, recursos y operaciones de la biblioteca. Desde aprovechar las habilidades de ingeniería de los miembros del personal hasta utilizar la IA para avanzar en la alfabetización informacional, ULC recomienda que las bibliotecas deben estar preparadas para una rápida integración de la IA en sus servicios, recursos y operaciones.

Retos presentes y futuros sobre la adopción e implementación de RDA en las bibliotecas de América Latina

Martínez Arellano, Filiberto Felipe, y Patricia De la Rosa Valgañón (eds). Retos presentes y futuros sobre la adopción e implementación de RDA en las bibliotecas de América Latina. Universidad Nacional Autónoma de México. Instituto de Investigaciones Bibliotecológicas y de la Información, 2023.

Texto completo

Esta obra presenta los resultados de una reunión académica entre investigadores, profesores y bibliotecólogos vinculados con la teoría y la práctica de la catalogación, los catálogos y los metadatos, en donde se discutió el tema “Retos presentes y futuros sobre la adopción e implementación de RDA en las bibliotecas de América Latina” En la discusión académica, convocada por la Biblioteca Nacional de México (BNM), el Grupo RDA América Latina y el Caribe de ABINIA, el Instituto de Investigaciones Bibliotecológicas y de la Información (IIBI) y la Dirección General de Bibliotecas y Servicios Digitales de Información (DGBSDI) de la Universidad Nacional Autónoma de México (UNAM), se contó con la participación de representantes de estas instituciones, así como de otras instituciones nacionales e internacionales. La obra reúne valiosas contribuciones sobre el proceso de adopción e implementación del estándar de catalogación RDA (Resource Description and Access) en diversas bibliotecas y otras instituciones, así como contribuciones sobre las principales tendencias en la organización de la información y la catalogación: modelo LRM (Library Reference Model), Datos vinculados (Linked Data) y Grafos del conocimiento (Knowledge Graph). La publicación proporciona un mayor conocimiento de los cambios que han sido incorporados en RDA para afrontar de mejor forma su adopción e implementación en las bibliotecas de México y América Latina, así como su enseñanza e investigación

¿Qué es Copilot de Microsoft? ¿Es mejor que ChatGPT? 

Acceder a Coplitot

El año pasado, Microsoft presentó una versión especial de su motor de búsqueda Bing impulsada por inteligencia artificial (IA). A lo largo del último año y algunos meses, la compañía ha continuado expandiendo sus ofertas, utilizando el mismo servicio de motor de búsqueda como un chatbot de IA llamado Bing Chat, que ahora ha sido renombrado como Copilot. ¿Qué es exactamente Copilot y cómo se compara con otros chatbots de IA como ChatGPT y Claude? Aquí tienes lo que necesitas saber.

Microsoft Copilot es una herramienta de colaboración inteligente que utiliza técnicas de lenguaje natural y aprendizaje automático para proporcionar sugerencias útiles y personalizadas en tiempo real mientras trabajas.

¿Qué es Copilot? Esencialmente, Copilot es la versión de Microsoft de ChatGPT, utilizando el mismo lenguaje. Puedes hacerle preguntas similares y utilizarlo para resolver tareas complejas, como problemas matemáticos y crear imágenes. Copilot se basa en GPT-4, con acceso a internet para proporcionar información actualizada sobre las consultas.

¿Cuánto cuesta Copilot? Copilot es gratuito y es la única forma de acceder gratuitamente a GPT-4. Solo necesitas una cuenta de Microsoft, también gratuita.

¿Por qué hay múltiples aplicaciones Copilot? Hay varias ofertas bajo el paraguas de Copilot, como el chatbot Copilot, Windows Copilot, Copilot for Microsoft 365, Copilot for service, Copilot for Sales, entre otros. Aunque existen múltiples versiones, Copilot es el chatbot principal y es gratuito.

¿Qué modelo de lenguaje utiliza Copilot? Copilot se basa en la última versión del modelo GPT de OpenAI, GPT-4, que es el mismo modelo al que acceden los usuarios de ChatGPT Plus.

¿Cuál es el límite de chat de Copilot? Actualmente, Copilot tiene un límite de 2.000 caracteres por chat, menor que el límite de 4.096 de ChatGPT.

¿Cómo se accede a Copilot? Copilot es accesible de forma gratuita con una cuenta de Microsoft. Puedes ingresar a través del sitio web de Copilot. Microsoft no ha anunciado una opción premium para Copilot hasta ahora.

¿Hay una aplicación Copilot? Si no deseas usar el sitio web, puedes acceder a Copilot a través de la aplicación Bing en dispositivos iPhone y Android.

¿Es Copilot mejor que ChatGPT? Ambos operan de manera similar, ya que utilizan los mismos modelos de lenguaje. Copilot puede ser más eficiente y preciso que la versión gratuita de ChatGPT (GPT-3.5). Copilot se destaca en su integración con la búsqueda en línea, aprovechando la conexión a Internet a través de Bing, lo que lo hace eficiente para acceder a información actualizada. Ambos responderán de manera similar ya que utilizan el mismo modelo de lenguaje. Copilot también proporciona el enlace al contenido del que ha tomado la información.

FUENTE