Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Chatbots de inteligencia artificial en las bibliotecas universitarias: la llegada de ChatGPT

Adetayo, A.J. (2023), «Artificial intelligence chatbots in academic libraries: the rise of ChatGPT«, Library Hi Tech News, Vol. 40 No. 3, pp. 18-21. https://doi.org/10.1108/LHTN-01-2023-0007

El estudio examina el surgimiento de los chatbots de inteligencia artificial en bibliotecas universitarias, centrándose específicamente en el desarrollo de ChatGPT. La investigación tiene como objetivo explorar las aplicaciones potenciales de esta tecnología en el ámbito académico, al tiempo que identifica los riesgos asociados. Para llevar a cabo esta evaluación, se realizó una revisión de la literatura utilizando fuentes de Google Scholar y revistas indexadas en la base de datos Scopus.

Los resultados del estudio indican que ChatGPT tiene el potencial de ser una herramienta útil para servicios técnicos y de lectores en bibliotecas universitarias. Puede ayudar en tareas como responder a consultas de referencia básicas, facilitar la navegación en el sitio web de la biblioteca y colaborar en investigaciones, catalogación, clasificación y desarrollo de colecciones. Sin embargo, el estudio también destaca preocupaciones importantes, como la posibilidad de respuestas inexactas a consultas, el riesgo de mal uso, la comprensión limitada, restricciones en la entrada de información y una dependencia excesiva de la tecnología.

Como conclusión, se sugiere que ChatGPT se utilice como una tecnología complementaria en lugar de un reemplazo para los bibliotecarios humanos en entornos académicos. Este artículo se presenta como uno de los primeros en abordar específicamente el potencial y los desafíos asociados con el uso de ChatGPT en bibliotecas universitarias

Las deficiencias de la detección generativa de IA

«The Shortcomings of Generative AI Detection: How Schools Should Approach Declining Teacher Trust In Students». 2023. Center for Democracy and Technology (blog). 18 de diciembre de 2023. https://cdt.org/insights/the-shortcomings-of-generative-ai-detection-how-schools-should-approach-declining-teacher-trust-in-students/.

La inteligencia artificial generativa, que utiliza el aprendizaje automático para crear contenido en respuesta a indicaciones, ha suscitado preocupaciones sobre la deshonestidad académica en la educación. Aunque los temores de un fraude generalizado se han avivado, la investigación indica que el uso real con fines académicos deshonestos podría ser inferior a la percepción de los profesores. A pesar de esto, hay una creciente desconfianza entre los profesores, lo que lleva a acciones disciplinarias, afectando desproporcionadamente a ciertos grupos de estudiantes.

La inteligencia artificial generativa (Generative AI), que utiliza el aprendizaje automático para producir nuevo contenido (por ejemplo, texto o imágenes) en respuesta a indicaciones del usuario, se ha infiltrado en el sistema educativo y ha cambiado fundamentalmente las relaciones entre profesores y estudiantes.

En todo el país, los educadores han expresado niveles elevados de ansiedad sobre el uso de herramientas de Generative AI, como ChatGPT, por parte de los estudiantes para hacer trampa en tareas, exámenes y ensayos, además de temores de que los estudiantes pierdan habilidades críticas de pensamiento. Al respecto, un profesor incluso lo describió como algo que «ha infectado [el sistema educativo] como un escarabajo de la muerte, ahuecando estructuras sólidas desde adentro hasta su inminente colapso». En respuesta a estos temores, distritos escolares como Nueva York y Los Ángeles impusieron rápidamente prohibiciones para su uso tanto por parte de educadores como de estudiantes. Las escuelas recurrieron a herramientas como detectores de Generative AI para intentar restaurar el control y la confianza de los educadores; sin embargo, los esfuerzos de detección han sido insuficientes tanto en su implementación como en su eficacia.

Investigaciones del CDT confirman la disminución de la confianza…

Un hallazgo significativo a través de encuestas a profesores, padres y estudiantes es que la percepción de los profesores sobre el uso generalizado de Generative AI para hacer trampa parece ser en gran medida infundada. El 40% de los profesores que dicen que sus estudiantes han usado Generative AI para la escuela piensan que sus estudiantes lo han utilizado para escribir y enviar un ensayo. Pero solo el 19% de los estudiantes que informan haber usado Generative AI dicen que lo han utilizado para escribir y enviar un ensayo, un hallazgo respaldado por otras investigaciones de encuestas.

A pesar de la realidad de que una gran mayoría de estudiantes no utiliza Generative AI con fines académicos deshonestos, los profesores han desarrollado una mayor desconfianza en el trabajo de los estudiantes, quizás debido a la cobertura generalizada y aterradora de casos de trampa. El 62% de los profesores estuvo de acuerdo con la afirmación de que «[la] Generative AI me ha hecho más desconfiado sobre si el trabajo de mis estudiantes es realmente de ellos». Y esta desconfianza está afectando a ciertos grupos de estudiantes, que son disciplinados de manera desproporcionada por usar o ser acusados de usar Generative AI; los profesores de títulos I y los profesores de educación especial con licencia informan tasas más altas de acciones disciplinarias por el uso de Generative AI entre sus estudiantes.

Estos niveles elevados de desconfianza entre los profesores y las acciones disciplinarias subsiguientes han llevado a la frustración entre estudiantes y padres acerca de acusaciones erróneas de hacer trampa, lo que puede causar una brecha aún mayor entre profesores y estudiantes. Esta erosión de la confianza es potencialmente perjudicial para las comunidades escolares donde las relaciones sólidas entre educadores y estudiantes son imperativas para proporcionar un entorno de aprendizaje seguro y de calidad.

…Y herramientas de detección y capacitación insuficientes

Las herramientas diseñadas para detectar cuándo se usó Generative AI para producir contenido son actualmente las únicas soluciones tecnológicas disponibles para ayudar a los profesores a combatir la trampa basada en Generative AI; sin embargo, no resuelven los problemas de confianza existentes. En primer lugar, las políticas escolares sobre el uso de herramientas de detección de contenido son irregulares: solo el 17% de los profesores dicen que su escuela proporciona una herramienta de detección de contenido como parte de su plataforma tecnológica más amplia, y el 26% dice que su escuela recomienda su uso, pero deja a elección del educador elegir una e implementarla. Sin una guía sólida sobre el uso e implementación de las herramientas de detección de contenido, los profesores parecen dudar en utilizarlas como mecanismo de defensa contra la trampa. Solo el 38% de los profesores informan que usan una herramienta de detección de contenido de Generative AI con regularidad, y solo el 18% de los profesores están muy de acuerdo en que estas herramientas «son una forma precisa y efectiva de determinar si un estudiante está usando contenido generado por IA». La falta de confianza de los profesores está justificada, ya que, al menos en este momento, estas herramientas no son consistentemente efectivas para diferenciar entre texto generado por IA y escrito por humanos.

Además del uso de herramientas de detección, la confianza de los profesores en su propia eficacia para detectar la escritura creada por AI es baja: el 22% dice que son muy efectivos y el 43% dice que son algo efectivas. Esto es particularmente preocupante dado que la mayoría de los profesores no han recibido orientación sobre cómo detectar la trampa. Solo el 23% de los profesores que han recibido capacitación sobre las políticas y procedimientos de sus escuelas con respecto a Generative AI han recibido orientación sobre cómo detectar el uso de ChatGPT (u otra herramienta de Generative AI) cuando los estudiantes envían tareas escolares.

¿Cómo deberían abordar las escuelas la disminución de la confianza de los profesores?

Dadas nuestras investigaciones y lo que sabemos sobre las herramientas de detección de contenido de Generative AI, no son la respuesta, al menos por ahora. Estas herramientas sufren de problemas de precisión y pueden flagelar desproporcionadamente a los hablantes no nativos. En cambio, las escuelas deben:

  • Ofrecer capacitación a los profesores sobre cómo evaluar el trabajo de los estudiantes a la luz de la Generative AI: para ayudar a los profesores a sentir que tienen más control sobre la integridad académica en el aula, las escuelas deben capacitarlos adecuadamente para lidiar con la nueva realidad de la Generative AI. Esto implica proporcionarles capacitación sobre las limitaciones de los detectores y cómo responder si sospechan razonablemente que un estudiante está haciendo trampa.
  • Elaborar e implementar políticas claras sobre los usos permitidos y prohibidos: nuestras encuestas de este verano muestran que las escuelas no proporcionan orientación sobre lo que se define como «uso indebido» de la Generative AI, con un 37% de los profesores que informan que su escuela no tiene una política o no están seguros de si hay una política sobre Generative AI. Es imperativo que tanto los profesores como los estudiantes conozcan esto, para que todos estén en la misma página sobre el uso responsable de la Generative AI.
  • Alentar a los profesores a modificar las tareas para minimizar la efectividad de la Generative AI: comprender en qué no son buenas los sistemas de Generative AI puede ayudar a los profesores a diseñar tareas en las que el uso de Generative AI no sea útil para los estudiantes. Por ejemplo, los sistemas de Generative AI a menudo son ineficaces para proporcionar fuentes precisas para sus afirmaciones. Requerir que los estudiantes proporcionen citas para cualquier afirmación que hagan probablemente obligará a los estudiantes a ir mucho más allá de una respuesta generada.

Hacia una práctica del código abierto en las bibliotecas

McIlwain, J. Robertson. 2023. «Towards an Open Source-First Praxis in Libraries». Information Technology and Libraries 42 (4). https://doi.org/10.5860/ital.v42i4.16025.


En términos de utilidad y calidad técnica, las soluciones de software de código abierto se han convertido en una opción común para muchas bibliotecas. A medida que las barreras para la adopción se han reducido y sistemas como FOLIO parecen estar listos para cambiar el panorama de la tecnología de la información y la gestión de bibliotecas (LIS, por sus siglas en inglés), vale la pena examinar cómo el uso del código abierto puede respaldar los valores centrales normativos de la biblioteconomía y esbozar una estrategia para la participación crítica con la tecnología que beneficie a los usuarios y a las bibliotecas. Esa estrategia requerirá una mayor codificación, institucionalización e investigación del software de código abierto en muchos niveles.

El software de código abierto ha seguido ganando popularidad entre las bibliotecas en la última década. Ha pasado de ser algo periférico a convertirse en un competidor importante con algunos de los sistemas de software más establecidos en el sector de tecnología de bibliotecas. Sin embargo, la implementación ha sido desigual y todavía está representada en solo un pequeño porcentaje de bibliotecas. Entre aquellas que han adoptado sistemas de código abierto, el lenguaje utilizado para describir el cambio a menudo está relacionado más con el pragmatismo que con preocupaciones normativas. A medida que la aceptación del código abierto como una alternativa técnica legítima a los sistemas propietarios ha ganado impulso, algunos pueden estar interesados en reevaluar los impulsores hasta ahora utilitarios de la adopción de código abierto y preguntarse cómo puede fortalecer los valores e ideales de la biblioteconomía.

El movimiento de código abierto, aunque comparte algunos de los mismos ideales cívicos que la biblioteconomía, no es tan coherente motivacionalmente. Algunos sectores del movimiento están motivados por preocupaciones industriales o de mercado. Por lo tanto, a medida que el código abierto emerge como una opción común para muchas bibliotecas, es de interés para la profesión establecer, desde el principio, los términos en los que se involucrará críticamente con el código abierto.

A medida que el software ha madurado y el soporte de terceros se ha expandido, las barreras técnicas para adoptar el código abierto se han reducido considerablemente y, especialmente cuando se ve a través del prisma de la biblioteconomía crítica, las razones para elegir el código abierto son más pertinentes que nunca. Como se señaló, para muchas bibliotecas, la conversación hasta ahora se ha centrado, y no del todo injustamente, en gran medida en la utilidad y la rentabilidad (una vista desafortunadamente miope del software de código abierto que se detiene en la «utilidad potencial» y destaca la «facilidad de instalación»), ignorando cómo el código abierto puede respaldar los valores de la biblioteconomía y la misión de la biblioteca. Mientras que las preguntas sobre el personal de soporte y el presupuesto siguen siendo relevantes, los avances en la última década significan que ya no deben representar la totalidad de la discusión sobre el código abierto en las bibliotecas. Ahora las bibliotecas tienen la oportunidad de examinar cuál es, argumentablemente, la razón más fundamental por la que deberían adoptar una praxis de código abierto en primer lugar, un enfoque donde los sistemas propietarios de código cerrado solo deberían considerarse como último recurso.


La tecnología de código abierto presenta una oportunidad valiosa para las bibliotecas y los bibliotecarios para servir mejor a sus usuarios al respaldar los valores fundamentales de la profesión. Apoyar estos valores fundamentales es tanto pragmático (alineado con el valor fundamental del servicio) como moral-idealista (alineado con los valores fundamentales de la privacidad, equidad de acceso, custodia y libertad intelectual). Al mismo tiempo, es importante que los bibliotecarios evalúen críticamente y desafíen las suposiciones culturales en torno al estado actual del código abierto y las dinámicas de poder inherentes, y la información como una mercancía.

Las cinco leyes de la biblioteconomía

Las cinco leyes de la biblioteconomía Por Dianna Dilworth el 7 de julio de 2014 – 2:55 PM

INFOGRAFÍA

Las Cinco Leyes de Ranganathan

  • Los libros son para usarlos;
  • A cada lector su libro;
  • A cada libro su lector;
  • Ahorra el tiempo del lector;
  • La biblioteca es un organismo en crecimiento.


libraryinfographicUSC Online ha creado una infografía llamada, «Las Cinco Leyes de la Biblioteconomía», que explora cinco principios que pueden ayudar a guiar las prácticas de los bibliotecarios.

Según el gráfico, casi 2,5 millones de libros de bibliotecas públicas circularon entre más de 1,5 millones de personas en 2011. El gráfico también señala que hay más de 120.000 bibliotecas en Estados Unidos.

INFOGRAFÏA

El NIST identifica tipos de ciberataques que manipulan el comportamiento de los sistemas de inteligencia artificial (IA)

«NIST Identifies Types of Cyberattacks That Manipulate Behavior of AI Systems». 2024. NIST, enero. https://www.nist.gov/news-events/news/2024/01/nist-identifies-types-cyberattacks-manipulate-behavior-ai-systems.

La publicación, una colaboración entre el gobierno, la academia y la industria, tiene la intención de ayudar a los desarrolladores y usuarios de IA a comprender los tipos de ataques que podrían esperar, junto con enfoques para mitigarlos, con la comprensión de que no hay una solución única.

Los sistemas de IA han permeado la sociedad moderna, trabajando en capacidades que van desde conducir vehículos hasta ayudar a los médicos a diagnosticar enfermedades o interactuar con clientes como chatbots en línea. Para aprender a realizar estas tareas, se entrenan con vastas cantidades de datos: un vehículo autónomo podría mostrar imágenes de carreteras con señales de tráfico, por ejemplo, mientras que un chatbot basado en un modelo de lenguaje grande (LLM) podría exponerse a registros de conversaciones en línea. Estos datos ayudan a la IA a predecir cómo responder en una situación dada.

Un problema importante es que los datos en sí mismos pueden no ser confiables. Sus fuentes pueden ser sitios web e interacciones con el público. Hay muchas oportunidades para que actores malintencionados corrompan estos datos, tanto durante el período de entrenamiento de un sistema de IA como después, mientras la IA continúa refinando sus comportamientos al interactuar con el mundo físico. Esto puede hacer que la IA se comporte de manera indeseable. Por ejemplo, los chatbots pueden aprender a responder con lenguaje abusivo o racista cuando se sortean cuidadosamente las protecciones mediante indicaciones maliciosas.

«En su mayor parte, los desarrolladores de software necesitan que más personas usen su producto para que pueda mejorar con la exposición», dijo Vassilev. «Pero no hay garantía de que la exposición sea buena. Un chatbot puede generar información negativa o tóxica cuando se le indica con un lenguaje cuidadosamente diseñado».

En parte porque los conjuntos de datos utilizados para entrenar una IA son demasiado grandes para que las personas los supervisen y filtren con éxito, todavía no hay una forma infalible de proteger la IA contra el desvío. Para ayudar a la comunidad de desarrolladores, el nuevo informe ofrece una visión de los tipos de ataques que podrían sufrir sus productos de IA y enfoques correspondientes para reducir el daño.

El informe considera los cuatro principales tipos de ataques: evasión, envenenamiento, privacidad y ataques de abuso. También los clasifica según múltiples criterios, como los objetivos y metas del atacante, las capacidades y el conocimiento.

  • Los ataques de evasión, que ocurren después de que se implementa un sistema de IA, intentan alterar una entrada para cambiar cómo el sistema responde a ella. Ejemplos incluirían agregar marcas a señales de alto para hacer que un vehículo autónomo las interprete como señales de límite de velocidad o crear marcas de carril confusas para hacer que el vehículo se desvíe de la carretera.
  • Los ataques de envenenamiento ocurren en la fase de entrenamiento al introducir datos corruptos. Un ejemplo sería deslizar numerosas instancias de lenguaje inapropiado en registros de conversaciones, para que un chatbot interprete estas instancias como parloteo lo suficientemente común como para usarlo en sus propias interacciones con clientes.

Los ataques de privacidad, que ocurren durante la implementación, son intentos de aprender información sensible sobre la IA o los datos en los que se entrenó para mal usarla. Un adversario puede hacerle numerosas preguntas legítimas a un chatbot y luego utilizar las respuestas para ingeniería inversa del modelo para encontrar sus puntos débiles o adivinar sus fuentes. Agregar ejemplos indeseados a esas fuentes en línea podría hacer que la IA se comporte de manera inapropiada, y hacer que la IA olvide esos ejemplos específicos no deseados después del hecho puede ser difícil.

Los ataques de abuso implican la inserción de información incorrecta en una fuente, como una página web o un documento en línea, que una IA luego absorbe. A diferencia de los ataques de envenenamiento mencionados anteriormente, los ataques de abuso intentan darle a la IA piezas incorrectas de información de una fuente legítima pero comprometida para cambiar el uso previsto del sistema de IA.

«La mayoría de estos ataques son bastante fáciles de llevar a cabo y requieren un conocimiento mínimo del sistema de IA y capacidades adversarias limitadas», dijo la coautora Alina Oprea, profesora en la Universidad Northeastern. «Los ataques de envenenamiento, por ejemplo, pueden llevarse a cabo controlando unas pocas docenas de muestras de entrenamiento, lo que sería un porcentaje muy pequeño de todo el conjunto de entrenamiento».

Los autores, que también incluyeron a los investigadores de Robust Intelligence Inc., Alie Fordyce e Hyrum Anderson, desglosan cada una de estas clases de ataques en subcategorías y agregan enfoques para mitigarlos, aunque la publicación reconoce que las defensas que los expertos en IA han ideado contra ataques adversarios hasta ahora son incompletas.

En 2023 se se tomaron prestados 662 millones de libros electrónicos en bibliotecas

En 2023, los bibliotecarios y educadores alcanzaron hitos destacados en el avance de las opciones de préstamo digital y transmisión, atendiendo a audiencias diversas. A nivel global, se tomaron prestados 662 millones de libros electrónicos, audiolibros y revistas digitales, reflejando un sustancial aumento del 19% con respecto al año anterior. Este crecimiento fue impulsado por la continua publicación de títulos destacados, características mejoradas en la aplicación de lectura Libby y modelos de acceso rentables.

La transmisión de video a través de bibliotecas e instituciones educativas en Kanopy también alcanzó niveles sin precedentes con 23 millones de reproducciones. OverDrive, una destacada plataforma de contenido digital que atiende a 92.000 bibliotecas y escuelas en 115 países, informó estos datos agregados.

Aspectos destacados de los registros de préstamos digitales de 2023 de la red global de OverDrive incluyen:

  • Préstamos Digitales Totales: 662 millones (+19% respecto a 2022)
  • Libros Electrónicos Prestados: 370 millones (+12%)
  • Audiolibros Prestados: 235 millones (+23%)
  • Revistas Prestadas: 56 millones (+75%)
  • Cómics y Novelas Gráficas: 37 millones (+14%)
  • Reservas de Libros Electrónicos y Audiolibros: 253 millones (+19%)
  • Sistemas de Bibliotecas Públicas con Más de 1 Millón de Préstamos Digitales de Libros: 152 sistemas en siete países (+13%), incluyendo sistemas destacados con más de 12 millones y 11 millones de préstamos, y otros 73 con más de 2 millones de préstamos.
  • Préstamos de la Aplicación Libby: Crecieron un 17%, y un aumento significativo de usuarios nuevos (+22%)
  • Préstamos de la Plataforma de Lectura para Estudiantes Sora: Crecieron un 11%, con cuatro sistemas escolares que tomaron prestados más de 1 millón de libros digitales a través de la aplicación Sora.
  • Libros Digitales Prestados por Estudiantes en Sora a través de Public Library CONNECT: 5 millones (+6%)
  • Transmisión de Video Kanopy en 2023: Alcanzó nuevos récords con 13 millones de horas vistas (+14%), casi 24 millones de reproducciones (+9%), y 6 millones de nuevos usuarios (+6%).
  • Marketplace de OverDrive: Experimentó un año récord con más de 600,000 títulos nuevos agregados (+12%).

Estos logros destacan el creciente impacto de los servicios de préstamo digital y transmisión facilitados por bibliotecarios y educadores, mostrando un cambio significativo en la forma en que las personas acceden y se relacionan con diversos contenidos digitales.

Cómo se involucran las bibliotecas con la reproducibilidad de la investigación

Schmidt, B., Chiarelli, A., Loffreda, L., & Sondervan, J. (2024). Emerging roles and responsibilities of libraries in support of reproducible researchLIBER Quarterly: The Journal of the Association of European Research Libraries33(1), 1–21. https://doi.org/10.53377/lq.14947


Las bibliotecas desempeñan un papel significativo en promover prácticas de investigación responsables, que incluyen transparencia y reproducibilidad, aprovechando sus conexiones con las comunidades académicas y colaborando con partes interesadas como financiadores de investigación y editores.

Garantizar la reproducibilidad de la investigación es un esfuerzo multipartícipe que conlleva desafíos y oportunidades para investigadores individuales, comunidades de investigación, bibliotecarios, editores, financiadores y proveedores de servicios. Estos desafíos y oportunidades surgen en diversas etapas del proceso de investigación, y especialmente en la etapa de publicación.

El trabajo previo realizado por Knowledge Exchange resaltó que, aunque hay una creciente conciencia entre los investigadores, las prácticas de publicación reproducibles han cambiado lentamente. Es importante destacar que la reproducibilidad de la investigación aún no ha llegado a las agendas institucionales: este trabajo busca resaltar la razón para que las bibliotecas inicien y/o intensifiquen su participación en este tema, que argumentamos está alineado con sus valores fundamentales y prioridades estratégicas.

El estudio se basó en el análisis secundario de datos recopilados por Knowledge Exchange, centrándose en la literatura identificada y en entrevistas realizadas con bibliotecarios. Ampliamos esto mediante una investigación adicional de la literatura e integrando los hallazgos de las discusiones celebradas en la conferencia LIBER de 2022, para proporcionar una imagen actualizada de cómo las bibliotecas se involucran con la reproducibilidad de la investigación.

Las bibliotecas tienen un papel significativo en promover prácticas de investigación responsables, incluida la transparencia y la reproducibilidad, aprovechando sus conexiones con las comunidades académicas y colaborando con partes interesadas como financiadores de investigación y editores. Nuestras recomendaciones para las bibliotecas incluyen: i) asociarse con investigadores para promover una cultura de investigación que valore la transparencia y la reproducibilidad, ii) mejorar la infraestructura de investigación existente y el apoyo; y iii) invertir en aumentar la conciencia y desarrollar habilidades y capacidades relacionadas con estos principios.

Las mejores herramientas de Inteligencia Artificial Generativa

TOP AI tools! Index by Generative AI 2024

Ver listado completo

ChatGPT – Use it for engaging conversations, gain insights, automate tasks, and witness the future of AI, all in one place. https://chat.openai.com/

Copilot – Copilot focuses on programming and coding assistance. https://www.microsoft.com/en-us/microsoft-copilot

Bing AI Search – AI-powered search assistant for research and creativity. https://www.bing.com/new

Wand AI – Creating advanced AI models and systems. https://wand.ai

Notion – Connected workspace with AI for writing, planning, and sharing. https://affiliate.notion.so/hsaconq7prdk

Character.ai – Allows non-technical users to create their own chatbots and converse with chatbots created by other users. https://beta.character.ai/

Mintlify – Meet the modern standard for public facing documentation. Beautiful out of the box, easy to maintain, and optimized for user engagement. https://mintlify.com/

Scribe – Turn any process into a step-by-step guide, instantly. https://scribehow.com/

Snyk – It is trained on security-specific data, and is all curated by top security researchers to give you all the power of AI without any of the drawbacks. https://snyk.io/

Tabnine – AI assistant that speeds up delivery and keeps your code safe https://www.tabnine.com/

WebCopilot – Write your Notion pages with AI. Speed up your writing process and focus on what matters.https://www.webcopilot.ai/

Replit Ghostwriter – An AI pair programmer that helps you write better code, faster. https://replit.com/site/ghostwriter

Anyword – Get more conversions and sales with Anyword. Anyword’s powerful predictive analytics tell you what works before you go live. https://anyword.com/

Rytr – A better, faster way to write profile bios, Facebook ads and landing page copies. https://rytr.me/

Bearly AI – Drop in research papers, pdfs, articles, word docs and more to get a thorough summary of the content.https://bearly.ai/

Inflection –  A personal AI for everyone. https://inflection.ai/

Glean – The AI-powered work assistant. https://www.glean.com/

New Relic – Data for engineers to monitor, debug, and improve their entire stack. https://newrelic.com/

Afforai – Afforai is an AI chatbot that searches, summarizes, and translates info from multiple sources to produce trustworthy research. https://afforai.com/

Quickchat AI – No-code platform that leverages Large Language Models such as OpenAI’s GPT to craft customizable AI Assistants tailored to your business. https://www.quickchat.ai/

Patched – Automated security patches for your code repositories. – https://www.patched.codes/

Agent4.ai – Lets you create custom voice experiences for callers to your business or mobile phone. https://agent4.ai/

Log Analyzer Pro GPT – Log Analyzer Pro GPT, specializes in analyzing systems, applications, web servers, and database logs, particularly for finance and healthcare industries. https://loganalyzergpt.com/

Apex – Use APEX A.L.I.C.E to unlock value from data in real-time. https://www.apexe3.com/

Stelo AI – Your AI-based Intelligent Document Processing Partner https://stelo.ai/

Ivy AI – Ivy is an all-in-one AI chatbot built to power recruitment, retention, and customer service across your organization. https://ivy.ai/

Los libros más prestados en bibliotecas estadounidenses en 2023

Public libraries reveal their most borrowed books of 2023
DECEMBER 29, 202312:35 PM ET

Ver original

Al final de cada año, las bibliotecas públicas de todo el país elaboran listas de los libros más prestados por los lectores. En 2023, las memorias impactantes y las novelas adaptadas a miniseries de televisión fueron populares en todo el país. La Biblioteca Pública de Nueva York, la más grande del país, informó que «Lessons in Chemistry» de Bonnie Garmus fue su libro más prestado. La novela, ambientada en la década de 1960, narra la historia de una química despedida debido a su género que luego presenta un popular programa de cocina. La adaptación televisiva en Apple TV+ contribuyó a su popularidad.

Si bien las adaptaciones cinematográficas a menudo impulsan la popularidad de los libros, las preferencias variaron entre diferentes bibliotecas. En Topeka, Kansas, los misterios y thrillers de autores como C.J. Box, John Grisham y David Baldacci fueron más populares que «Lessons in Chemistry».

El seguimiento de los libros más prestados varía entre las bibliotecas de EE. UU., y no hay una lista unificada de organizaciones como la Asociación de Bibliotecas de Estados Unidos. Las bibliotecas categorizan sus listas en ficción, no ficción, jóvenes adultos, libros para niños y varios formatos, incluyendo libros físicos, audiolibros y libros electrónicos.

En 2023, el libro electrónico más prestado nacionalmente en la aplicación Libby fue «Spare» de Prince Harry, duque de Sussex, que también encabezó la lista de libros electrónicos en la Biblioteca Pública de Indianápolis. La popularidad de los libros electrónicos está aumentando significativamente en comparación con las copias físicas.

Deb Lambert, de la biblioteca de Indianápolis, señaló el sorprendente cambio hacia los préstamos electrónicos, destacando la popularidad de las revistas electrónicas. Por ejemplo, la revista electrónica de The New Yorker superó incluso a libros populares como «Spare» y «Lessons in Chemistry». Los libros electrónicos y las revistas presentan desafíos en la asignación de presupuestos para las bibliotecas, pero los bibliotecarios expresan entusiasmo por nuevas formas de facilitar la lectura, enfatizando que la lectura es para todos, independientemente del género o formato.

Inteligencia artificial generativa: una introducción a la tecnología de inteligencia artificial generativa y sus implicaciones en la educación.

Generative AI : An introduction to generative artificial intelligence technology and its implications on education. JISC, 2023

Texto completo

Las herramientas de IA generativa, como ChatGPT, ya están teniendo un impacto significativo en la educación. Estas herramientas están planteando retos considerables en torno a la evaluación y la integridad académica, pero también presentan oportunidades, como el ahorro de tiempo del personal al ayudar en la creación de materiales de aprendizaje o la presentación a los estudiantes de nuevas herramientas para mejorar su forma de trabajar.

El impacto de la IA generativa se está dejando sentir mucho más allá de la educación y ya está empezando a cambiar nuestra forma de trabajar. Esto plantea más retos y oportunidades a la hora de garantizar que la educación prepara a los estudiantes para un lugar de trabajo mejorado por la IA y que las evaluaciones son auténticas pero sólidas.

Puntos clave

  • La preocupación inicial se centra en la evaluación y la integridad académica.
  • La acción inmediata es que todo el personal se comprometa con la IA generativa y la pruebe por sí mismo, aprendiendo cómo se verán afectadas sus evaluaciones.
  • La IA generativa puede utilizarse de muchas otras formas, además de para producir trabajos para la evaluación.
  • La IA generativa se utilizará cada vez más en el lugar de trabajo
  • Es probable que la IA generativa sea omnipresente, por lo que prohibirla no es una opción.