El informe de la Data Provenance Initiative, un grupo de investigadores voluntarios especializados en inteligencia artificial (IA), revela una creciente preocupación sobre la disminución de la disponibilidad de datos públicos utilizados para entrenar modelos de IA generativa. Estos modelos, como los desarrollados por empresas líderes como OpenAI y Anthropic, dependen de enormes conjuntos de datos extraídos de la web, que incluyen información recopilada de sitios públicos como blogs, redes sociales y foros. Sin embargo, muchas organizaciones están tomando medidas para proteger sus datos de estos rastreadores, utilizando el archivo robots.txt, que impide que los bots accedan a determinadas partes de sus sitios web.
El informe, titulado “Consent in Crisis: The Rapid Decline of the AI Data Commons” destaca que esta tendencia de restringir el acceso a datos es particularmente notable en sitios monetizados como los de noticias, artistas y otros contenidos protegidos por derechos de autor. Estos sitios están preocupados por cómo la IA generativa podría afectar sus ingresos y, por tanto, están implementando barreras para proteger su contenido.
Shayne Longpre, uno de los investigadores principales del informe, explicó que este cambio tiene serias implicaciones para el futuro de la IA. A medida que más sitios bloquean a los rastreadores, los modelos de IA se verán forzados a entrenarse con datos de menor calidad o menos actualizados, lo que podría comprometer su rendimiento y precisión. Además, aunque algunas grandes empresas de IA podrían superar este desafío al negociar acuerdos exclusivos para acceder a datos de alta calidad, esto podría generar problemas de competencia y aumentar la barrera de entrada para nuevas empresas en el campo de la IA.
El informe también menciona la creciente preocupación por el uso de datos sintéticos como alternativa, que aunque tiene potencial, podría llevar a problemas como la «degradación del modelo» si se basa en datos de baja calidad.
El experimento involucró a casi 1.000 estudiantes turcos de noveno a undécimo grado. Los estudiantes que utilizaron ChatGPT resolvieron un 48% más de problemas de práctica correctamente, pero obtuvieron un 17% menos en el examen final. Incluso aquellos que usaron una versión de ChatGPT diseñada para actuar como tutor no mostraron mejoría en los exámenes, aunque resolvieron un 127% más de problemas de práctica correctamente.
En primer lugar, los profesores repasaron una lección impartida previamente con toda la clase y, a continuación, se asignaron aleatoriamente sus aulas para practicar las matemáticas de una de estas tres maneras: con acceso a ChatGPT, con acceso a un tutor de IA potenciado por ChatGPT o sin ningún tipo de ayuda de alta tecnología. A los alumnos de cada curso se les asignaron los mismos problemas de práctica con o sin IA. Después, realizaban un examen para comprobar lo bien que habían aprendido el concepto. Los investigadores realizaron cuatro ciclos de este tipo, dando a los estudiantes cuatro sesiones de 90 minutos de tiempo de práctica en cuatro temas matemáticos diferentes para entender si la IA tiende a ayudar, perjudicar o no hacer nada.
Los errores de ChatGPT también pueden haber sido un factor contribuyente. El chatbot sólo respondió correctamente a los problemas de matemáticas la mitad de las veces. Sus cálculos aritméticos eran erróneos el 8% de las veces, pero el mayor problema era que su planteamiento paso a paso de cómo resolver un problema era erróneo el 42% de las veces. La versión tutorizada de ChatGPT recibía directamente las soluciones correctas y estos errores se reducían al mínimo.
ChatGPT también parece producir un exceso de confianza. En las encuestas que acompañaron al experimento, los estudiantes dijeron que no creían que ChatGPT les hubiera hecho aprender menos, aunque sí lo había hecho. Los estudiantes con el tutor de IA pensaban que habían mejorado mucho en el examen, aunque no fuera así. (También es otro buen recordatorio para todos nosotros de que nuestras percepciones de cuánto hemos aprendido a menudo son erróneas).
Los investigadores titularon su artículo «“Generative AI Can Harm Learning,» (La IA generativa puede perjudicar el aprendizaje) para dejar claro a padres y educadores que la actual variedad de chatbots de IA disponibles gratuitamente puede «inhibir sustancialmente el aprendizaje». Incluso una versión perfeccionada de ChatGPT diseñada para imitar a un tutor no ayuda necesariamente.
Los investigadores concluyeron que los estudiantes se apoyan demasiado en el chatbot, lo que inhibe su aprendizaje real, y que las respuestas erróneas de ChatGPT también contribuyeron a este problema. El estudio destaca la preocupación de que la tecnología, aunque útil, puede reducir la adquisición de habilidades fundamentales cuando se usa en exceso.
Kevin Roose, periodista del New York Times, ha expuesto una técnica sorprendente para manipular a los chatbots de inteligencia artificial (IA) mediante el uso de texto invisible en los sitios web. Todo comenzó cuando Roose observó que su reputación en el entorno de los modelos de IA se había deteriorado. Este cambio negativo probablemente fue el resultado de un artículo que había escrito sobre una extraña y polémica interacción que tuvo con «Sydney», el chatbot de Bing de Microsoft. Roose sospechó que su nombre estaba siendo asociado con la caída en popularidad de dicho chatbot, lo que hizo que los modelos de IA comenzaran a considerarlo como una amenaza.
Para investigar esta situación, Roose consultó a expertos en IA, quienes le sugirieron una posible solución: introducir información positiva sobre sí mismo en páginas web que los sistemas de IA suelen usar como fuentes de datos. Siguiendo este consejo, Roose incorporó texto invisible—escrito en color blanco y, por tanto, imperceptible para los visitantes humanos—en su sitio web personal. Este texto estaba diseñado específicamente para ser captado por los modelos de IA, con el fin de mejorar la forma en que estos sistemas lo percibían y retrataban.
Este experimento de Roose no solo subraya la facilidad con la que se pueden influir los modelos de IA mediante tácticas relativamente sencillas, sino que también plantea serias preocupaciones sobre la integridad y la seguridad de estos sistemas. La posibilidad de manipulación a través de métodos como el uso de texto oculto es lo que Aravind Srinivas, CEO del motor de búsqueda de IA Perplexity, ha denominado «Optimización del Motor de Respuestas». Esta práctica podría abrir la puerta a nuevos desafíos éticos y técnicos en el ámbito de la inteligencia artificial, afectando la precisión y fiabilidad de los chatbots y otros sistemas basados en IA.
Xianhong Hu, Neupane, Bhanu, Echaiz, Lucia Flores, Sibal, Prateek, Rivera Lam, Macarena. El aporte de la inteligencia artificial y las TIC avanzadas a las sociedades del conocimiento: una perspectiva de derechos, apertura, acceso y múltiples actores. Paris: Unesco, 2024
El mandato de la UNESCO de construir sociedades del conocimiento integradoras se centra en sus esfuerzos por promover la libertad de expresión y el acceso a la información, junto con una educación de calidad y el respeto de la diversidad cultural y lingüística. La transformación digital que está teniendo lugar en la sociedad afecta a todas las esferas de la actividad humana, y es oportuno reflexionar sobre los principales desafíos y oportunidades que crean las tecnologías digitales, como la inteligencia artificial (IA).
El título de esta publicación es un llamado a la “Dirigir la IA y las TIC avanzadas para las sociedades del conocimiento” desde la perspectiva de los derechos humanos, la apertura, el acceso y la gobernanza de múltiples actores (los principios DAAM). Dicha dirección también debe apoyar la igualdad entre los géneros y a África, las dos prioridades globales de la UNESCO. El cambio y el avance tecnológicos son importantes para el desarrollo sostenible, pero con la creencia en el determinismo tecnológico se corre el riesgo de descuidar los impulsores sociales, económicos y de otro tipo. En cambio, el desafío consiste en aprovechar la agencia humana para configurar la trayectoria de IA y las tecnologías de la información y las comunicaciones (TIC) conexas. Si bien no hay una única definición de “inteligencia artificial” (IA), esta publicación se centra en lo que la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO describe como “máquinas capaces de imitar ciertas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción mediante el lenguaje y hasta la producción de trabajo creativo”.
La IA y sus elementos constitutivos de datos, algoritmos, hardware, conectividad y almacenamiento aumentan exponencialmente la potencia de las TIC. Esta es una gran oportunidad para el desarrollo sostenible, con riesgos simultáneos que también deben abordarse. Para dirigir la lA de conformidad con estas características es necesario reconocer la distribución desigual, pero dinámica, de la potencia de la lA en múltiples centros dispersos en las distintas áreas del gobierno, el sector privado, la comunidad técnica, la sociedad civil y otras partes interesadas en todo el mundo. Es por esta razón que el compromiso de los múltiples actores en torno a la IA es vital. Esta perspectiva está en consonancia con el enfoque de gobernanza de las TIC según los principios y procesos de la Cumbre Mundial sobre la Sociedad de la Información (CMSI) que dirigen las Naciones Unidas.
La tecnología de texto a voz (TTS) impulsada por IA se está convirtiendo rápidamente en una de las mejores alternativas a la lectura tradicional, ofreciendo una forma conveniente y natural de consumir contenido, ya sea mientras te desplazas, realizas varias tareas a la vez o simplemente prefieres escuchar en lugar de leer.
Aunque algunas voces de IA aún suenan un poco robóticas, aplicaciones como Reader de ElevenLabs están cambiando eso. Reader puede leer texto en voz alta en cientos de voces diferentes en iOS y Android, y recientemente ha expandido su acceso a más de 30 idiomas, incluyendo portugués, español, francés, hindi, alemán, japonés y árabe.
Cómo empezar con Reader:
Descargar e instalar: Obtén la aplicación en tu computadora o teléfono.
Crear una cuenta: Regístrate y accede.
Personalizar: Selecciona tu voz predeterminada y ajusta la aplicación a tus necesidades.
Agregar contenido: Desde la pantalla de inicio, puedes cargar texto, añadir una URL, subir un archivo o escanear un documento.
Reader es gratuito durante los primeros tres meses, con planes que van desde una versión gratuita (10.000 créditos al mes) hasta una versión Pro de 99 $/mes (500.000 créditos).
Sin embargo, Reader enfrenta fuerte competencia, especialmente de Speechify, que ofrece características adicionales como escaneo de documentos, integraciones con Gmail y Canvas, y la capacidad de clonar tu voz para la lectura de texto.
A medida que la tecnología TTS avanza, más empresas de medios planean introducir sus propias voces personalizadas, aumentando la competencia por la atención de los usuarios. Reader deberá seguir innovando para mantenerse a la vanguardia.
Wheatley, Amanda, y Sandy Hervieux. «Comparing generative artificial intelligence tools to voice assistants using reference interactions». The Journal of Academic Librarianship 50, n.o 5 (1 de septiembre de 2024): 102942. https://doi.org/10.1016/j.acalib.2024.102942.
Para responder a las preguntas de investigación, los autores crearon 25 preguntas de referencia basadas en consultas recibidas a través del servicio de referencia virtual de la biblioteca de su universidad. Luego, plantearon estas preguntas a los asistentes de voz y a dos versiones de ChatGPT, registrando las respuestas en una hoja de cálculo.
Los resultados muestran que las herramientas comprenden bien las preguntas de referencia y ofrecen respuestas relevantes, pero la calidad de las referencias proporcionadas y la precisión de las respuestas pueden ser insuficientes.
Uno de los problemas principales es que algunas herramientas no proporcionan referencias o estas son de baja calidad. Los asistentes de voz, como Google Assistant, Siri y Alexa, destacaron en este aspecto, con Google Assistant ofreciendo las mejores respuestas en términos de relevancia, precisión y calidad de las referencias. Esto se debe a que los asistentes de voz buscan en internet en lugar de depender de modelos de lenguaje masivo, lo que reduce el riesgo de citar fuentes falsas. ChatGPT, por su parte, tiene problemas conocidos de «alucinaciones» y citas falsas o inexistentes, lo cual es preocupante para los profesionales de la información.
Aunque estas herramientas pueden ofrecer respuestas relevantes y precisas, ninguna iguala la calidad que un bibliotecario académico podría brindar. Google Assistant fue el que más se acercó, con un 40 % de sus respuestas siendo recomendadas por un bibliotecario, mientras que ChatGPT falló en más del 50 % de los casos.
En términos generales, Google Assistant fue la herramienta que mejor respondió a las preguntas de referencia, seguido por Alexa y Siri. Aunque las herramientas de IA generativa como ChatGPT comprenden bien las preguntas, sus respuestas carecen de la precisión y la autoridad necesarias para competir con los asistentes de voz en este contexto.
El estudio concluye que, si bien los asistentes de voz y herramientas como ChatGPT pueden ser útiles para iniciar una investigación, deben utilizarse en combinación con los servicios tradicionales de referencia. El uso de IA generativa puede ser más adecuado para tareas como la lluvia de ideas o la explicación de conceptos, en lugar de responder preguntas de referencia de manera fiable. El estudio también sugiere que futuras investigaciones podrían explorar cómo las herramientas de IA pueden colaborar con los bibliotecarios para mejorar los servicios de referencia.
Annapureddy, Ravinithesh, Alessandro Fornaroli, y Daniel Gatica-Perez. «Generative AI Literacy: Twelve Defining Competencies». Digit. Gov.: Res. Pract., 3 de agosto de 2024. https://doi.org/10.1145/3685680.
Este artículo presenta un modelo basado en competencias para la alfabetización en inteligencia artificial (IA) generativa que abarca las habilidades esenciales y las áreas de conocimiento necesarias para interactuar con la IA generativa.
Las competencias abarcan desde la alfabetización básica en IA hasta la ingeniería y la programación, pasando por consideraciones éticas y jurídicas. Estas doce competencias ofrecen un marco para las personas, los responsables políticos, los funcionarios públicos y los educadores que deseen navegar y aprovechar el potencial de la IA generativa de forma responsable.
Las doce competencias definidas para la alfabetización en IA generativa ofrecen ejemplos de cómo cada competencia puede aplicarse en la práctica.
1. Alfabetización Básica en IA Esta competencia implica conocer los fundamentos de la IA, más allá de la programación. Permite a los individuos identificar diferentes tipos de IA y evaluar cómo pueden impactar sus procesos o negocios. Ejemplo: Reconocer y evaluar cómo un sistema de IA puede beneficiar o representar riesgos para un negocio.
2. Conocimiento de Modelos de IA Generativa Entender qué son los modelos de IA generativa, como los LLMs (Modelos de Lenguaje de Gran Escala), y cómo funcionan. Incluye la comprensión de que estos modelos generan contenido original basado en grandes volúmenes de datos. Ejemplo: Diferenciar entre un modelo de IA generativa y un motor de búsqueda tradicional.
3. Capacidad y Limitaciones de Herramientas de IA Generativa Conocer lo que los modelos de IA generativa pueden y no pueden hacer, incluyendo sus fortalezas y debilidades. Es crucial entender las preocupaciones de privacidad y seguridad, así como los riesgos de contenido engañoso. Ejemplo: Ser consciente de que los modelos como ChatGPT pueden producir afirmaciones tanto correctas como incorrectas.
4. Habilidad para Usar Herramientas de IA Generativa Saber cómo interactuar con diversas herramientas generativas y aprender nuevas según sea necesario. Incluye la habilidad para seleccionar el modelo adecuado para aplicaciones específicas. Ejemplo: Aprender a utilizar herramientas de generación de imágenes como Midjourney o DreamStudio.
5. Capacidad para Detectar Contenido Generado por IA Distinguir entre contenido generado por humanos y por IA, y usar software de detección de IA. Reconocer las limitaciones y sesgos de las herramientas de detección. Ejemplo: Verificar la autenticidad de un video viral utilizando herramientas de detección de IA.
6. Evaluación de la Salida de Herramientas de IA Generativa Analizar y verificar el contenido generado para asegurar que cumple con las necesidades y expectativas, y minimizar errores o «alucinaciones» del modelo. Ejemplo: Confirmar los hechos presentados en un ensayo generado por un modelo de lenguaje.
7. Habilidad en Ingeniería de Prompts Diseñar y utilizar prompts efectivos para modelos generativos de texto, lo cual es esencial para obtener resultados útiles y precisos. Incluye técnicas avanzadas como la generación automática de prompts. Ejemplo: Usar un lenguaje descriptivo en prompts para generar imágenes precisas con modelos de IA.
8. Capacidad para Programar y Ajustar Modelos Desarrollar y ajustar modelos de IA generativa, lo cual incluye diseñar arquitecturas, preparar datos de entrenamiento, y entrenar y desplegar modelos. Ejemplo: Adaptar un modelo de IA generativa para crear contenido especializado en un dominio como la medicina.
9. Conocimiento de los Contextos de Uso de IA Generativa Evaluar los contextos apropiados para el uso de IA generativa, considerando las expectativas y requisitos del entorno social y profesional. Ejemplo: Seguir las directrices de las universidades sobre el uso de modelos de lenguaje en tareas académicas.
10. Conocimiento de las Implicaciones Éticas Analizar cómo los modelos y outputs de IA afectan a la sociedad y alinear su uso con valores éticos. Considerar las implicaciones éticas de su uso en diferentes contextos. Ejemplo: Evaluar la ética de usar imágenes generadas por IA en una campaña política sin revelar su origen.
11. Conocimiento de los Aspectos Legales Estar informado sobre el marco legal relacionado con la IA y sus aplicaciones, incluyendo derechos y regulaciones actuales y emergentes. Ejemplo: Familiarizarse con el Acta de IA de la Unión Europea y sus implicaciones.
12. Capacidad de Aprendizaje Continuo Mantenerse actualizado con las nuevas herramientas, funcionalidades y regulaciones en el campo de la IA generativa. Esta competencia transversal se aplica a todas las demás.Ejemplo: Seguir las actualizaciones de herramientas de generación de video y estar al tanto de nuevas opciones disponibles.
La incorporación de estas competencias a los programas educativos y a las iniciativas de formación profesional puede preparar a las personas para convertirse en usuarios y creadores responsables e informados de la IA generativa. Las competencias siguen una progresión lógica y sirven como hoja de ruta para las personas que deseen familiarizarse con la IA generativa y para que los investigadores y los responsables políticos desarrollen evaluaciones, programas educativos, directrices y normativas.
El marco propuesto es un punto de partida para la integración de estas competencias en currículos educativos y programas de desarrollo profesional, promoviendo la estandarización global de la alfabetización en IA y preparando a una nueva generación de individuos capacitados para contribuir activamente al desarrollo de la IA.
El porcentaje de jóvenes de 13 a 18 años que han utilizado IA generativa se ha duplicado en el último año, pasando de casi 2 de cada 5 en 2023 (37,1%) a 3 de cada 4 (77,1%) en 2024. Casi 1 de cada 5 jóvenes (18,5%) de 13 a 18 años afirmaron haber utilizado IA generativa para escribir historias. 1 de cada 5 (20,9%) niños y jóvenes jóvenes dijeron que normalmente copiaban lo que les decía la IA generativa
Los avances tecnológicos recientes han acelerado la influencia de la Inteligencia Artificial (IA) en nuestras vidas, impactando también en la educación y la alfabetización. Estos informes presentan hallazgos de encuestas anuales de alfabetización realizadas en 2023 y 2024, que incluyen preguntas sobre el uso de IA generativa. En 2024, participaron 53.169 niños y jóvenes, con un enfoque en 15.830 jóvenes de 13 a 18 años y 1.228 maestros en escuelas del Reino Unido.
Uso de la IA Generativa por los Jóvenes:
Incremento en el uso: El porcentaje de jóvenes de 13 a 18 años que usaron IA generativa aumentó del 37.1% en 2023 al 77.1% en 2024. No hubo diferencias significativas entre chicos y chicas (78.3% vs. 76.4%), ni entre aquellos que recibían comidas escolares gratuitas y los que no (77.7% vs. 77.3%).
Usos comunes: Los jóvenes que utilizan regularmente IA generativa lo hacen principalmente por entretenimiento, curiosidad, tareas escolares e inspiración. En relación con la alfabetización, el 44.4% la usó para conversar, el 18.5% para escribir historias, el 12.8% para escribir poemas o letras de canciones, y el 9.0% para escribir no ficción.
Actitudes positivas: La mayoría de los jóvenes considera que la IA generativa les ayuda con ideas (56.6%), comprensión (52.2%) y aprendizaje de nuevos conceptos (50.8%). Además, el 39.6% siente que les ayuda a escribir y el 23.2% con la lectura.
Crítica y copia: Casi la mitad (47.4%) de los jóvenes dijo que suelen agregar sus propios pensamientos a lo que la IA les ofrece, y el 39.9% revisa las respuestas porque podrían estar equivocadas. Sin embargo, 1 de cada 5 (20.9%) simplemente copia lo que la IA les dice, y un porcentaje similar (20.6%) no verifica las salidas, indicando la necesidad de mayor apoyo para desarrollar habilidades críticas en el uso de la IA.
Uso de la IA Generativa por los Maestros:
Incremento en el uso: El porcentaje de maestros que usaron IA generativa aumentó del 31.0% en 2023 al 47.7% en 2024, con un mayor uso entre maestros de secundaria (56.8%) en comparación con los de primaria (30.9%).
Preocupaciones y percepciones: El 37.7% de los maestros estaba preocupado por el uso de IA generativa por parte de sus alumnos, especialmente en secundaria (45.1% vs. 19.7% en primaria). No obstante, el 41.0% de los maestros no estaba preocupado, aunque un 21.3% no estaba seguro.
Impacto en habilidades: Aunque el 64.8% de los maestros cree que la IA generativa puede modelar buena escritura para los estudiantes, el 48.9% teme que tenga un impacto negativo en las habilidades de escritura de los niños.
Necesidad de formación: Más del 82.0% de los maestros considera que los estudiantes deben aprender a interactuar críticamente con la IA generativa, y el 75.3% siente que también necesitan más formación, apoyo y recursos para utilizar eficazmente estas herramientas.
Estos hallazgos sugieren que tanto maestros como estudiantes podrían beneficiarse de una mayor formación y apoyo para desarrollar habilidades esenciales que les permitan interactuar de manera efectiva, crítica y creativa con la IA generativa.
Las empresas de inteligencia artificial (IA) deben actuar de manera justa cuando utilizan datos académicos en el entrenamiento de sus modelos. Los investigadores están preocupados por el uso sin restricciones de su propiedad intelectual en la formación de modelos de lenguaje como ChatGPT. Es crucial establecer reglas claras sobre el uso aceptable de estos datos.
Actualmente, no se sabe con precisión qué datos se usaron para entrenar modelos como ChatGPT, pero es probable que se hayan utilizado millones de artículos académicos, incluidos aquellos bajo acceso abierto y posiblemente también artículos protegidos por derechos de autor. Esto plantea preguntas sobre si los creadores de estos datos deberían recibir crédito y cómo.
El tema es complicado por las leyes de propiedad intelectual, que varían según la jurisdicción y no siempre son claras sobre si la recolección de datos o su uso para crear modelos de IA constituye una infracción de derechos de autor. Algunas empresas de IA, para evitar litigios, están comenzando a comprar licencias para los datos utilizados en el entrenamiento.
El uso de materiales bajo licencias como Creative Commons, que promueven la distribución y reutilización libre, también genera ambigüedades. Aunque no siempre se considera una infracción el uso de estos materiales para entrenar IA, hay preocupaciones sobre cómo las IA pueden afectar a los creadores, incluyendo a investigadores cuyo trabajo podría ser reutilizado sin la atribución adecuada.
La atribución es un principio fundamental en la ciencia, y algunos investigadores consideran que el uso de datos científicos por modelos comerciales de IA excede lo que las exenciones legales actuales estaban destinadas a permitir. Dado que es casi imposible atribuir correctamente las contribuciones cuando se usan millones de fuentes, se han sugerido soluciones como la generación aumentada por recuperación, que podría permitir a los modelos citar trabajos relevantes.
Dar a los investigadores la opción de excluir su trabajo del entrenamiento de IA podría aliviar sus preocupaciones, y algunas herramientas ya están emergiendo para facilitar esto. Además, leyes como la Ley de IA de la UE, que exige mayor transparencia sobre los datos utilizados en el entrenamiento, podrían fortalecer el control de los creadores sobre su trabajo.
Es necesario continuar investigando si se requieren soluciones más radicales, como nuevas licencias o cambios en la ley de derechos de autor. Las herramientas de IA, al aprovechar un ecosistema de datos construido por movimientos de código abierto, deben respetar las expectativas de reciprocidad y uso razonable, para evitar desincentivar la creación original y asegurar que los creadores mantengan cierto control sobre su obra.
Wheatley, Amanda, y Sandy Hervieux. «Comparing generative artificial intelligence tools to voice assistants using reference interactions». The Journal of Academic Librarianship 50, n.o 5 (1 de septiembre de 2024): 102942. https://doi.org/10.1016/j.acalib.2024.102942.
El estudio analiza la capacidad de los asistentes de voz y las herramientas de inteligencia artificial generativa para responder a preguntas de referencia que tradicionalmente reciben los bibliotecarios académicos. Los autores crearon una muestra de 25 preguntas basadas en consultas recibidas en el servicio de referencia virtual de su institución. Luego, desarrollaron una rúbrica para evaluar la calidad de las respuestas proporcionadas por las herramientas impulsadas por IA. Los autores concluyeron que las herramientas entienden bien las preguntas de referencia y ofrecen respuestas relevantes, pero la calidad de las referencias proporcionadas y la precisión de las respuestas pueden ser insuficientes. Sugieren que se necesita más investigación para comprender mejor el lugar de las herramientas impulsadas por IA en los servicios de referencia.