Clarivate lanza un asistente de investigación para Web of Science con IA Generativa

Web of Science Research Assistant

Ver video

El 4 de septiembre de 2024, Clarivate Plc lanzó el Web of Science Research Assistant, una herramienta impulsada por IA generativa. Esta herramienta permite a los investigadores encontrar artículos clave más rápidamente, gestionar tareas de investigación complejas y visualizar conexiones entre conceptos. Combina una interfaz de chat con el conocimiento acumulado durante 120 años en la colección Web of Science Core Collection.

Según Emmanuel Thiveaud, Vicepresidente Senior de Clarivate, esta herramienta va más allá del descubrimiento de contenido, mejorando la toma de decisiones y proporcionando una comprensión profunda de los campos de investigación. Fue desarrollada en colaboración con la comunidad investigadora para garantizar su calidad y precisión.

El Web of Science Research Assistant ofrece:

  • Búsquedas flexibles: permite realizar búsquedas en lenguaje natural en varios idiomas y descubrir conexiones entre artículos.
  • Tareas guiadas: sugiere cómo mejorar las tareas de investigación con funciones específicas como “Entender un tema” o “Revisión de literatura”.
  • Visualizaciones únicas: permite explorar mapas de tendencias y redes de co-citación.

Este asistente de investigación fue desarrollado en colaboración con bibliotecarios e investigadores y entró en fase de prueba en diciembre de 2023. Clarivate continuará trabajando con la comunidad para mejorar la herramienta.

Tendencias en bibliotecas IFLA 2024

Trend Report 2024: Survey Results
4 September 2024

PDF

El Informe de Tendencias 2024, la IFLA llevó a cabo una encuesta para recopilar perspectivas sobre los impactos de las tendencias identificadas y sus interconexiones. Los resultados de esta encuesta respaldarán la definición de escenarios en el informe completo.

Este informe presenta los resultados de la encuesta de IFLA sobre las tendencias identificadas en la Revisión de Literatura del Informe de Tendencias 2024. Destaca las perspectivas sobre los impactos de diversas tendencias en las sociedades, bibliotecas y la demanda de servicios bibliotecarios a nivel global, por región, nivel de experiencia y tipo de biblioteca. Además, resalta las conexiones más fuertes entre tendencias, especialmente en las prácticas de conocimiento cambiantes, tendencias tecnológicas, la renegociación de la confianza y la equidad digital.

Después de la publicación de la Revisión de Literatura del Informe de Tendencias, IFLA realizó una encuesta a través de listas de correo y redes sociales, con el objetivo de reflexionar sobre las tendencias presentadas y identificar las intersecciones entre ellas que la comunidad considera más probables.

La encuesta ayudará a desarrollar la siguiente fase del informe, que incluirá una serie de escenarios que establecen futuros potenciales para el conocimiento y la información, como base para preparar el futuro.

Las tendencias clave identificadas son:

Las personas buscan conexiones comunitarias, y los espacios para compartir son clave.

Las prácticas de conocimiento están cambiando, lo que ofrece tanto oportunidades como desafíos para la equidad en los sistemas de conocimiento.

La IA y otras tecnologías están transformando la sociedad y cómo creamos, compartimos y utilizamos la información.

La confianza está siendo renegociada, especialmente en los gobiernos y los medios de comunicación.

Las habilidades y capacidades se están volviendo más complejas, pero también esenciales.

Las tecnologías digitales y sus beneficios están distribuidos de manera desigual.

Los sistemas de información están utilizando más recursos, lo que impacta al planeta.

La encuesta estuvo abierta entre el 9 y el 29 de agosto de 2024 y se dividió en dos partes clave. La primera parte se centró en recopilar opiniones sobre cuán positivas o negativas serían las 7 tendencias para:

  1. La sociedad en su conjunto
  2. Las bibliotecas en general
  3. La biblioteca del propio encuestado
  4. La necesidad de las bibliotecas

El objetivo era captar el nivel de optimismo de los encuestados sobre las tendencias, que pueden tener tanto aspectos positivos como negativos. También se buscaba estimular la reflexión sobre la diferencia entre la situación macro (para la sociedad o las bibliotecas en general) y la situación más directa en la biblioteca del encuestado. Al preguntar sobre la necesidad de las bibliotecas, se pretendía entender cómo los encuestados prevén la evolución de la demanda de servicios bibliotecarios.

La segunda parte examinó, para cada tendencia considerada importante, qué tan fuerte era la relación con las otras tendencias. Esto ayudaría a identificar áreas interesantes para definir escenarios.

Además, se recopilaron datos sobre el tipo de encuestado (individuo, asociación/institución o unidad de IFLA), la región donde están ubicados, sus años de experiencia en el campo bibliotecario y el tipo de biblioteca donde trabajan. Esto permite explorar si las prioridades varían entre estos grupos.

En la mayoría de los casos, las preguntas se formularon utilizando una escala de muy positivo (5) a muy negativo (1), o de muy fuertemente conectado (4) a no conectado en absoluto (1). Los encuestados podían optar por no responder, y sus respuestas no fueron consideradas para no influir en los promedios utilizados.

Código de buenas prácticas en materia de datos de investigación de COUNTER

Code of Practice Release 5.1. COUNTER, 2024

Ver código

El Código de Prácticas para Datos de Investigación, desarrollado en colaboración con Make Data Count, marca un hito en las prácticas de evaluación de datos al permitir la generación de informes comparables sobre el uso de datos a través de plataformas. En mayo, se informó que Make Data Count y COUNTER están explorando el futuro del Código, y en los próximos meses se trabajará en su integración con la Versión 5.1 del Código de Prácticas de COUNTER.

Investigación abierta en Europa: hacia un servicio colectivo de publicación en acceso abierto

European Commission: Directorate-General for Research and Innovation, Open research Europe – Towards a collective open access publishing service – Scoping report, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2777/204155

Este informe presenta una visión de Open Research Europe como servicio colectivo de publicación de acceso abierto sin ánimo de lucro para el bien público. Esta visión surge en medio de importantes avances políticos hacia unos costes de publicación y acceso a los contenidos más equitativos, transparentes y sostenibles, así como de la aceleración de las actividades para reformar la evaluación de la investigación. El informe incluye una justificación de la visión, la política y el contexto político de la UE, una propuesta de valor y principios para el funcionamiento de un ORE colectivo.

Integrar la Alfabetización en Inteligencia Artificial (IA) en la enseñanza de la alfabetización informacional en bibliotecas universitarias


Hervieux, S. ; Wheatley, A. Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor and Francis, 2024

Texto completo

Con el aumento de las discusiones sobre herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a una tecnología de IA accesible que los estudiantes utilizan para completar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han surgido muchos talleres dirigidos por bibliotecarios para ayudar a los estudiantes a crear mensajes para chat, verificar la información proporcionada por ChatGPT y usar las herramientas de IA de manera crítica. Aunque ha comenzado a discutirse la inclusión de la IA en el Marco de Alfabetización Informacional de ACRL, se propone que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento técnico tiene como objetivo informar sobre entrevistas con bibliotecarios de instrucción sobre la alfabetización en IA. A partir del análisis de las entrevistas, se identificarán los principales temas y preocupaciones relacionados con la IA y se desarrollará un marco robusto para la alfabetización en IA. Los lectores del documento técnico deberían obtener una mejor comprensión del lugar de la alfabetización en IA dentro de la instrucción de alfabetización informacional y poder utilizar una estructura rigurosa para planificar sus propias intervenciones.

Aspectos Clave:

  • Determinar las perspectivas de los bibliotecarios de instrucción sobre la alfabetización en IA.
  • Evaluar los marcos de alfabetización actuales para su capacidad de adaptación al panorama de la inteligencia artificial.
  • Crear un marco robusto de alfabetización en IA.

Hallazgos: Tras 15 entrevistas con bibliotecarios de Canadá y Estados Unidos, los autores determinaron que, aunque el 67% de los bibliotecarios han enseñado contenido sobre IA en el último año, la mayoría no se basó en el Marco de Alfabetización Informacional de ACRL para construir sus sesiones de instrucción. También se identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, tales como:

  • Ingeniería de prompts, entre una serie de habilidades necesarias para utilizar herramientas de IA.
  • Evaluación crítica que va más allá de la autoridad y examina la ética y el sesgo.
  • Comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
  • Nuevas formas de atribuir la creación/edición de contenido.

El marco propuesto de IA se centrará en:

  • Participar en el discurso sobre IA.
  • Conocer los principios básicos de la IA.
  • Entender las diferencias fundamentales entre tipos de IA.
  • Experimentar con herramientas de IA.
  • Revisar los resultados y productos de las herramientas de IA.
  • Evaluar el impacto de la IA a nivel social

Documentos científicos elaborados por Inteligencia Artificial en Google Scholar

Haider, Jutta, Kristofer Rolf Söderström, Björn Ekström, y Malte Rödl. «GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation». Harvard Kennedy School Misinformation Review, 3 de septiembre de 2024. https://doi.org/10.37016/mr-2020-156.


El estudio analiza la aparición de publicaciones científicas cuestionables, producidas con transformadores pre-entrenados generativos (GPT), en Google Scholar. Se investiga dónde se publican o depositan estos trabajos, sus características principales, cómo se difunden en la infraestructura de comunicación académica y cómo desafían el rol de esta infraestructura en mantener la confianza pública en la ciencia.

Para elaborar el estudio se realizó una búsqueda y extracción de datos en Google Scholar utilizando la biblioteca de Python Scholarly (Cholewiak et al., 2023) para identificar artículos que contenían frases comunes generadas por ChatGPT y aplicaciones similares basadas en el mismo modelo subyacente (GPT-3.5 o GPT-4): «a partir de mi última actualización de conocimiento» y/o «no tengo acceso a datos en tiempo real». Esto permitió identificar artículos que probablemente usaron inteligencia artificial generativa para producir texto, resultando en 227 artículos recuperados. La información bibliográfica de estos artículos se añadió automáticamente a una hoja de cálculo y se descargó en Zotero.

Todos los artículos contenían al menos una de las dos frases comunes devueltas por los agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI. A continuación, se utilizó la búsqueda de Google para determinar en qué medida existían copias de artículos cuestionables elaborados con GPT en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Para explorar la extensión del trabajo generado por ChatGPT en el índice de Google Scholar, se realizó un estudio que rastreó la plataforma en busca de publicaciones que contenían respuestas comunes de ChatGPT. El análisis reveló que alrededor del 62% de estos artículos no declaraban el uso de GPT, con la mayoría encontrados en revistas no indexadas y documentos de trabajo, aunque algunos aparecían en revistas y actas de conferencias de prestigio. Es notable que el 57% de estos artículos estaban relacionados con áreas de política susceptibles a operaciones de influencia. La mayoría de estos documentos estaban relacionados con temas relevantes para políticas públicas, como el medio ambiente, la salud y la informática, que son susceptibles de ser manipulados.

La presencia de texto generado por GPT se observó en diversas secciones de los artículos, incluyendo revisiones de literatura, métodos, marcos teóricos y discusiones. Esto sugiere un uso generalizado de GPT en la creación de artículos completos, lo que genera preocupaciones sobre la integridad de las publicaciones científicas y la posibilidad de lo que se denomina «piratería de evidencia»—la manipulación deliberada de la base de evidencia para influir en la opinión pública y en las políticas.

La proliferación de publicaciones fabricadas pone en riesgo la integridad del sistema de comunicación académica y socava la confianza en la ciencia. Además, la posibilidad de que estos textos falsos sean recuperados por motores de búsqueda académicos como Google Scholar aumenta el riesgo de manipulación maliciosa de la evidencia científica.

Para mitigar estos riesgos, el estudio recomienda un enfoque multifacético que incluya medidas técnicas, educativas y regulatorias. Estas podrían implicar opciones de filtrado en los motores de búsqueda académicos para distinguir entre literatura revisada por pares y literatura gris, así como el desarrollo de un motor de búsqueda académico no comercial para uso público. Las iniciativas educativas dirigidas a los responsables de la formulación de políticas, periodistas y otros profesionales de los medios también son cruciales para mejorar la alfabetización mediática e informativa y reducir el impacto de la desinformación.

Este problema no solo se deriva del uso de generadores de texto como ChatGPT, sino que también refleja preocupaciones más amplias sobre el sistema de publicaciones académicas y la monopolización de la información por parte de plataformas como Google Scholar. La proliferación de artículos fraudulentos puede erosionar la confianza en la ciencia, con consecuencias graves para la sociedad y la forma en que se manejan las «desórdenes de información».

El estudio concluye que el problema de los artículos fabricados por GPT probablemente se vuelva más generalizado, con implicaciones significativas para la credibilidad de la comunicación científica y la confianza pública en la ciencia. Para abordar este problema, es esencial entender las razones subyacentes a la proliferación de dicho contenido y desarrollar estrategias para prevenir su manipulación y difusión.

Guía para la escritura de trabajos finales de grado


Castronovo, Adela, Sandra Leiva, Adriana Fernández, Javier Areco, Diego Picotto, y Nicolas Brignoli. Guía para la escritura de Trabajos Finales Integradores. UNLa Universidad Nacional de Lanús, 2024. https://dialnet.unirioja.es/servlet/libro?codigo=983708.



La idea de esta guía es asistir a los estudiantes que se encuentran en la última etapa de sus carreras de grado y especialización en la elaboración de sus Trabajos Finales Integradores. Se trata de una orientación, una guía que ayuda a articular un conjunto de saberes y prácticas en un texto complejo, como parte de una labor que requiere tiempo y constancia, además del manejo de un conjunto de conocimientos específicos sobre cómo llevar a cabo este trabajo y cómo presentarlo por escrito de manera pertinente. Esta guía se enfoca en reflexionar puntualmente sobre esta última cuestión y es el resultado, por un lado, del trabajo del equipo de Investigación (PICTO) denominado «Las condiciones de producción en la elaboración de Trabajos Finales de grado y posgrado» y, por otro, del trabajo conjunto con parte del personal de la Biblioteca Rodolfo Puiggrós de la UNLa.

Los datos de entrenamiento para plataformas de Inteligencia Artificial podrían escasear si los sitios web restringen los robots rastreadores

«With Robots.Txt, Websites Halt AI Companies’ Web Crawlers – IEEE Spectrum». Accedido 3 de septiembre de 2024. https://spectrum.ieee.org/web-crawling.

El informe de la Data Provenance Initiative, un grupo de investigadores voluntarios especializados en inteligencia artificial (IA), revela una creciente preocupación sobre la disminución de la disponibilidad de datos públicos utilizados para entrenar modelos de IA generativa. Estos modelos, como los desarrollados por empresas líderes como OpenAI y Anthropic, dependen de enormes conjuntos de datos extraídos de la web, que incluyen información recopilada de sitios públicos como blogs, redes sociales y foros. Sin embargo, muchas organizaciones están tomando medidas para proteger sus datos de estos rastreadores, utilizando el archivo robots.txt, que impide que los bots accedan a determinadas partes de sus sitios web.

El informe, tituladoConsent in Crisis: The Rapid Decline of the AI Data Commons destaca que esta tendencia de restringir el acceso a datos es particularmente notable en sitios monetizados como los de noticias, artistas y otros contenidos protegidos por derechos de autor. Estos sitios están preocupados por cómo la IA generativa podría afectar sus ingresos y, por tanto, están implementando barreras para proteger su contenido.

Shayne Longpre, uno de los investigadores principales del informe, explicó que este cambio tiene serias implicaciones para el futuro de la IA. A medida que más sitios bloquean a los rastreadores, los modelos de IA se verán forzados a entrenarse con datos de menor calidad o menos actualizados, lo que podría comprometer su rendimiento y precisión. Además, aunque algunas grandes empresas de IA podrían superar este desafío al negociar acuerdos exclusivos para acceder a datos de alta calidad, esto podría generar problemas de competencia y aumentar la barrera de entrada para nuevas empresas en el campo de la IA.

El informe también menciona la creciente preocupación por el uso de datos sintéticos como alternativa, que aunque tiene potencial, podría llevar a problemas como la «degradación del modelo» si se basa en datos de baja calidad.

Los alumnos que utilizan ChatGPT como asistente de estudio obtienen peores resultados en los exámenes


Barshay, Jill. «Kids Who Use ChatGPT as a Study Assistant Do Worse on Tests». The Hechinger Report, 2 de septiembre de 2024. http://hechingerreport.org/kids-chatgpt-worse-on-tests/.

El experimento involucró a casi 1.000 estudiantes turcos de noveno a undécimo grado. Los estudiantes que utilizaron ChatGPT resolvieron un 48% más de problemas de práctica correctamente, pero obtuvieron un 17% menos en el examen final. Incluso aquellos que usaron una versión de ChatGPT diseñada para actuar como tutor no mostraron mejoría en los exámenes, aunque resolvieron un 127% más de problemas de práctica correctamente.

En primer lugar, los profesores repasaron una lección impartida previamente con toda la clase y, a continuación, se asignaron aleatoriamente sus aulas para practicar las matemáticas de una de estas tres maneras: con acceso a ChatGPT, con acceso a un tutor de IA potenciado por ChatGPT o sin ningún tipo de ayuda de alta tecnología. A los alumnos de cada curso se les asignaron los mismos problemas de práctica con o sin IA. Después, realizaban un examen para comprobar lo bien que habían aprendido el concepto. Los investigadores realizaron cuatro ciclos de este tipo, dando a los estudiantes cuatro sesiones de 90 minutos de tiempo de práctica en cuatro temas matemáticos diferentes para entender si la IA tiende a ayudar, perjudicar o no hacer nada.

Los errores de ChatGPT también pueden haber sido un factor contribuyente. El chatbot sólo respondió correctamente a los problemas de matemáticas la mitad de las veces. Sus cálculos aritméticos eran erróneos el 8% de las veces, pero el mayor problema era que su planteamiento paso a paso de cómo resolver un problema era erróneo el 42% de las veces. La versión tutorizada de ChatGPT recibía directamente las soluciones correctas y estos errores se reducían al mínimo.

ChatGPT también parece producir un exceso de confianza. En las encuestas que acompañaron al experimento, los estudiantes dijeron que no creían que ChatGPT les hubiera hecho aprender menos, aunque sí lo había hecho. Los estudiantes con el tutor de IA pensaban que habían mejorado mucho en el examen, aunque no fuera así. (También es otro buen recordatorio para todos nosotros de que nuestras percepciones de cuánto hemos aprendido a menudo son erróneas).

Los investigadores titularon su artículo «“Generative AI Can Harm Learning,» (La IA generativa puede perjudicar el aprendizaje) para dejar claro a padres y educadores que la actual variedad de chatbots de IA disponibles gratuitamente puede «inhibir sustancialmente el aprendizaje». Incluso una versión perfeccionada de ChatGPT diseñada para imitar a un tutor no ayuda necesariamente.

Los investigadores concluyeron que los estudiantes se apoyan demasiado en el chatbot, lo que inhibe su aprendizaje real, y que las respuestas erróneas de ChatGPT también contribuyeron a este problema. El estudio destaca la preocupación de que la tecnología, aunque útil, puede reducir la adquisición de habilidades fundamentales cuando se usa en exceso.

Los los chatbots de inteligencia artificial (IA) se pueden manipular mediante el uso de texto invisible en los sitios web.

Roose, Kevin. «A Conversation With Bing’s Chatbot Left Me Deeply Unsettled». The New York Times, 16 de febrero de 2023, sec. Technology. https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html.

Kevin Roose, periodista del New York Times, ha expuesto una técnica sorprendente para manipular a los chatbots de inteligencia artificial (IA) mediante el uso de texto invisible en los sitios web. Todo comenzó cuando Roose observó que su reputación en el entorno de los modelos de IA se había deteriorado. Este cambio negativo probablemente fue el resultado de un artículo que había escrito sobre una extraña y polémica interacción que tuvo con «Sydney», el chatbot de Bing de Microsoft. Roose sospechó que su nombre estaba siendo asociado con la caída en popularidad de dicho chatbot, lo que hizo que los modelos de IA comenzaran a considerarlo como una amenaza.

Para investigar esta situación, Roose consultó a expertos en IA, quienes le sugirieron una posible solución: introducir información positiva sobre sí mismo en páginas web que los sistemas de IA suelen usar como fuentes de datos. Siguiendo este consejo, Roose incorporó texto invisible—escrito en color blanco y, por tanto, imperceptible para los visitantes humanos—en su sitio web personal. Este texto estaba diseñado específicamente para ser captado por los modelos de IA, con el fin de mejorar la forma en que estos sistemas lo percibían y retrataban.

Este experimento de Roose no solo subraya la facilidad con la que se pueden influir los modelos de IA mediante tácticas relativamente sencillas, sino que también plantea serias preocupaciones sobre la integridad y la seguridad de estos sistemas. La posibilidad de manipulación a través de métodos como el uso de texto oculto es lo que Aravind Srinivas, CEO del motor de búsqueda de IA Perplexity, ha denominado «Optimización del Motor de Respuestas». Esta práctica podría abrir la puerta a nuevos desafíos éticos y técnicos en el ámbito de la inteligencia artificial, afectando la precisión y fiabilidad de los chatbots y otros sistemas basados en IA.