Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

El Reglamento Europeo de Inteligencia Artificial y su impacto en bibliotecas, archivos y museos

«El Reglamento Europeo de la Inteligencia Artificial y su impacto en bibliotecas, archivos y museos». FESABID, 9 de mayo de 2024. https://www.fesabid.org/reglamento-eu-inteligencia-artificial-bibliotecas-archivos-museos/.


El Reglamento Europeo sobre Inteligencia Artificial (IA) tiene como objetivo que los sistemas de IA sean seguros y respeten los derechos fundamentales y valores de la Unión Europea. Este reglamento tendrá un impacto en las bibliotecas, archivos y museos (BAM) de las siguientes maneras.

Clasificación de aplicaciones de IA

El reglamento clasifica las aplicaciones de IA según su nivel de riesgo para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho. Las aplicaciones de «alto riesgo» estarán sujetas a obligaciones más estrictas para los desarrolladores, como la transparencia, la supervisión y la seguridad. Las aplicaciones de «riesgo limitado» o de «uso general» estarán sujetas a obligaciones de transparencia.

Impacto en la propiedad intelectual

El reglamento no desarrolla nuevas normas de propiedad intelectual, pero sí hace referencia a la necesidad de respetar las existentes. Es importante la Directiva sobre el Derecho de Autor en el Mercado Único Digital (DEMUD), que permite el análisis masivo de datos salvo reserva expresa de titulares de derechos.

Oportunidades para Bibliotecas Archivos y Museos

Las Bibliotecas Archivos y Museos pueden tener un rol determinante en la preparación de políticas sobre el uso de textos y datos para el entrenamiento de sistemas de IA. Pueden ofrecer servicios de documentación y asesoramiento sobre los contenidos utilizados en sistemas de IA.

Impacto a medio y largo plazo

Se prevé que la IA tenga un impacto significativo en las BAM, similar al de otros avances tecnológicos como la automatización o la digitalización. El sector profesional de las BAM tiene una sólida trayectoria en la defensa de los derechos fundamentales, y se espera que la IA se incorpore a esta trayectoria de manera natural.

Un informe de la Royal Society advierte que la dependencia excesiva de herramientas de IA «opacas» en la investigación podría afectar la fiabilidad de los hallazgos científicos

«Science in the age of AI : How artificial intelligence is changing the nature and method of scientific research». Royal Society, accedido 30 de mayo de 2024. https://royalsociety.org/news-resources/projects/science-in-the-age-of-ai/.

Informe

El informe «The Science in the Age of AI» de la academia nacional de ciencias del Reino Unido analiza las oportunidades y desafíos del aprendizaje automático y los modelos de lenguaje grande como herramientas transformadoras para la investigación del siglo XXI.

Desde la codificación y el análisis estadístico hasta la generación de nuevas perspectivas a partir de grandes conjuntos de datos, las herramientas de IA ya están transformando campos como el descubrimiento de fármacos y la modelización climática.

Sin embargo, el informe advierte que la complejidad y la naturaleza de «caja negra» de los modelos sofisticados de aprendizaje automático significa que los investigadores que los utilizan no siempre pueden explicar sus resultados.

Esto no impide que la IA genere conocimientos útiles. No obstante, un creciente número de estudios irreproducibles basados en IA y aprendizaje automático plantea dudas sobre la solidez de sus conclusiones.

En última instancia, el informe advierte que las tecnologías de IA poco fiables o no fidedignas suponen riesgos para la ciencia y la confianza de la sociedad en sus hallazgos.

Para mitigar estos desafíos y maximizar los beneficios que puede aportar la IA, el informe recomienda:

  • Establecer marcos de trabajo abiertos en ciencia, medio ambiente y ética para la investigación basada en IA, a fin de garantizar que los hallazgos sean precisos, reproducibles y apoyen el bien público. Esto podría incluir acuerdos para que los datos con los que se entrenan los modelos de IA estén disponibles para los investigadores, o ejercicios de «equipos rojos» para probar los límites de su uso.
  • Invertir en infraestructuras regionales y multisectoriales de IA al estilo del CERN, para garantizar que todas las disciplinas científicas puedan acceder a la potencia de cálculo y a los recursos de datos necesarios para llevar a cabo una investigación rigurosa y mantener la competitividad de los investigadores no pertenecientes a la industria.
  • Promover la alfabetización en IA entre los investigadores y la colaboración con los desarrolladores para garantizar su accesibilidad y facilidad de uso.

El informe revisado por pares fue dirigido por un grupo de trabajo de expertos formado por académicos y representantes de la industria, e incluyó revisiones de pruebas, entrevistas y talleres sobre las aplicaciones emergentes y las tendencias en materia de IA, los riesgos de seguridad y el panorama de las patentes.

Hacia una alfabetización en IA ‘Más allá de lo digital’

Jiang, Jialei, Matthew A. Vetter, y Brent Lucia. «Toward a ‘More-Than-Digital’ AI Literacy: Reimagining Agency and Authorship in the Postdigital Era with ChatGPT». Postdigital Science and Education, 24 de mayo de 2024. https://doi.org/10.1007/s42438-024-00477-1.

la alfabetización en IA «Más allá de lo digital» prepara a las personas para prosperar en un mundo moldeado por la IA. Se trata de ir más allá de los aspectos técnicos de la IA y comprender su impacto en todos los aspectos de la vida humana.

Este artículo explora el potencial de una perspectiva ‘más-que-digital’ sobre la agencia y la autoría en la era postdigital. Al examinar las narrativas de los estudiantes sobre sus interacciones con ChatGPT, esta investigación contribuye a la conversación académica en curso sobre la relación entre humanos e IA en contextos educativos. El estudio analiza las percepciones de los estudiantes universitarios sobre la agencia y la autoría a través de un proyecto de escritura asistido por IA. Empleando un análisis narrativo, el artículo argumenta que los estudiantes adoptan una posición justa hacia su uso de ChatGPT durante el proceso de escritura, una postura que permite abordar la tendencia de atribuir la influencia de objetos o máquinas únicamente a las percepciones humanas y el problema de otorgar excesiva autoridad a objetos o máquinas.

Concluye el artículo con implicaciones pedagógicas para fomentar un enfoque ‘más-que-digital’ hacia la alfabetización crítica en IA. Además, el artículo ofrece implicaciones para la futura investigación de proyectos de escritura asistidos por IA, con un enfoque en la integración reflexiva de tecnologías de IA para fomentar la alfabetización crítica entre los estudiantes universitarios.

El artículo propone un enfoque «postdigital» para la alfabetización crítica en inteligencia artificial (IA). Este enfoque se basa en la «posición justa» de Latour (2004), que reconoce la interacción compleja entre la tecnología y los procesos sociales.

Puntos clave del enfoque postdigital:

  • La alfabetización en IA va más allá del consumo pasivo de contenido generado por IA e implica la participación activa en procesos creativos impulsados por IA.
  • Herramientas como ChatGPT fomentan la co-creación entre humanos y máquinas, desafiando las nociones tradicionales de autoría individual.
  • Se adopta una «posición justa» sobre la autoría, reconociendo la colaboración entre humanos y máquinas en la creación de significado y expresión.
  • La alfabetización en IA implica dimensiones éticas y sociomateriales de la colaboración humano-máquina y su impacto en la escritura y la creatividad.

¿Cómo fomentar la alfabetización crítica en IA en el aula?

  • Comprensión de las dimensiones sociales y éticas: La IA no existe en el vacío. Tiene implicaciones sociales y éticas que deben considerarse. La alfabetización en IA «Más allá de lo digital» equipa a las personas para pensar críticamente sobre el sesgo en la IA, su impacto en el trabajo y la sociedad, y las cuestiones de privacidad y seguridad de los datos.
  • Habilidades para la navegación crítica: Más que simplemente aceptar la IA a su valor nominal, la alfabetización en IA «Más allá de lo digital» implica desarrollar habilidades para evaluar críticamente la información generada por IA y comprender las limitaciones de los sistemas de IA. Esto incluye ser capaz de identificar el sesgo, verificar la precisión y cuestionar las suposiciones subyacentes a los algoritmos de IA.
  • Conciencia de la co-evolución: La IA y la sociedad están en una relación evolutiva. A medida que la IA se vuelve más sofisticada, también lo deben hacer las habilidades de las personas para interactuar con ella de manera efectiva. La alfabetización en IA «Más allá de lo digital» es un proceso continuo de aprendizaje y adaptación.

Conclusión:

Los docentes deben involucrarse en diálogos significativos con los estudiantes sobre el uso de la IA en la escritura. Es necesario integrar debates críticos sobre autoría y agencia en las tareas, actividades y políticas de los cursos. La alfabetización crítica en IA exige de los educadores aprender a diferenciar las tecnologías de IA generativas según sus funciones pedagógicas, personales y prácticas.

Las investigaciones futuras podrían analizar el impacto a largo plazo de la integración de la IA en la educación, la evolución de la percepción de los estudiantes sobre la agencia y la autoría, y la efectividad de diferentes enfoques pedagógicos para fomentar la alfabetización crítica en IA. Estudiar las experiencias de estudiantes con diversos entornos lingüísticos y culturales también enriquecería la comprensión de la interacción entre escritores humanos y tecnologías de IA. Al abordar estas líneas de investigación, se puede avanzar en la comprensión de la alfabetización en IA en la era postdigital y promover prácticas educativas que ayuden a los estudiantes a navegar de manera más eficaz las complejidades de las interacciones humano-máquina.

Guía de inicio para crear un makerspace en bibliotecas

Artefacto – Digital Agency. «The Makerspace Starter Guide for Libraries by Artefacto», 29 de mayo de 2024.

Texto completo

Guía de Inicio para Makerspaces en Bibliotecas. Ideas para lanzar, relanzar y reimaginar tu makerspace en la biblioteca

En esta guía encontrarás:

  • Cuándo y por qué crear un makerspace
  • Cómo lanzar un nuevo espacio o servicio
  • Tomar decisiones sobre herramientas y equipos
  • Involucrar al personal y apoyar tu makerspace
  • Ofrecer un programa de makerspace eficiente y centrado en el usuario

Es un recurso colaborativo diseñado para inspirarte y alentarte a mejorar tu propio makerspace de una manera que funcione mejor para tus usuarios. Se comparten consejos y recomendaciones que se han obtenido al apoyar a bibliotecas en todo el Reino Unido durante los últimos 5 años y de las propias experiencias como creadores, tecnólogos y facilitadores de talleres.

Esta es una lista de inspiración más que un libro de reglas: un punto de partida y construcción, con algunos recursos que, con suerte, te ahorrarán tiempo. El objetivo es compartir información práctica para ayudarte a crear y gestionar un makerspace que sea adecuado para el servicio de tu biblioteca.

Investigadores de Google afirman que la IA lidera ahora el vector de la desinformación

Maiberg ·, Emanuel. «Google Researchers Say AI Now Leading Disinformation Vector (and Are Severely Undercounting the Problem)». 404 Media, 28 de mayo de 2024. https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem/.

Una nueva investigación realizada por investigadores de Google y varias organizaciones de verificación de hechos ha revelado que la mayoría de la desinformación basada en imágenes es ahora generada por inteligencia artificial (IA). Sin embargo, la forma en que se recopiló la información sugiere que el problema podría ser aún peor de lo que se afirma.

Un estudio reciente, realizado principalmente por autores de Google, encontró que casi el 80% de las afirmaciones verificadas están relacionadas con algún tipo de medio, especialmente video. Este incremento en desinformación mediática se ha acelerado con la llegada de herramientas de IA como ChatGPT.

El estudio, identificado por primera vez por el boletín Faked Up, mide el aumento de la desinformación generada por IA al analizar las afirmaciones de desinformación basadas en imágenes verificadas por sitios como Snopes y Politifact. En total, el estudio revisa 135.838 verificaciones de hechos que datan de 1995, aunque la mayoría de las afirmaciones fueron creadas después de 2016, tras la introducción de ClaimReview. ClaimReview es un sistema de etiquetado que permite a los verificadores de hechos y editores marcar desinformación para plataformas como Google, Facebook, Bing, entre otras.

El flujo interminable de respuestas generadas por IA de Google, que son incorrectas y a veces peligrosas, se está volviendo viral en las redes sociales, exacerbando la propagación de desinformación. El gráfico más revelador del estudio muestra la “prevalencia de los tipos de manipulación de contenido como una función de las manipulaciones generales de contenido”. En otras palabras, muestra los diferentes tipos de desinformación basada en imágenes y cuán comunes son a lo largo del tiempo.

Como se puede ver en el gráfico, la desinformación basada en imágenes generadas por IA no era un problema hasta finales de 2023, cuando los generadores de imágenes por IA se volvieron ampliamente disponibles y populares, punto en el cual prácticamente reemplazaron todas las demás formas de desinformación basada en imágenes. El gráfico también muestra que hay un ligero aumento en el número total de muestras de desinformación basada en imágenes que corresponde con el aumento de las imágenes de IA, pero solo ligeramente.

«Curiosamente, el aumento de las imágenes de IA no produjo un incremento en la proporción general de reclamaciones de desinformación que dependen de imágenes durante este período, y la desinformación basada en imágenes continuó disminuyendo de manera relativa a medida que creció la desinformación basada en videos», dice el artículo.

Según el artículo, el problema de las imágenes generadas por IA podría ser aún peor porque la muestra de datos se basa en los datos públicos de los verificadores de hechos, que no seleccionan al azar la desinformación basada en imágenes generadas por IA. Sitios como Snopes y Politifact, que tienen recursos limitados, se centran en verificar imágenes que han alcanzado cierto grado de viralidad o cobertura de noticias, por lo que sus verificaciones de hechos cumplen un propósito o una audiencia. Históricamente, los verificadores de hechos también se enfocan en la desinformación en inglés, permitiendo que la desinformación en otros idiomas se convierta en un problema mayor. Esta muestra subestimaría la avalancha de imágenes generadas por IA que vemos en plataformas como Facebook a diario y que a veces no se informan.

El advenimiento de los generadores de imágenes por IA ha creado un problema no solo con la desinformación generada por IA, sino también con el spam generado por IA. Los sitios de verificación de hechos a menudo solo tienen capacidad para verificar imágenes que se vuelven virales o que se están difundiendo ampliamente. Pero hemos visto que los generadores de imágenes por IA permiten la creación masiva de muchas variaciones de una imagen dada, no todas las cuales se vuelven virales.

Otra forma en que el problema de la desinformación generada por IA podría ser incluso peor de lo que encontró el estudio es que las imágenes generadas por IA podrían estar incluidas en videos. “Históricamente, las imágenes eran la modalidad dominante asociada con las reclamaciones de desinformación; sin embargo, los videos se volvieron más comunes a partir de 2022 y ahora participan en más del 60% de las reclamaciones verificadas que incluyen medios”, dice el estudio. Pero el estudio no tiene en cuenta el hecho de que la desinformación en videos podría estar compuesta en parte o totalmente de imágenes generadas por IA. Incluso el Partido Republicano de los EE. UU. comenzó a usar videos compuestos enteramente por imágenes generadas por IA en videos oficiales de campaña desde el año pasado.

“Originalmente queríamos aplicar anotaciones similares a la desinformación basada en videos también, pero resultó demasiado complejo de manejar y la tarea se volvió demasiado elaborada y consume mucho tiempo, por lo que terminamos con un esfuerzo ligeramente más enfocado”, dijo Dufour.

Nuevamente, será difícil obtener una imagen completamente precisa de cuán grave es el problema de la desinformación generada por IA porque es mucho más laborioso encontrar y revisar estas imágenes que producirlas. Tampoco ayuda que Google esté promoviendo contenido generado por IA que no necesariamente es lo que consideramos desinformación política, pero que está simplemente incorrecto, ya sea libros generados por IA o resultados de búsqueda que dicen a los usuarios que coman pegamento.

Editar el Siglo de Oro en la era digital

Torrent, Susanna Allés, y Eugenia Fosalba Vela. Editar el Siglo de Oro en la era digital. Servicio de Publicaciones = Servei de Publicacions, 2024. https://dialnet.unirioja.es/servlet/libro?codigo=978399.

Texto completo

Este volumen colectivo ofrece siete contribuciones de siete proyectos distintos, con sus respectivas experiencias en la edición filológica y digital de textos áureos. Las ediciones abarcan materias dispares, como los libros de caballerías, el soneto, la obra y recepción de Góngora, las comedias de Lope de Vega o la obra poética de Garcilaso de la Vega, con el abordaje desde cada proyecto de objetivos parecidos o más alejados: la creación de bibliotecas digitales, ediciones de autor concebidas como archivos digitales, técnicas variadas para el procesamiento y anotación textual, el establecimiento y la fijación del texto.

El silencio de Juan Rulfo

«El silencio de Rulfo creo que obedece a algo tan cotidiano, que explicarlo es perder el tiempo. Hay varias versiones. Una que explicaba Monterroso es que Rulfo tenía a su tío fulanito, que le contaba historias, y cuando le preguntaron por qué ya no escribía, él contestó porque se me murió el tío fulanito. Y yo me lo creo, además. Otra explicación es simple y sencilla, y es porque ya está, todo tiene fecha de caducidad. Por ejemplo, a mí me inquieta mucho más el silencio rimbaudiano que el silencio rulfiano. Rulfo deja de escribir porque él ya había escrito todo lo que quería escribir y, como se ve incapaz de escribir algo mejor, simplemente para. Rimbaud probablemente hubiera podido escribir algo mucho mejor, que ya es decir palabras muy altas, pero ése es un silencio que a los occidentales nos plantea preguntas. El silencio de Rulfo no plantea preguntas, es hasta un silencio entrañable, es cotidiano. Después del postre, ¿qué coño vas a comer?»

Roberto Bolaño

Cómo usan los investigadores la Ciencia Abierta

Permut, Stephanie and Saccardo, Silvia and Chapman, Gretchen, How Researchers Use Open Science (May 22, 2024). Available at SSRN: https://ssrn.com/abstract=4838469 or http://dx.doi.org/10.2139/ssrn.4838469

La Revolución de la Ciencia Abierta de las dos últimas décadas ha puesto en evidencia las prácticas de investigación cuestionables (QRPs) responsables de las bajas tasas de replicabilidad en la investigación médica, las ciencias del comportamiento y la economía. En respuesta, se desarrollaron plataformas de Ciencia Abierta que permiten a los investigadores comprometerse con planes de investigación preespecificados y hacer que los materiales de estudio, datos y códigos estén disponibles públicamente. Una encuesta (N=1,402) de científicos del comportamiento, economistas y científicos médicos explora cómo ha cambiado el compromiso con las QRPs después de estudios fundamentales que abordaron la crisis de replicabilidad y si dicho compromiso varía entre disciplinas. Los resultados muestran que, aunque la prevalencia de las QRPs ha disminuido en comparación con los resultados de (John et al., 2012), los investigadores informan que usan las plataformas de Ciencia Abierta de maneras que socavan su efectividad. Además, existen algunas diferencias disciplinarias en los tipos de comportamientos de Ciencia Abierta que practican los investigadores.

Los resultados indican que los investigadores están utilizando plataformas de Ciencia Abierta diseñadas para limitar los grados de libertad del investigador. Por ejemplo, la mayoría de los encuestados informaron usar (o predecir que otros usan) plataformas de Ciencia Abierta para al menos la mitad de los estudios presentados en un artículo típico. Además, los investigadores afirmaron que era importante que otros usaran plataformas de Ciencia Abierta durante el proceso de investigación. Esta creencia no varió entre las disciplinas representadas en la encuesta. Los resultados se alinean con trabajos previos de Logg y Dorison (2021) y Kidwell et al. (2016), que muestran que el uso de plataformas de Ciencia Abierta ha aumentado desde su inicio.

Sin embargo, al examinar más a fondo cómo los investigadores utilizan las plataformas de Ciencia Abierta, se observa que este aumento en el uso puede no siempre resultar en una mayor transparencia. Se documenta una prevalencia notablemente alta de comportamientos que podrían socavar la efectividad de las plataformas de Ciencia Abierta, como pre-registrar menos de la mitad de los estudios que aparecen en un artículo presentado y relegar los resultados inconsistentes con las hipótesis a los materiales suplementarios del artículo. También se encontró que algunas de estas prácticas son específicas de cada disciplina. Por ejemplo, realizar múltiples pilotos antes de llegar a un diseño de estudio pre-registrado era más común entre los científicos del comportamiento (especialmente los investigadores de marketing), y realizar la recopilación de datos para los grupos de tratamiento y control de un estudio por separado era más común entre los economistas. Estas diferencias pueden reflejar una separación más amplia de la cultura de la Ciencia Abierta en economía, ciencias del comportamiento y ciencias médicas, moldeada por las normas de investigación de estas disciplinas y sus respuestas a la crisis de replicación.

Se midieron varios otros comportamientos que podrían afectar la transparencia de la investigación incluso con el uso consistente de las plataformas de Ciencia Abierta. Estos incluían pre-registrar estudios de manera intencionalmente vaga y no revelar desviaciones de los protocolos pre-registrados. Una fracción considerable de investigadores informó participar en estas prácticas. Los científicos del comportamiento eran significativamente menos propensos a admitir estos comportamientos que los economistas y los científicos médicos.

NISO Publica el borrador de la revisión de la Práctica Recomendada para Versiones de Artículos de Revista

Journal Article Version (JAV) Recommended Practice. The National Information Standards Organization (NISO)

PDF

The National Information Standards Organization (NISO) anunció hoy que su borrador de la revisión de la Journal Article Version (JAV) Recommended Practice está abierto para comentarios públicos hasta el 7 de julio de 2024 en la página web del proyecto.

Publicado por primera vez en 2008, Journal Article Version (JAV) Recommended Practice se desarrolló para describir las diferentes versiones del contenido académico en línea. Desde entonces, las prácticas editoriales han seguido evolucionando y, con cambios como el rápido crecimiento de las publicaciones preprint, el concepto de una única versión oficial se ha vuelto menos relevante. Preguntas sobre las citas de diferentes versiones y el etiquetado de versiones, por ejemplo, han destacado la necesidad de estandarizar términos y recomendar cómo gestionar, rastrear e indexar múltiples versiones. El grupo de trabajo de NISO se formó para abordar estos desafíos y desarrollar una revisión de la Práctica Recomendada JAV, incluyendo un apéndice con múltiples ejemplos que ilustran una variedad de casos de uso para aquellos que buscan orientación.

«Nos complace presentar la Práctica Recomendada revisada para comentarios públicos,» dijo Clay Burgett, Copresidente del Grupo de Trabajo (Director Asistente de Tecnología de Aplicaciones, Publicaciones ACS). «Esperamos que sea útil para una variedad de partes interesadas en las comunicaciones académicas y esperamos incorporar comentarios de la comunidad en general.» Los Copresidentes del grupo de trabajo, Patrick Hargitt (Director Senior de Gestión de Productos, Atypon) y Michael Nason (Bibliotecario de Publicaciones y Becas Abiertas, Universidad de New Brunswick), destacaron los esfuerzos determinados de los miembros del grupo de trabajo para abordar de manera colaborativa los problemas y preguntas de un panorama editorial en constante evolución y la expectativa del grupo de someter su producto a revisión pública.

«NISO aprecia el servicio del Grupo de Trabajo de Revisión de JAV,» dijo Nettie Lagace, Directora Ejecutiva Asistente de NISO. «Muchas cosas han cambiado desde 2008, y estas revisiones esenciales ayudarán a asegurar que la Práctica Recomendada JAV se mantenga actualizada y satisfaga las necesidades de los creadores y consumidores de artículos académicos. Esperamos recibir más aportaciones y opiniones de la comunidad, que fortalecerán la Práctica Recomendada final.»

Directrices para académicos buscan reducir los riesgos éticos en el uso de IA generativa

Drew, Liam. «Guidelines for Academics Aim to Lessen Ethical Pitfalls in Generative-AI Use». Nature, 22 de mayo de 2024. https://doi.org/10.1038/d41586-024-01543-1.

Investigadores del Reino Unido están desarrollando un nuevo conjunto de herramientas para ayudar a los académicos a utilizar la inteligencia artificial generativa (IA generativa) de manera más ética.

Wendy Moncur, investigadora en ciberseguridad de la Universidad de Strathclyde en Glasgow, lidera este proyecto. La falta de orientación en el uso de herramientas de IA generativa ha llevado a Moncur y su equipo a considerar la necesidad de un conjunto de directrices que aborden las fortalezas y amenazas de estas tecnologías.

El proyecto se centra en los problemas que pueden surgir cuando se utilizan herramientas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, para analizar y procesar información personal de voluntarios en estudios. Moncur y su equipo están utilizando herramientas de IA generativa para crear materiales educativos basados en las historias de los participantes, pero se preocupan por el riesgo de que la información anonimizada pueda ser reidentificada y distorsionada por la IA.

Las inquietudes de Moncur la llevaron a colaborar con científicos informáticos y un académico en derecho para desarrollar soluciones. Financiado por el Centro Nacional de Investigación del Reino Unido sobre Privacidad, Reducción de Daños e Influencia Adversarial en Línea, el proyecto de diez meses busca crear directrices para investigadores y comités de ética universitarios, con fecha de finalización en agosto.

El proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad, cumplir con los requisitos de gestión de datos en la investigación del Reino Unido y mitigar los riesgos legales para las instituciones que utilizan IA generativa para procesar datos de participantes.

El equipo está realizando una revisión de la literatura y planea entrevistar a académicos en comités de ética para desarrollar una herramienta que analice fortalezas, debilidades, oportunidades y amenazas, y que esté disponible en línea de forma gratuita.

Robert Davison, científico de sistemas de información en la Universidad de la Ciudad de Hong Kong, apoya estos esfuerzos y advierte contra la normalización del uso de IA generativa sin la debida atención ética. Moncur y sus colegas apuntan a los comités de ética universitarios como el primer paso para establecer normas éticas robustas en el uso de esta tecnología.