Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Sobre la creación en las humanidades digitales

Nyhan, Julianne, Geoffrey Rockwell, Stéfan Sinclair, and Alexandra Ortolja-Baird, eds. On Making in the Digital Humanities: The Scholarship of Digital Humanities Development in Honour of John Bradley

Texto completo

On Making in the Digital Humanities llena una laguna en nuestra comprensión de los proyectos y la artesanía de las humanidades digitales al explorar tanto los procesos de creación como los productos que de ellos se derivan.

El volumen se centra en las capas entrelazadas de texturas humanas y tecnológicas que constituyen la erudición de las humanidades digitales. Para ello, reúne a un grupo de académicos conocidos, experimentados y emergentes de las humanidades digitales que reflexionan sobre diversas formas de creación (aquí privilegiamos el lado creativo y aplicado de las humanidades digitales). El volumen rinde homenaje al trabajo de John Bradley, ya que es totémico de una práctica de creación que está profundamente informada por perspectivas críticas. También se dedica un capítulo especial a las profundas contribuciones del coeditor de este volumen, Stéfan Sinclair, a la práctica creativa, aplicada e intelectual de la creación y las humanidades digitales. Stéfan Sinclair falleció el 6 de agosto de 2020.

Los capítulos aquí reunidos son importantes individualmente, pero en conjunto ofrecen una visión muy humana de lo que es hacer humanidades digitales, en el pasado, en el presente y en el futuro. En consecuencia, este libro será de interés para investigadores, profesores y estudiantes de humanidades digitales; humanidades creativas, incluidos los espacios y la cultura maker; estudios de la información; historia de la informática y la tecnología; e historia de la ciencia y las humanidades.

¿Está ChatGPT más cerca de un bibliotecario humano que de Google?

Brandom, David. ChatGPT: An AI OpenAI Like a Librarian, Search Google. [Gizmodo]. 2024-06-13. https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908

El modelo predominante de acceso y recuperación de información antes de que los motores de búsqueda se convirtieran en la norma -bibliotecarios y expertos en la materia o en la búsqueda que proporcionaban información relevante- era interactivo, personalizado, transparente y autorizado. Hoy en día, los motores de búsqueda son la principal forma de acceder a la información, pero introducir unas cuantas palabras clave y obtener una lista de resultados ordenados por alguna función desconocida no es lo ideal.

Una nueva generación de sistemas de acceso a la información basados en inteligencia artificial, como Bing/ChatGPT de Microsoft, Google/Gemini y Meta/LLaMA, está cambiando el modo tradicional de entrada y salida de los motores de búsqueda. Estos sistemas son capaces de tomar frases completas e incluso párrafos como entrada y generar respuestas personalizadas en lenguaje natural.

Casi 4.000 empleos se perdieron el mes pasado a causa de la IA, según un informe
Nvidia afirma que su nuevo superordenador «cierra oficialmente la brecha digital». Las antiguas predicciones sobre IA demuestran que nuestras esperanzas y temores no son nuevos, aunque la tecnología sí lo sea

A primera vista, esto podría parecer lo mejor de ambos mundos: respuestas personales y personalizadas combinadas con la amplitud y profundidad del conocimiento en Internet. Pero como investigador que estudia los sistemas de búsqueda y recomendación, creo que el panorama es, en el mejor de los casos, contradictorio.

Los sistemas de IA como ChatGPT y Gemini se basan en grandes modelos lingüísticos. Un modelo lingüístico es una técnica de aprendizaje automático que utiliza una gran cantidad de textos disponibles, como artículos de Wikipedia y PubMed, para aprender patrones. En términos sencillos, estos modelos calculan qué palabra es probable que venga a continuación, dado un conjunto de palabras o una frase. De este modo, son capaces de generar frases, párrafos e incluso páginas que corresponden a una consulta de un usuario.

Gracias al entrenamiento sobre grandes volúmenes de texto, el ajuste fino y otros métodos basados en el aprendizaje automático, este tipo de técnica de recuperación de información funciona con bastante eficacia. Los grandes sistemas basados en modelos lingüísticos generan respuestas personalizadas para satisfacer las consultas de información. Los resultados han sido tan impresionantes que ChatGPT alcanzó los 100 millones de usuarios en un tercio del tiempo que tardó TikTok en llegar a ese hito. La gente lo ha utilizado no sólo para encontrar respuestas, sino para generar diagnósticos, crear planes de dieta y hacer recomendaciones de inversión.

Sin embargo, hay muchos inconvenientes. En primer lugar, consideremos lo que constituye el núcleo de un gran modelo lingüístico: un mecanismo mediante el cual conecta las palabras y, presumiblemente, sus significados. Esto produce un resultado que a menudo parece una respuesta inteligente, pero se sabe que los grandes sistemas de modelos lingüísticos producen declaraciones casi como loros sin una comprensión real. Así, aunque el resultado generado por estos sistemas pueda parecer inteligente, no es más que un reflejo de patrones subyacentes de palabras que la IA ha encontrado en un contexto apropiado.

Esta limitación hace que los grandes sistemas de modelos lingüísticos sean susceptibles de inventar o «alucinar» respuestas. Los sistemas tampoco son lo suficientemente inteligentes como para entender la premisa incorrecta de una pregunta y responder de todos modos a preguntas erróneas. Por ejemplo, cuando se le pregunta qué cara de presidente de EE.UU. aparece en el billete de 100 dólares, ChatGPT responde Benjamin Franklin sin darse cuenta de que Franklin nunca fue presidente y de que la premisa de que el billete de 100 dólares tiene la foto de un presidente de EE.UU. es incorrecta.

El problema es que, aunque estos sistemas se equivoquen sólo un 10% de las veces, no se sabe qué 10%. La gente tampoco tiene la capacidad de validar rápidamente las respuestas de los sistemas. Esto se debe a que estos sistemas carecen de transparencia: no revelan con qué datos se han entrenado, qué fuentes han utilizado para dar respuestas o cómo se generan esas respuestas.

Por ejemplo, puedes pedirle a ChatGPT que escriba un informe técnico con citas. Pero a menudo se inventa estas citas, «alucinando» tanto con los títulos de los artículos académicos como con los autores. Los sistemas tampoco validan la exactitud de sus respuestas. Esto deja la validación en manos del usuario, y los usuarios pueden no tener la motivación o las habilidades para hacerlo o incluso reconocer la necesidad de comprobar las respuestas de una IA. ChatGPT no sabe cuándo una pregunta no tiene sentido, porque no conoce ningún dato.

Aunque la falta de transparencia puede ser perjudicial para los usuarios, también es injusta para los autores, artistas y creadores de los contenidos originales de los que han aprendido los sistemas, ya que éstos no revelan sus fuentes ni proporcionan atribuciones suficientes. En la mayoría de los casos, los creadores no son compensados ni acreditados, ni se les da la oportunidad de dar su consentimiento.

Esto también tiene un aspecto económico. En un motor de búsqueda típico, los resultados se muestran con los enlaces a las fuentes. Esto no sólo permite al usuario verificar las respuestas y proporciona las atribuciones a esas fuentes, sino que también genera tráfico para esos sitios. Muchas de estas fuentes dependen de este tráfico para sus ingresos. Dado que los grandes sistemas de modelos lingüísticos producen respuestas directas, pero no las fuentes de las que proceden, creo que es probable que esos sitios vean disminuir sus fuentes de ingresos.

Por último, esta nueva forma de acceder a la información también puede restar poder a las personas y quitarles la oportunidad de aprender. Un proceso de búsqueda típico permite a los usuarios explorar el abanico de posibilidades para sus necesidades de información, lo que a menudo les lleva a ajustar lo que buscan. También les da la oportunidad de aprender qué hay ahí fuera y cómo se conectan las distintas piezas de información para realizar sus tareas. Y permite encuentros accidentales o serendipia.

Son aspectos muy importantes de la búsqueda, pero cuando un sistema produce los resultados sin mostrar sus fuentes ni guiar al usuario a través de un proceso, le priva de estas posibilidades.

Los grandes modelos lingüísticos suponen un gran avance en el acceso a la información, ya que ofrecen a las personas una forma de interactuar basada en el lenguaje natural, producir respuestas personalizadas y descubrir respuestas y patrones que a menudo resultan difíciles de imaginar para un usuario medio. Pero tienen graves limitaciones por la forma en que aprenden y construyen las respuestas. Sus respuestas pueden ser erróneas, tóxicas o sesgadas.

Aunque otros sistemas de acceso a la información también pueden adolecer de estos problemas, los sistemas de IA con grandes modelos lingüísticos también carecen de transparencia. Y lo que es peor, sus respuestas en lenguaje natural pueden contribuir a alimentar una falsa sensación de confianza y autoridad que puede resultar peligrosa para los usuarios desinformados.

OpenAI y Apple anuncian una colaboración para Integrar ChatGPT en las experiencias de Apple

«OpenAI and Apple Announce Partnership». Accedido 13 de junio de 2024. https://openai.com/index/openai-and-apple-announce-partnership/.

Apple está integrando ChatGPT en las experiencias dentro de iOS, iPadOS y macOS, permitiendo a los usuarios acceder a las capacidades de ChatGPT, incluyendo la comprensión de imágenes y documentos, sin necesidad de cambiar entre herramientas.

Siri también podrá utilizar la inteligencia de ChatGPT cuando sea útil. Los usuarios de Apple serán consultados antes de que cualquier pregunta se envíe a ChatGPT, junto con cualquier documento o foto, y luego Siri presentará la respuesta directamente.

Además, ChatGPT estará disponible en las Herramientas de Escritura de todo el sistema de Apple, para ayudar a los usuarios a generar contenido sobre cualquier tema que estén escribiendo. Los usuarios también podrán utilizar las herramientas de imágenes de ChatGPT para generar imágenes en una amplia variedad de estilos que complementen lo que están escribiendo.

Las protecciones de privacidad están integradas al acceder a ChatGPT dentro de Siri y Herramientas de Escritura: las solicitudes no son almacenadas por OpenAI y las direcciones IP de los usuarios están ocultas. Los usuarios también pueden optar por conectar su cuenta de ChatGPT, lo que significa que sus preferencias de datos se aplicarán bajo las políticas de ChatGPT.

La integración de ChatGPT, impulsada por GPT-4o, llegará a iOS, iPadOS y macOS a finales de este año. Los usuarios podrán acceder de forma gratuita sin crear una cuenta, y los suscriptores de ChatGPT podrán conectar sus cuentas y acceder a funciones pagas directamente desde estas experiencias.

Documento de opinión sobre la digitalización avanzada de la investigación

European Commission, Directorate-General for Research and Innovation, Opinion paper on advanced digitalisation of research, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2777/932733

El documento discute cómo la digitalización avanzada en la recolección, validación, análisis y simulación de datos puede mejorar la reproducibilidad de la investigación y la usabilidad de los datos. Resalta que, al aplicar principios y políticas de Ciencia Abierta, se puede crear una masa crítica de Datos FAIR evaluados por calidad (QAFAIRD) y objetos de investigación. Esto permitirá el desarrollo confiable y seguro de la Inteligencia Artificial, el Aprendizaje Automático y los Entornos Virtuales de Investigación.

El documento identifica el estado actual de la digitalización avanzada en la investigación y señala los cuellos de botella que deben abordarse para cumplir con estos objetivos. Además, busca contribuir a la plena operatividad del EOSC (European Open Science Cloud).

Ética e integridad en la investigación – Crear una cultura de confianza y excelencia

European Commission, Directorate-General for Research and Innovation, Publications Office of the European Union, Ethics and integrity in research – Building a culture of trust and excellence, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/190203

La ética y la integridad de la investigación son requisitos previos para la excelencia investigadora y para mantener la confianza de la sociedad en la ciencia. Además, la investigación responsable debe reflexionar sobre las repercusiones sociales y el posible mal uso de los nuevos avances tecnológicos, como la inteligencia artificial, las nuevas técnicas genómicas, la biomedicina, la geoingeniería, la biología sintética y la neurotecnología. Esto requiere un proceso colectivo, amplio e integrador de reflexión y diálogo, basado en los valores en torno a los cuales queremos organizar la sociedad y en el papel que las tecnologías deben desempeñar en ella. La Unión Europea se ha comprometido a proteger y promover los derechos, valores y principios fundamentales, tanto en el ámbito nacional como en la cooperación internacional en materia de investigación e innovación. Los ocho proyectos financiados por Horizonte que figuran en el Results Pack de CORDIS sobre ética e integridad en la investigación ilustran cómo la UE fomenta el desarrollo de la formación, la educación y la capacitación, el diálogo con los socios mundiales y la mejora de los marcos, herramientas y procedimientos para garantizar que el progreso científico y tecnológico vaya de la mano de los valores que apreciamos.

Publicación de CiteScore 2023 (2024)

«CiteScore 2023: A comprehensive, clear and current metric for journal impact | Elsevier Scopus Blog». Accedido 13 de junio de 2024. https://blog.scopus.com/posts/citescore-2023-a-comprehensive-clear-and-current-metric-for-journal-impact.

Scopus anuncia el próximo lanzamiento de CiteScore 2023, una métrica que proporciona información sobre el impacto de las citas de las revistas.

Desarrollado por el equipo del International Center for the Study of Research (ICSR), CiteScore ofrece una evaluación equilibrada y completa de las contribuciones basadas en la investigación de una revista. CiteScore permite a investigadores, bibliotecarios, editores y oficinas de investigación tomar decisiones bien informadas sobre dónde publicar y estrategias de publicación.

Aspectos destacados del lanzamiento de CiteScore 2023:

  1. Cobertura ampliada: CiteScore 2023 incluye 29.777 títulos activos, con 2.212 títulos recibiendo su primer CiteScore. Esta cobertura más amplia asegura un conjunto de datos más completo para evaluar el impacto de las revistas.
  2. Más títulos de acceso abierto: El lanzamiento incluye 6.943 títulos de acceso abierto, con 52 de ellos clasificándose como número 1 en sus respectivas categorías, destacando la creciente importancia de la investigación de acceso abierto.
  3. Diversas categorías temáticas: CiteScore cubre 334 categorías temáticas, con Historia siendo el área más grande, comprendiendo 1.760 títulos. Esta diversidad permite a los usuarios explorar el impacto en varios campos.
  4. Títulos de alto impacto: CiteScore 2023 identifica 11.144 títulos con CiteScore pero sin Factor de Impacto en 2022. Entre ellos, 416 títulos están altamente clasificados en sus respectivas áreas, ubicándolos en el top 10%.
  5. Representación global: El 22% de las revistas CiteScore son publicaciones no en inglés en más de 50 idiomas, proporcionando una perspectiva global sobre el impacto de la investigación.
  6. Impacto creciente: 668 títulos experimentaron un aumento de CiteScore del 100% o más entre 2022 y 2023, mostrando la naturaleza dinámica del impacto de la investigación.

La metodología de CiteScore refleja el impacto de citación de las contribuciones basadas en la investigación de una revista con mayor estabilidad, consistencia en los períodos de tiempo utilizados, y permanece integral, actual, clara y gratuita. Fue desarrollada por el equipo del ICSR (International Center for the Study of Research), basado en una investigación de mercado extensa y según Scopus aprovecha las debilidades inherentes del JIF como métrica de citación a nivel de revista.

Normativa sobre accesibilidad de la web y las aplicaciones móviles

Branson, Katie. «Web and Mobile App Accessibility Regulations.» EDUCAUSE Review. Publicado el 10 de junio de 2024. Accedido el [fecha de acceso]. https://er.educause.edu/articles/2024/6/web-and-mobile-app-accessibility-regulations.

La reglamentación sobre accesibilidad web y de aplicaciones móviles, promulgada por el Departamento de Justicia de los Estados Unidos bajo el Título II de la Ley de Estadounidenses con Discapacidades (ADA por sus siglas en inglés), representa un hito significativo en el campo de la accesibilidad digital. Esta reglamentación, publicada en el Registro Federal el 24 de abril, establece requisitos claros y vinculantes para garantizar que los sitios web y las aplicaciones móviles de entidades públicas sean accesibles para personas con discapacidades.

El marco regulatorio final, que entrará en vigor en diferentes momentos dependiendo del tamaño de la entidad pública, establece como estándar de accesibilidad las Pautas de Accesibilidad al Contenido Web (WCAG) 2.1 nivel AA. Esto significa que todos los contenidos web y aplicaciones móviles proporcionados o puestos a disposición por entidades públicas, ya sea directamente o a través de terceros, deben ser accesibles y utilizables por personas con discapacidades.

Una de las características clave de esta reglamentación es la adopción formal de las WCAG 2.1 nivel AA como estándar. Las WCAG son pautas internacionales reconocidas para la accesibilidad web desarrolladas por el World Wide Web Consortium (W3C). El nivel AA de las WCAG establece criterios más avanzados que el nivel A y aborda una amplia gama de problemas de accesibilidad, lo que garantiza una experiencia de usuario inclusiva para personas con diversas discapacidades.

Además, la reglamentación proporciona plazos claros para el cumplimiento. Las entidades públicas grandes, definidas como aquellas con una población de más de 50,000 personas según el censo, tienen un plazo de dos años para cumplir con los requisitos de accesibilidad. Por otro lado, las entidades públicas pequeñas, con una población de menos de 50,000 personas, tienen tres años para cumplir.

Es importante destacar que la reglamentación final retiene ciertas excepciones limitadas para ciertos tipos de contenido, como contenido archivado, documentos electrónicos convencionales preexistentes y contenido de terceros. Sin embargo, una de las excepciones propuestas en la versión inicial de la regla para contenido de cursos protegido por contraseña fue completamente eliminada en la versión final.

En conclusión, la reglamentación sobre accesibilidad web y de aplicaciones móviles bajo el Título II de la ADA representa un paso importante hacia la inclusión digital. Proporciona un marco claro y vinculante para garantizar que las entidades públicas cumplan con los estándares de accesibilidad web, lo que contribuye a una sociedad más equitativa y accesible para todas las personas, independientemente de sus capacidades.

La «fiebre del oro» de la IA por los datos de entrenamiento de chatbots podría quedarse sin texto escrito por humanos

AP News. «AI “gold Rush” for Chatbot Training Data Could Run out of Human-Written Text», 6 de junio de 2024. https://apnews.com/article/ai-artificial-intelligence-training-data-running-out-9676145bac0d30ecce1513c20561b87d.

Los sistemas de inteligencia artificial, como ChatGPT, dependen de grandes cantidades de texto escrito por humanos disponible en línea para mejorar su rendimiento. Sin embargo, un estudio de Epoch AI advierte que las empresas tecnológicas podrían agotar el suministro de estos datos públicos entre 2026 y 2032. Esta situación se compara con una «fiebre del oro» que podría dificultar el progreso continuo en el campo de la IA.

A corto plazo, empresas como OpenAI y Google están buscando asegurar fuentes de datos de alta calidad, incluso pagando por ellos, como es el caso de los datos provenientes de foros como Reddit y medios de comunicación. Sin embargo, a largo plazo, no habrá suficientes nuevos blogs, artículos de noticias y comentarios en redes sociales para sostener el desarrollo de la IA. Esto podría llevar a depender de datos sensibles considerados privados, como correos electrónicos o mensajes de texto, o recurrir a datos sintéticos generados por los propios chatbots, los cuales son menos confiables.

Algunos expertos, como Nicolas Papernot, creen que no es necesario seguir entrenando modelos cada vez más grandes, sino enfocarse en modelos más especializados. Además, existe preocupación por el uso de datos generados por IA para entrenar más IA, lo que podría llevar a la «degradación del rendimiento» o «colapso del modelo». Sitios como Reddit y Wikipedia, así como editores de noticias y libros, están reconsiderando cómo se utilizan sus datos. Wikipedia, por ejemplo, permite el uso de sus entradas por parte de empresas de IA, pero subraya la necesidad de mantener incentivos para la creación de contenido humano.

Sam Altman, CEO de OpenAI, mencionó que aunque se está experimentando con datos sintéticos, es crucial que estos sean de alta calidad para evitar ineficiencias en el entrenamiento de modelos de IA. En resumen, el campo de la inteligencia artificial enfrenta un posible agotamiento de textos escritos por humanos para el entrenamiento de sus modelos, lo que plantea importantes desafíos y la necesidad de buscar soluciones alternativas para mantener el progreso tecnológico.

La antibiblioteca

«Una biblioteca privada no es un apéndice para levantar nuestro ego, sino una herramienta de investigación. Lo libros leídos son de tanto valor como los no leídos. La biblioteca debería contener cosas que no sabes […]. Acumularás más conocimientos y más libros a medida que te hagas mayor y la cantidad de libros sin leer te mirará de modo amenazador desde la estantería. De hecho, cuanto más sabes, más libros sin leer vas a tener. Llamemos a esta colección de libros sin leer: la antibiblioteca.»

NASSIM NICHOLAS TALEB
El Cisne Negro.