Archivo de la etiqueta: Algoritmos

El futuro de los algoritmos y el etiquetado colaborativo (folksonomías) en las bibliotecas

The Future of Algorithms and Collaborative Tagging in Our Libraries
Editor’s note: This is a guest post by Jessica Luna. Hack Library School, 2022

Texto completo

La folcsonomía es el proceso de utilizar etiquetas de contenidos digitales para su categorización o anotación. Permite a los usuarios clasificar sitios web, imágenes, documentos y otras formas de datos para que el contenido pueda ser fácilmente categorizado y localizado por los usuarios.

La búsqueda se ha convertido en un hilo conductor la vida diaria. El aprendizaje de métodos básicos y avanzados de búsqueda de diferentes tipos de información, la evaluación de los resultados de la búsqueda y la comprensión de cómo los algoritmos dan forma a nuestras consultas son sólo algunas de las cosas a tener en cuenta. Y son esos algoritmos los que han dominado nuestras vidas desde antes de la existencia de la Web 2.0.

Los métodos de recuperación de información personalizada (PIR) mediante el etiquetado colaborativo, también conocido como folcsonomías. El etiquetado colaborativo está cada vez más arraigado en los sistemas bibliotecarios en línea de última generación porque resulta familiar y cómodo para los usuarios navegar y descubrir materiales etiquetados de forma similar. La personalización se ha convertido en un factor esencial en la configuración de las folcsonomías actuales.

Las folcsonomías se utilizan en sitios web de redes sociales como Flickr, Twitter e Instagram para ayudar a los usuarios a buscar temas de su interés. Los creadores de contenidos en plataformas como YouTube y Twitch utilizan las folcsonomías para que sus contenidos sean más buscables y lleguen a un público más amplio. Esto nos hace plantearnos si los modelos de recomendación PIR son el futuro de los catálogos de las bibliotecas de nueva generación.

¿Cómo funciona?

El modelo básico actual de sistema de folcsonomía contiene tres variables esenciales: usuarios, recursos y etiquetas. Estas tres variables constituyen la base para calcular el peso y la clasificación de las etiquetas en diversos sistemas de etiquetado. Los modelos PIR utilizan los perfiles de los usuarios y de los recursos para personalizar su experiencia de búsqueda en función de sus intereses. El objetivo es identificar la respuesta más cercana a la necesidad de una persona en función de las características de su cuenta de usuario.

Una parte importante de los modelos PIR para folksonomías son los sistemas de recomendación. Hay muchas investigaciones sobre diferentes métodos PIR que pueden cambiar drásticamente la forma de clasificar los documentos y las etiquetas que se recomiendan a los usuarios. Algunos sistemas de recomendación PIR reconocen que el comportamiento de etiquetado de los usuarios suele cambiar con el tiempo, por lo que el sistema ideal debería tener en cuenta el comportamiento de etiquetado histórico de un usuario a la hora de evaluar el peso y la clasificación de un recurso etiquetado. Otros algoritmos exploran la relación entre la relevancia de la consulta y la relevancia del interés del usuario. La teoría sugiere que cuantas más veces utiliza un usuario una etiqueta en su perfil, más interesado está en su tema.

El análisis de sentimientos es una forma de que el aprendizaje automático extraiga los intereses y sentimientos de los usuarios basándose en los temas que siguen y en las etiquetas que han buscado en el pasado. Aplica evaluaciones de similitud para crear una mayor precisión de los recursos recuperados. Los algoritmos generan relaciones entre palabras y frases, categorizando las relaciones semánticas entre frases y oraciones. Los términos se clasifican dentro de un espacio vectorial, y los que tienen mayor puntuación tienen más peso a la hora de representar un tema.

Problemas de personalización

Una queja común sobre los sistemas PIR es la privacidad. La personalización sólo puede producirse obteniendo datos del usuario, a menudo sin su conocimiento o consentimiento.

Los sistemas de recomendación pueden forzar a los usuarios a entrar en burbujas de filtros. Estos sistemas aíslan a los usuarios de otras perspectivas y visiones del mundo, perpetuando la ignorancia de la gente sobre creencias y culturas alternativas. Es esencialmente otro tipo de censura que estrecha la percepción de una persona. Por suerte, se han desarrollado otros métodos para diversificar las recomendaciones del PIR.

Mirando hacia el futuro

Los estudios PIR proporcionan una idea de cómo los algoritmos clasifican y ponderan las folksonomías. También nos permite suponer cómo las empresas privadas podrían utilizar métodos similares a la hora de sugerir recursos a los usuarios. Twitter me viene a la mente cuando pienso en los modelos PIR utilizados con las folcsonomías. Cuando interactúas suficientes veces con otro usuario o con un hashtag concreto, el algoritmo añade usuarios y hashtags similares a tu feed.

Hablamos de Twitter porque ha sido noticia últimamente. Para promover la transparencia del algoritmo, Elon Musk declaró en una reciente charla TED sus intenciones de hacer que Twitter sea de código abierto. Será nuestro primer vistazo al análisis crítico de los algoritmos de una plataforma de medios sociales y a una mayor investigación sobre los sistemas PIR.

Al convertirse los algoritmos de Twitter en código abierto, es posible que veamos más estudios sobre cómo los sistemas PIR dan forma a las experiencias de los usuarios. También abre la puerta a nuevas investigaciones sobre las implicaciones éticas de los sistemas PIR y sus posibles soluciones.

Por el momento, no hemos encontrado ningún catálogo de nueva generación que utilice métodos PIR para las folcsonomías. Los ILS/LSP suelen utilizar etiquetas como facetas en su catálogo. Koha tiene una nube de etiquetas que muestra las etiquetas más utilizadas. La adición de medidas de análisis de sentimiento podría resultar fructífera para identificar las similitudes entre las etiquetas. Las etiquetas que podrían considerarse molestas y subjetivas tendrían ahora un significado.

No está claro si algún ILS/LSP incluirá algún día métodos PIR en sus sistemas, pero es bueno saber cómo funcionan.

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible. DigitalES, 2022

Texto completo

El Plan Nacional de Algoritmos Verdes se enmarca dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno para el impulso de aplicaciones de IA sostenibles. Cabe distinguir entre ‘Green in AI’ y ‘Green by AI’, es decir, aplicaciones eco-diseñadas y aplicaciones que generan un impacto sostenible. Este documento tiene como objetivo exponer las propuestas de las empresas que forman parte de DigitalES, para convertir España en un exponente de un desarrollo tecnológico que combata la crisis climática.

1.- Precisar la sostenibilidad de un algoritmo de Inteligencia Artificial
2.- Recopilar casos de uso probados y elaborar un catálogo de buenas prácticas
3.- Fomentar el debate sobre el plano ambiental del desarrollo tecnológico
4.- Diseñar mecanismos en las empresas para garantizar una IA responsable
5.- Encontrar y formar al talento que vele por la IA sostenible
6.- Reforzar la sostenibilidad como criterio de valoración en la contratación pública
7.- Sandboxes regulatorios
8.- Colaboración público-privada
9.- Ayudas e incentivos fiscales
10.- Inversión en plataformas españolas de supercomputación compartidas

El 74% de los usuarios de Facebook no sabe que la plataforma social mantiene una lista de sus intereses y rasgos

Paul Hitlin And Lee Rainie. Facebook Algorithms and Personal Data. Pew Research Center, janaury 16, 2019

Texto completo

Una investigación de Pew revela que el 74% de los usuarios de Facebook no sabía que la plataforma social mantiene una lista de sus intereses y rasgos

La mayoría de los sitios comerciales, desde las plataformas de medios sociales hasta los medios de comunicación y los minoristas en línea, recogen una gran variedad de datos sobre el comportamiento de sus usuarios. Las plataformas utilizan estos datos para ofrecer contenidos y recomendaciones basados en los intereses y rasgos de los usuarios, y para permitir a los anunciantes dirigir los anuncios a segmentos relativamente precisos del público. Pero, ¿hasta qué punto entienden los estadounidenses estos sistemas de clasificación basados en algoritmos y hasta qué punto creen que sus vidas coinciden con lo que se informa sobre ellas? Como ventana a este fenómeno difícil de estudiar, una nueva encuesta del Pew Research Center pidió a una muestra representativa de usuarios de la plataforma de medios sociales más popular del país, Facebook, que reflexionaran sobre los datos que se habían recopilado sobre ellos.

Facebook hace que sea relativamente fácil para los usuarios averiguar cómo el algoritmo del sitio ha categorizado sus intereses a través de una página «Tus preferencias de anuncios». Sin embargo, el 74% de los usuarios de Facebook afirman que no sabían que existía esta lista de sus rasgos e intereses hasta que fueron dirigidos a su página como parte de este estudio.

Cuando se les pregunta con qué precisión creen que la lista les representa a ellos y a sus intereses, el 59% de los usuarios de Facebook dicen que la lista refleja muy (13%) o algo (46%) sus intereses. Mientras tanto, el 27% de los usuarios de Facebook dicen que la lista no los representa con mucha (22%) o ninguna precisión (5%).

Sin embargo, incluso con una mayoría de usuarios que señalan que Facebook evalúa sus intereses con al menos cierta precisión, cerca de la mitad de los usuarios (51%) dicen que no se sienten muy o nada cómodos con que Facebook cree esta lista sobre sus intereses y rasgos. Esto significa que el 58% de las personas a las que Facebook categoriza no se sienten generalmente cómodas con ese proceso. Por el contrario, el 5% de los usuarios de Facebook dice sentirse muy cómodo con la creación de esta lista por parte de la empresa y otro 31% declara sentirse algo cómodo.

El gobierno de los algoritmos: peligros y poderes de la IA en el sector público

Governing algorithms: perils and powers of AI in the public sector. Digital Future Society, 2021

Texto completo

El objetivo de este libro blanco es contribuir a un desarrollo inclusivo de la IA y ayudar a restablecer y reforzar la confianza entre los responsables políticos y el público. Esto exige un mayor esfuerzo para comprender mejor los efectos de la IA y desarrollar algoritmos explicables y responsables. Además, se necesitan marcos de evaluación sólidos que puedan valorar no sólo el rendimiento, sino también el desempeño y el impacto socioeconómico de la IA.

El libro blanco contiene cinco estudios de casos de uso de la IA que han suscitado preocupación debido a la considerable reacción pública que surgió tras su adopción. Cada uno de ellos alimentó un fuerte debate entre políticos, académicos, profesionales y ciudadanos. Todos estos ejemplos proceden de países europeos, aunque también se incluyen otros ejemplos internacionales. El libro examina sobre todo casos europeos porque la Unión Europea (UE), buscando limitar los riesgos asociados a la IA, adoptó la posición de desarrollar una IA responsable que tenga un propósito ético y una solidez técnica. Se trata de dos componentes fundamentales para fomentar la confianza y facilitar la adopción.

Google plantea un nuevo buscador que proporcionará respuestas en lenguaje natural como si se tratara de un experto en la materia a partir de fuentes fiables y fidedignas.

Ejemplo de búsqueda en la web (izquierda), modelo lingüístico (centro) y respuestas de expertos (sistema previsto)

Metzler, D., Tay, Y., Bahri, D., & Najork, M. Rethinking Search: Making Experts out of Dilettantes. arXiv:2105.02274 [cs], 2021. http://arxiv.org/abs/2105.02274

Un nuevo artículo de cuatro investigadores de Google propone un sistema «experto» capaz de responder con autoridad a las preguntas de los usuarios en lugar de presentar una lista de posibles resultados de búsqueda, basado en el algoritmo GPT-3 presentado el año pasado. Este enfoque podría cambiar no sólo el funcionamiento de los motores de búsqueda, sino también lo que hacen, y la forma en que interactuamos con ellos.

El documento, titulado Rethinking Search: Making Experts out of Dilettantes, sugiere que la forma actual de presentar al usuario una lista de resultados de búsqueda en respuesta a una consulta es una «carga cognitiva», y propone mejoras en la capacidad de un sistema de procesamiento del lenguaje natural (PLN) para dar una respuesta autorizada y definitiva que sustituya el enfoque de clasificación por un modelo de respuesta experta en lenguaje de inteligencia artificial (IA).

La mayoría de los motores de búsqueda siguen funcionando de la misma manera que hace 20 años: las páginas web son indexadas por rastreadores (software que lee la web sin parar y mantiene una lista de todo lo que encuentra), los resultados que coinciden con la consulta de un usuario se recogen de este índice, y los resultados se clasifican por relevancia. Hasta ahora las búsquedas en Google se han basado en el algoritmo Page Rank para arrojar los resultados de búsqueda a partir de la calidad y cantidad de los enlaces que le dan otras páginas a una página determinada. El problema es que los motores de búsqueda actuales siguen respondiendo con una lista de documentos que incluyen la información solicitada, no con la información en sí, si no con una lista de referencias. Según Metzler, es como si pidieras consejo a tu médico y recibieras una lista de artículos para leer en lugar de una respuesta directa. Por ello, Google se está replanteando este método por el de una búsqueda basada en un nuevo algoritmo de lenguaje denominado GPT-3. El nuevo algoritmo extrae información de múltiples fuentes para responder a las preguntas en lenguaje natural. Lo que proporcionará al usuario de una búsqueda, no la lista de los resultados más relevantes como ocurre ahora, si no una respuesta en lenguaje natural como si se tratara de un experto en la materia a partir de fuentes fiables y fidedignas.

Metzler y sus colegas están interesados en un motor de búsqueda que se comporte como un experto humano «Debería producir respuestas en lenguaje natural, sintetizadas a partir de más de un documento, y respaldar sus respuestas con referencias a pruebas de apoyo, como pretenden hacer los artículos de Wikipedia». Y añade: «Cuando existe una necesidad de información, los usuarios desearían preguntar a un experto, pero a menudo recurren a un sistema de recuperación de información, como un motor de búsqueda. Los sistemas clásicos de recuperación de información no responden directamente a las necesidades de información, sino que proporcionan referencias a respuestas (que se espera sean autorizadas). Los sistemas de respuesta a preguntas de éxito ofrecen un corpus limitado creado a la carta por expertos humanos, que no es ni oportuno ni escalable». En cambio, los grandes modelos lingüísticos pre entrenados son capaces de generar directamente una prosa que puede responder a una necesidad de información, pero en la actualidad son más aficionados que expertos: no tienen una verdadera comprensión del mundo; y lo que es más importante, son incapaces de justificar sus enunciados haciendo referencia a documentos de apoyo en el corpus sobre el que fueron entrenados (ver imagen). El artículo examina cómo las ideas de la recuperación de información clásica y los grandes modelos lingüísticos pueden sintetizarse y evolucionar hacia sistemas que realmente cumplan la promesa del asesoramiento experto.

Motores de búsqueda: una mecánica de técnicas algorítmicas

Rieder, B. [e-Book] Engines of Order : A Mechanology of Algorithmic Techniques, Amsterdam University Press, 2020.

Texto completo

El software se ha convertido en un componente clave de la vida contemporánea y los algoritmos que ordenan, clasifican o recomiendan están por todas partes. Partiendo de la filosofía de Gilbert Simondon y de la tradición de las técnicas culturales, este libro examina el carácter constructivo y acumulativo del software y recorre las trayectorias históricas de una serie de técnicas algorítmicas que se han convertido en los bloques de construcción de las prácticas contemporáneas de ordenación. Desarrolladas en oposición a siglos de tradición bibliotecaria, estas técnicas instancian formas de conocimiento dinámicas, perspectivistas e interesadas. Incrustadas en infraestructuras técnicas y lógicas económicas, se han convertido en motores de orden que transforman el modo en que organizamos la información, las ideas y las personas.

En las últimas décadas, y en particular desde la adopción generalizada de Internet, los encuentros con los procedimientos algorítmicos para la «recuperación de información» -la actividad de obtener alguna pieza de información de una colección o repositorio de algún tipo- se han convertido en experiencias cotidianas para la mayoría de las personas en grandes partes del mundo.

Ciudadanos reemplazados por algoritmos

1825_tapa

Néstor García Canclini. Ciudadanos reemplazados por algoritmos. Clacsco, 2020

Texto completo

¿A quién le importamos los ciudadanos? Muchos partidos y sindicatos parecen reducirse a cúpulas que se distribuyen prebendas. Desde la expansión de la videopolítica, la televisión canaliza quejas y críticas sociales a los gobernantes tratándonos como espectadores. Las redes prometen horizontalidad y participación, pero suelen generar movimientos de alta intensidad y corta duración.

Nuestras opiniones y comportamientos, capturados por algoritmos, quedan subordinados a corporaciones globalizadas. El espacio público se vuelve opaco y lejano. La desciudadanización se radicaliza, mientras algunos sectores se reinventan y ganan batallas parciales. Pero los usos neoliberales de las tecnologías mantienen y ahondan las desigualdades mayores. ¿Qué alternativas tenemos ante esta desposesión? ¿Disidencias, hackeos? ¿Cuál es el lugar del voto, esa relación entre Estado y sociedad reprogramada por las tecnologías y el mercado?

El no conocimiento y las culturas digitales

 

5c92ad90a6a5124211c040472bff03cd

 

Andreas, B., K. Matthias, et al.. [e-Book]  Non-Knowledge and Digital Cultures. Meson Press, 2018

Texto completo

 

Al poner a disposición cantidades masivas de datos que se generan, distribuyen y modelan, los medios digitales nos ofrecen la posibilidad de disponer de abundante información y conocimiento. Esta posibilidad ha ido atrayendo varios escenarios en los que la tecnología o bien elimina el no conocimiento o bien lo sitúa en lo profundo de las culturas contemporáneas a través del poder universal y la opacidad de los algoritmos.

Google cambia su algoritmo de búsqueda hacia el“emparejamiento neuronal” para comprender mejor los conceptos de búsqueda

 

google-rankbrain-neural-matching-1553258600

 

Google acaba de anunciar recientemente que está utilizando un algoritmo de «emparejamiento neuronal» para comprender mejor los conceptos que transformará el futuro escenario de resultados de búsqueda, técnicas de optimización de motores de búsqueda y estrategias. El anterior algoritmo «RankBrain» relacionaba las páginas con los conceptos y el emparejamiento neuronal relaciona las palabras con las búsquedas

 

Google está utilizando la tecnología AI para generar diversos resultados de búsqueda analizando mejor los términos de la consulta. El Algoritmo de Correspondencia o emparejamiento Neural (Neural Matching) de Google es una mezcla perfecta de técnicas de optimización de motores de búsqueda y motores artificiales. Ahora, Google se centrará en los sinónimos y el concepto que hay detrás del término de búsqueda.

El nuevo algoritmo de Google va a influir en las antiguas técnicas de optimización de motores de búsqueda y proporcionará resultados más completos. Porque Google se centrará en entender el concepto de la página a partir del contenido en lugar de basarse en las palabras clave. Anteriormente Google solía recoger las palabras clave de la página para entender el concepto.

El último trabajo de investigación se titula Deep Relevance Ranking, que utiliza la Enhanced Document Query Instruction (Instrucción de consulta de documentos mejorada). cuyo objetivo es eliminar el spam y los resultados irrelevantes y rastrear los resultados de búsqueda relevantes. Con todo ello, la búsqueda en línea va a ser la más personalizada que nunca, ya que Google podrá entender las preguntas y los términos de búsqueda exactos. En septiembre de 2018, Google declaró que el emparejamiento neuronal ya se utiliza en el 30% de las búsquedas.

RankBrain relaciona las páginas con los conceptos y el emparejamiento neural relaciona las palabras con las búsquedas. El algoritmo RankBrain ayuda a Google a relacionar las páginas con conceptos, incluso cuando las páginas no incluyen las palabras exactas utilizadas en una consulta. También es un sistema basado en la IA que ha estado en uso desde 2016, dos años antes de que Google implementara el emparejamiento neuronal.

 

 

 

Crece la preocupación de los estadounidenses ante las capacidades de los algorritos informáticos para tomar decisiones sobre la vida de las personas

algorithms-to-live-by-brain

Smith, Aaron. «Public Attitudes Toward Computer Algorithms«. Whasingthon: Pew Research Center, 2018

Texto completo

Los estadounidenses expresan una amplia preocupación por la imparcialidad y efectividad de los programas de computación al tomar decisiones importantes en la vida de las personas.

 

Los algoritmos están a nuestro alrededor, utilizando almacenes masivos de datos y análisis complejos para tomar decisiones que a menudo tienen un impacto significativo en los seres humanos. Nos recomiendan libros y películas para que los leamos y los veamos, publican noticias que creen que pueden ser relevantes, estiman la probabilidad de que un tumor sea canceroso y predicen si alguien puede ser un criminal o un riesgo de crédito vale la pena. Pero a pesar de la creciente presencia de algoritmos en muchos aspectos de la vida diaria, una encuesta del Pew Research Center a adultos de EE. UU. encuentra que la gente es escéptica con estas herramientas cuando se usan en varias situaciones de la vida real.

Este escepticismo abarca varias dimensiones. A un nivel más amplio, el 58% de los estadounidenses piensa que los programas siempre reflejarán algún nivel de sesgo humano – aunque el 40% piensa que estos programas pueden ser diseñados de una manera libre de sesgos. Y en varios contextos, a la gente le preocupa que estas herramientas puedan violar la privacidad, no captar los matices de situaciones complejas, o simplemente poner a las personas que están evaluando en una situación injusta. Las percepciones del público sobre la toma de decisiones algorítmicas también suelen ser muy contextuales. La encuesta muestra que, de lo contrario, tecnologías similares pueden ser vistas con apoyo o sospecha, dependiendo de las circunstancias o de las tareas que se les asignen.

Para medir las opiniones de los estadounidenses de a pie sobre este tema relativamente complejo y técnico, la encuesta presentó a los encuestados cuatro escenarios diferentes en los que las computadoras toman decisiones mediante la recolección y el análisis de grandes cantidades de datos públicos y privados. Cada uno de estos escenarios se basó en ejemplos del mundo real de la toma de decisiones algorítmicas e incluyó: un puntaje para ofrecer a los consumidores tratos o descuentos; una evaluación de riesgo criminal de las personas en libertad condicional; un programa automatizado de selección de currículum vitae para los solicitantes de empleo; y un análisis computarizado de las entrevistas de trabajo. La encuesta también incluyó preguntas sobre el contenido al que los usuarios están expuestos en las plataformas de medios sociales como una forma de medir las opiniones de los algoritmos más orientados al consumidor.