Archivo de la etiqueta: Algoritmos

Manifiesto de los medios de comunicación de servicio público y de Internet de servicio público

Fuchs, Christian, y Klaus Unterberger. The Public Service Media and Public Service Internet Manifesto. University of Westminster Press. University of Westminster Press, 2021.

Texto completo

PDF

ePuB

Mobi

Este libro presenta el Manifiesto de los Medios de Comunicación de Servicio Público y de Internet de Servicio Público de autoría colectiva y los materiales que lo acompañan. Internet y el panorama de los medios de comunicación están rotos. Las plataformas comerciales de Internet dominantes ponen en peligro la democracia. Han creado un paisaje comunicativo abrumado por la vigilancia, la publicidad, las noticias falsas, el discurso del odio, las teorías de la conspiración y la política algorítmica. Las plataformas comerciales de Internet han perjudicado a los ciudadanos, a los usuarios, a la vida cotidiana y a la sociedad. La democracia y la democracia digital requieren medios de comunicación de servicio público. Una Internet que mejore la democracia requiere que los medios de comunicación de servicio público se conviertan en plataformas de Internet de servicio público: una Internet del público, por el público y para el público; una Internet que avance en lugar de amenazar la democracia y la esfera pública. La Internet de servicio público se basa en plataformas de Internet operadas por diversos medios de comunicación de servicio público, llevando la misión de servicio público a la era digital. La Internet de servicio público ofrece oportunidades para el debate público, la participación y el avance de la cohesión social.

El Manifiesto va acompañado de los materiales que han servido de base para su creación: El informe de Christian Fuchs sobre los resultados de la Encuesta sobre Medios de Comunicación/Internet de Servicio Público, la versión escrita de la charla en línea de Graham Murdock sobre los medios de comunicación de servicio público en la actualidad, y un resumen de un debate en ecomitee.com sobre los fundamentos del Manifiesto.

El Manifiesto puede firmarse en http://bit.ly/signPSManifesto

Comunicación artificial: cómo los algoritmos producen inteligencia social.

Esposito, Elena. Artificial Communication: How Algorithms Produce Social Intelligence. MIT Press, 2022.

Texto completo

Los algoritmos que trabajan con deep learning y big data están mejorando tanto para hacer tantas cosas que nos incomoda. ¿Cómo puede un dispositivo saber cuáles son nuestras canciones favoritas o qué debemos escribir en un correo electrónico? Se han vuelto las máquinas demasiado inteligentes? En Artificial Communication, Elena Esposito sostiene que establecer este tipo de analogía entre los algoritmos y la inteligencia humana es engañoso. Si las máquinas contribuyen a la inteligencia social, no será porque hayan aprendido a pensar como nosotros, sino porque nosotros hemos aprendido a comunicarnos con ellas. Esposito propone que pensemos en las máquinas «inteligentes» no en términos de inteligencia artificial, sino de comunicación artificial.

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible (DigitalES)

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible DigitalES, 2022

Texto completo

El Plan Nacional de Algoritmos Verdes se enmarca dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno para el impulso de aplicaciones de IA sostenibles. Cabe distinguir entre ‘Green in AI’ y ‘Green by AI’, es decir, aplicaciones eco-diseñadas y aplicaciones que generan un impacto sostenible. Este documento tiene como objetivo exponer las propuestas de las empresas que forman parte de DigitalES, para convertir España en un exponente de un desarrollo tecnológico que combata la crisis climática.

1.- Precisar la sostenibilidad de un algoritmo de Inteligencia Artificial
2.- Recopilar casos de uso probados y elaborar un catálogo de buenas
prácticas
3.- Fomentar el debate sobre el plano ambiental del desarrollo tecnológico
4.- Diseñar mecanismos en las empresas para garantizar una IA responsable
5.- Encontrar y formar al talento que vele por la IA sostenible
6.- Reforzar la sostenibilidad como criterio de valoración en la contratación
pública
7.- Sandboxes regulatorios
8.- Colaboración público-privada
9.- Ayudas e incentivos fiscales
10.- Inversión en plataformas españolas de supercomputación compartidas

El futuro de los algoritmos y el etiquetado colaborativo (folksonomías) en las bibliotecas

The Future of Algorithms and Collaborative Tagging in Our Libraries
Editor’s note: This is a guest post by Jessica Luna. Hack Library School, 2022

Texto completo

La folcsonomía es el proceso de utilizar etiquetas de contenidos digitales para su categorización o anotación. Permite a los usuarios clasificar sitios web, imágenes, documentos y otras formas de datos para que el contenido pueda ser fácilmente categorizado y localizado por los usuarios.

La búsqueda se ha convertido en un hilo conductor la vida diaria. El aprendizaje de métodos básicos y avanzados de búsqueda de diferentes tipos de información, la evaluación de los resultados de la búsqueda y la comprensión de cómo los algoritmos dan forma a nuestras consultas son sólo algunas de las cosas a tener en cuenta. Y son esos algoritmos los que han dominado nuestras vidas desde antes de la existencia de la Web 2.0.

Los métodos de recuperación de información personalizada (PIR) mediante el etiquetado colaborativo, también conocido como folcsonomías. El etiquetado colaborativo está cada vez más arraigado en los sistemas bibliotecarios en línea de última generación porque resulta familiar y cómodo para los usuarios navegar y descubrir materiales etiquetados de forma similar. La personalización se ha convertido en un factor esencial en la configuración de las folcsonomías actuales.

Las folcsonomías se utilizan en sitios web de redes sociales como Flickr, Twitter e Instagram para ayudar a los usuarios a buscar temas de su interés. Los creadores de contenidos en plataformas como YouTube y Twitch utilizan las folcsonomías para que sus contenidos sean más buscables y lleguen a un público más amplio. Esto nos hace plantearnos si los modelos de recomendación PIR son el futuro de los catálogos de las bibliotecas de nueva generación.

¿Cómo funciona?

El modelo básico actual de sistema de folcsonomía contiene tres variables esenciales: usuarios, recursos y etiquetas. Estas tres variables constituyen la base para calcular el peso y la clasificación de las etiquetas en diversos sistemas de etiquetado. Los modelos PIR utilizan los perfiles de los usuarios y de los recursos para personalizar su experiencia de búsqueda en función de sus intereses. El objetivo es identificar la respuesta más cercana a la necesidad de una persona en función de las características de su cuenta de usuario.

Una parte importante de los modelos PIR para folksonomías son los sistemas de recomendación. Hay muchas investigaciones sobre diferentes métodos PIR que pueden cambiar drásticamente la forma de clasificar los documentos y las etiquetas que se recomiendan a los usuarios. Algunos sistemas de recomendación PIR reconocen que el comportamiento de etiquetado de los usuarios suele cambiar con el tiempo, por lo que el sistema ideal debería tener en cuenta el comportamiento de etiquetado histórico de un usuario a la hora de evaluar el peso y la clasificación de un recurso etiquetado. Otros algoritmos exploran la relación entre la relevancia de la consulta y la relevancia del interés del usuario. La teoría sugiere que cuantas más veces utiliza un usuario una etiqueta en su perfil, más interesado está en su tema.

El análisis de sentimientos es una forma de que el aprendizaje automático extraiga los intereses y sentimientos de los usuarios basándose en los temas que siguen y en las etiquetas que han buscado en el pasado. Aplica evaluaciones de similitud para crear una mayor precisión de los recursos recuperados. Los algoritmos generan relaciones entre palabras y frases, categorizando las relaciones semánticas entre frases y oraciones. Los términos se clasifican dentro de un espacio vectorial, y los que tienen mayor puntuación tienen más peso a la hora de representar un tema.

Problemas de personalización

Una queja común sobre los sistemas PIR es la privacidad. La personalización sólo puede producirse obteniendo datos del usuario, a menudo sin su conocimiento o consentimiento.

Los sistemas de recomendación pueden forzar a los usuarios a entrar en burbujas de filtros. Estos sistemas aíslan a los usuarios de otras perspectivas y visiones del mundo, perpetuando la ignorancia de la gente sobre creencias y culturas alternativas. Es esencialmente otro tipo de censura que estrecha la percepción de una persona. Por suerte, se han desarrollado otros métodos para diversificar las recomendaciones del PIR.

Mirando hacia el futuro

Los estudios PIR proporcionan una idea de cómo los algoritmos clasifican y ponderan las folksonomías. También nos permite suponer cómo las empresas privadas podrían utilizar métodos similares a la hora de sugerir recursos a los usuarios. Twitter me viene a la mente cuando pienso en los modelos PIR utilizados con las folcsonomías. Cuando interactúas suficientes veces con otro usuario o con un hashtag concreto, el algoritmo añade usuarios y hashtags similares a tu feed.

Hablamos de Twitter porque ha sido noticia últimamente. Para promover la transparencia del algoritmo, Elon Musk declaró en una reciente charla TED sus intenciones de hacer que Twitter sea de código abierto. Será nuestro primer vistazo al análisis crítico de los algoritmos de una plataforma de medios sociales y a una mayor investigación sobre los sistemas PIR.

Al convertirse los algoritmos de Twitter en código abierto, es posible que veamos más estudios sobre cómo los sistemas PIR dan forma a las experiencias de los usuarios. También abre la puerta a nuevas investigaciones sobre las implicaciones éticas de los sistemas PIR y sus posibles soluciones.

Por el momento, no hemos encontrado ningún catálogo de nueva generación que utilice métodos PIR para las folcsonomías. Los ILS/LSP suelen utilizar etiquetas como facetas en su catálogo. Koha tiene una nube de etiquetas que muestra las etiquetas más utilizadas. La adición de medidas de análisis de sentimiento podría resultar fructífera para identificar las similitudes entre las etiquetas. Las etiquetas que podrían considerarse molestas y subjetivas tendrían ahora un significado.

No está claro si algún ILS/LSP incluirá algún día métodos PIR en sus sistemas, pero es bueno saber cómo funcionan.

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible. DigitalES, 2022

Texto completo

El Plan Nacional de Algoritmos Verdes se enmarca dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno para el impulso de aplicaciones de IA sostenibles. Cabe distinguir entre ‘Green in AI’ y ‘Green by AI’, es decir, aplicaciones eco-diseñadas y aplicaciones que generan un impacto sostenible. Este documento tiene como objetivo exponer las propuestas de las empresas que forman parte de DigitalES, para convertir España en un exponente de un desarrollo tecnológico que combata la crisis climática.

1.- Precisar la sostenibilidad de un algoritmo de Inteligencia Artificial
2.- Recopilar casos de uso probados y elaborar un catálogo de buenas prácticas
3.- Fomentar el debate sobre el plano ambiental del desarrollo tecnológico
4.- Diseñar mecanismos en las empresas para garantizar una IA responsable
5.- Encontrar y formar al talento que vele por la IA sostenible
6.- Reforzar la sostenibilidad como criterio de valoración en la contratación pública
7.- Sandboxes regulatorios
8.- Colaboración público-privada
9.- Ayudas e incentivos fiscales
10.- Inversión en plataformas españolas de supercomputación compartidas

El 74% de los usuarios de Facebook no sabe que la plataforma social mantiene una lista de sus intereses y rasgos

Paul Hitlin And Lee Rainie. Facebook Algorithms and Personal Data. Pew Research Center, janaury 16, 2019

Texto completo

Una investigación de Pew revela que el 74% de los usuarios de Facebook no sabía que la plataforma social mantiene una lista de sus intereses y rasgos

La mayoría de los sitios comerciales, desde las plataformas de medios sociales hasta los medios de comunicación y los minoristas en línea, recogen una gran variedad de datos sobre el comportamiento de sus usuarios. Las plataformas utilizan estos datos para ofrecer contenidos y recomendaciones basados en los intereses y rasgos de los usuarios, y para permitir a los anunciantes dirigir los anuncios a segmentos relativamente precisos del público. Pero, ¿hasta qué punto entienden los estadounidenses estos sistemas de clasificación basados en algoritmos y hasta qué punto creen que sus vidas coinciden con lo que se informa sobre ellas? Como ventana a este fenómeno difícil de estudiar, una nueva encuesta del Pew Research Center pidió a una muestra representativa de usuarios de la plataforma de medios sociales más popular del país, Facebook, que reflexionaran sobre los datos que se habían recopilado sobre ellos.

Facebook hace que sea relativamente fácil para los usuarios averiguar cómo el algoritmo del sitio ha categorizado sus intereses a través de una página «Tus preferencias de anuncios». Sin embargo, el 74% de los usuarios de Facebook afirman que no sabían que existía esta lista de sus rasgos e intereses hasta que fueron dirigidos a su página como parte de este estudio.

Cuando se les pregunta con qué precisión creen que la lista les representa a ellos y a sus intereses, el 59% de los usuarios de Facebook dicen que la lista refleja muy (13%) o algo (46%) sus intereses. Mientras tanto, el 27% de los usuarios de Facebook dicen que la lista no los representa con mucha (22%) o ninguna precisión (5%).

Sin embargo, incluso con una mayoría de usuarios que señalan que Facebook evalúa sus intereses con al menos cierta precisión, cerca de la mitad de los usuarios (51%) dicen que no se sienten muy o nada cómodos con que Facebook cree esta lista sobre sus intereses y rasgos. Esto significa que el 58% de las personas a las que Facebook categoriza no se sienten generalmente cómodas con ese proceso. Por el contrario, el 5% de los usuarios de Facebook dice sentirse muy cómodo con la creación de esta lista por parte de la empresa y otro 31% declara sentirse algo cómodo.

El gobierno de los algoritmos: peligros y poderes de la IA en el sector público

Governing algorithms: perils and powers of AI in the public sector. Digital Future Society, 2021

Texto completo

El objetivo de este libro blanco es contribuir a un desarrollo inclusivo de la IA y ayudar a restablecer y reforzar la confianza entre los responsables políticos y el público. Esto exige un mayor esfuerzo para comprender mejor los efectos de la IA y desarrollar algoritmos explicables y responsables. Además, se necesitan marcos de evaluación sólidos que puedan valorar no sólo el rendimiento, sino también el desempeño y el impacto socioeconómico de la IA.

El libro blanco contiene cinco estudios de casos de uso de la IA que han suscitado preocupación debido a la considerable reacción pública que surgió tras su adopción. Cada uno de ellos alimentó un fuerte debate entre políticos, académicos, profesionales y ciudadanos. Todos estos ejemplos proceden de países europeos, aunque también se incluyen otros ejemplos internacionales. El libro examina sobre todo casos europeos porque la Unión Europea (UE), buscando limitar los riesgos asociados a la IA, adoptó la posición de desarrollar una IA responsable que tenga un propósito ético y una solidez técnica. Se trata de dos componentes fundamentales para fomentar la confianza y facilitar la adopción.

Google plantea un nuevo buscador que proporcionará respuestas en lenguaje natural como si se tratara de un experto en la materia a partir de fuentes fiables y fidedignas.

Ejemplo de búsqueda en la web (izquierda), modelo lingüístico (centro) y respuestas de expertos (sistema previsto)

Metzler, D., Tay, Y., Bahri, D., & Najork, M. Rethinking Search: Making Experts out of Dilettantes. arXiv:2105.02274 [cs], 2021. http://arxiv.org/abs/2105.02274

Un nuevo artículo de cuatro investigadores de Google propone un sistema «experto» capaz de responder con autoridad a las preguntas de los usuarios en lugar de presentar una lista de posibles resultados de búsqueda, basado en el algoritmo GPT-3 presentado el año pasado. Este enfoque podría cambiar no sólo el funcionamiento de los motores de búsqueda, sino también lo que hacen, y la forma en que interactuamos con ellos.

El documento, titulado Rethinking Search: Making Experts out of Dilettantes, sugiere que la forma actual de presentar al usuario una lista de resultados de búsqueda en respuesta a una consulta es una «carga cognitiva», y propone mejoras en la capacidad de un sistema de procesamiento del lenguaje natural (PLN) para dar una respuesta autorizada y definitiva que sustituya el enfoque de clasificación por un modelo de respuesta experta en lenguaje de inteligencia artificial (IA).

La mayoría de los motores de búsqueda siguen funcionando de la misma manera que hace 20 años: las páginas web son indexadas por rastreadores (software que lee la web sin parar y mantiene una lista de todo lo que encuentra), los resultados que coinciden con la consulta de un usuario se recogen de este índice, y los resultados se clasifican por relevancia. Hasta ahora las búsquedas en Google se han basado en el algoritmo Page Rank para arrojar los resultados de búsqueda a partir de la calidad y cantidad de los enlaces que le dan otras páginas a una página determinada. El problema es que los motores de búsqueda actuales siguen respondiendo con una lista de documentos que incluyen la información solicitada, no con la información en sí, si no con una lista de referencias. Según Metzler, es como si pidieras consejo a tu médico y recibieras una lista de artículos para leer en lugar de una respuesta directa. Por ello, Google se está replanteando este método por el de una búsqueda basada en un nuevo algoritmo de lenguaje denominado GPT-3. El nuevo algoritmo extrae información de múltiples fuentes para responder a las preguntas en lenguaje natural. Lo que proporcionará al usuario de una búsqueda, no la lista de los resultados más relevantes como ocurre ahora, si no una respuesta en lenguaje natural como si se tratara de un experto en la materia a partir de fuentes fiables y fidedignas.

Metzler y sus colegas están interesados en un motor de búsqueda que se comporte como un experto humano «Debería producir respuestas en lenguaje natural, sintetizadas a partir de más de un documento, y respaldar sus respuestas con referencias a pruebas de apoyo, como pretenden hacer los artículos de Wikipedia». Y añade: «Cuando existe una necesidad de información, los usuarios desearían preguntar a un experto, pero a menudo recurren a un sistema de recuperación de información, como un motor de búsqueda. Los sistemas clásicos de recuperación de información no responden directamente a las necesidades de información, sino que proporcionan referencias a respuestas (que se espera sean autorizadas). Los sistemas de respuesta a preguntas de éxito ofrecen un corpus limitado creado a la carta por expertos humanos, que no es ni oportuno ni escalable». En cambio, los grandes modelos lingüísticos pre entrenados son capaces de generar directamente una prosa que puede responder a una necesidad de información, pero en la actualidad son más aficionados que expertos: no tienen una verdadera comprensión del mundo; y lo que es más importante, son incapaces de justificar sus enunciados haciendo referencia a documentos de apoyo en el corpus sobre el que fueron entrenados (ver imagen). El artículo examina cómo las ideas de la recuperación de información clásica y los grandes modelos lingüísticos pueden sintetizarse y evolucionar hacia sistemas que realmente cumplan la promesa del asesoramiento experto.

Motores de búsqueda: una mecánica de técnicas algorítmicas

Rieder, B. [e-Book] Engines of Order : A Mechanology of Algorithmic Techniques, Amsterdam University Press, 2020.

Texto completo

El software se ha convertido en un componente clave de la vida contemporánea y los algoritmos que ordenan, clasifican o recomiendan están por todas partes. Partiendo de la filosofía de Gilbert Simondon y de la tradición de las técnicas culturales, este libro examina el carácter constructivo y acumulativo del software y recorre las trayectorias históricas de una serie de técnicas algorítmicas que se han convertido en los bloques de construcción de las prácticas contemporáneas de ordenación. Desarrolladas en oposición a siglos de tradición bibliotecaria, estas técnicas instancian formas de conocimiento dinámicas, perspectivistas e interesadas. Incrustadas en infraestructuras técnicas y lógicas económicas, se han convertido en motores de orden que transforman el modo en que organizamos la información, las ideas y las personas.

En las últimas décadas, y en particular desde la adopción generalizada de Internet, los encuentros con los procedimientos algorítmicos para la «recuperación de información» -la actividad de obtener alguna pieza de información de una colección o repositorio de algún tipo- se han convertido en experiencias cotidianas para la mayoría de las personas en grandes partes del mundo.

Ciudadanos reemplazados por algoritmos

 

1825_tapa

 

Néstor García Canclini. Ciudadanos reemplazados por algoritmos. Clacsco, 2020

Texto completo

 

¿A quién le importamos los ciudadanos? Muchos partidos y sindicatos parecen reducirse a cúpulas que se distribuyen prebendas. Desde la expansión de la videopolítica, la televisión canaliza quejas y críticas sociales a los gobernantes tratándonos como espectadores. Las redes prometen horizontalidad y participación, pero suelen generar movimientos de alta intensidad y corta duración.

Nuestras opiniones y comportamientos, capturados por algoritmos, quedan subordinados a corporaciones globalizadas. El espacio público se vuelve opaco y lejano. La desciudadanización se radicaliza, mientras algunos sectores se reinventan y ganan batallas parciales. Pero los usos neoliberales de las tecnologías mantienen y ahondan las desigualdades mayores. ¿Qué alternativas tenemos ante esta desposesión? ¿Disidencias, hackeos? ¿Cuál es el lugar del voto, esa relación entre Estado y sociedad reprogramada por las tecnologías y el mercado?