Archivo de la etiqueta: Algoritmos

Las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias.

How online misinformation exploits ‘information voids’—And what to do about it. (2024). Nature, 625(7994), 215-216. https://doi.org/10.1038/d41586-024-00030-x

Este año marca el año electoral más grande registrado en la historia, con países que representan alrededor de la mitad de la población mundial celebrando elecciones. Sin embargo, surgen preocupaciones de que 2024 podría ser un año significativo para la propagación de información errónea y desinformación. Si bien ambos términos se refieren a contenido engañoso, la desinformación se fabrica intencionalmente.

La prevalencia de la búsqueda en línea y las redes sociales permite reclamaciones y contraargumentos interminables durante los períodos electorales. Un estudio reciente destacó la existencia de «vacíos de datos», espacios que carecen de evidencia en los que las personas que buscan precisión sobre temas controvertidos pueden caer. Esto subraya la necesidad de campañas de alfabetización mediática más sofisticadas para combatir la desinformación.

La investigación indica que las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias. Esto ocurre porque los resultados de la búsqueda pueden priorizar fuentes que corroboren la historia inexacta, contribuyendo al efecto de la verdad ilusoria.

Los esfuerzos para abordar este problema requieren una colaboración entre los proveedores de motores de búsqueda y las fuentes de conocimiento basado en evidencia. Si bien los sistemas automatizados despriorizan fuentes no confiables, se necesitan medidas adicionales. Google, por ejemplo, se basa en algoritmos para clasificar noticias según medidas de calidad, pero la incorporación de aportes humanos y el fortalecimiento de los sistemas internos de verificación de hechos podrían ofrecer soluciones más efectivas.

Las campañas de alfabetización mediática deben centrarse en educar a los usuarios para discernir entre diferentes fuentes en los resultados de búsqueda. Las iniciativas para mejorar la alfabetización mediática podrían comenzar exponiendo a personas influyentes a métodos de investigación, permitiéndoles influir positivamente en sus redes. Las lecciones de las campañas de alfabetización en salud también deberían informar las estrategias, considerando las diversas necesidades de los diferentes grupos de población.

Al abordar la información errónea y la desinformación, es crucial una colaboración entre los proveedores de motores de búsqueda, las fuentes de conocimiento basado en evidencia y las revistas de investigación. La urgencia surge a medida que la inteligencia artificial generativa y los modelos de lenguaje grandes tienen el potencial de amplificar la información errónea. Empoderar a las personas para ignorar noticias de fuentes no confiables se vuelve esencial en este año electoral crítico.

El algoritmo Q* y la destitución y readmisión de Sam Altman de Open AI

Melissa Heikkilä. «Unpacking the Hype around OpenAI’s Rumored New Q* Model». MIT Technology Review Accedido 28 de noviembre de 2023.

Ver original

Desde los dramáticos eventos de la semana pasada en OpenAI, el rumor se ha desatado sobre por qué el director científico de la compañía, Ilya Sutskever, y su junta decidieron destituir al CEO Sam Altman (solo para recontratarlo unos días después y reemplazar a las únicas dos mujeres en su junta con hombres blancos. ¡Con clase!).

Aunque aún no conocemos todos los detalles, ha habido informes de que los investigadores de OpenAI hicieron un «avance» en IA que alarmó a los miembros del personal. Reuters y The Information informaron que los investigadores habían ideado una nueva forma de crear sistemas de IA potentes y habían creado un nuevo modelo llamado Q* (pronunciado Q estrella) capaz de realizar operaciones matemáticas de nivel escolar.

Según personas que hablaron con Reuters, algunos en OpenAI creen que esto podría ser un hito en la búsqueda de la compañía para construir una inteligencia artificial general, un concepto muy promocionado de un sistema de IA más inteligente que los humanos. La compañía declinó hacer comentarios sobre Q*.

Las redes sociales están llenas de especulaciones y exageraciones, así que llamé a algunos expertos para saber qué importante sería realmente cualquier avance en matemáticas e IA.

Durante años, los investigadores han intentado que los modelos de IA resuelvan problemas matemáticos. Modelos de lenguaje como ChatGPT y GPT-4 pueden hacer algo de matemáticas, pero no muy bien ni de manera confiable. Actualmente, no tenemos los algoritmos ni las arquitecturas adecuadas para resolver problemas matemáticos de manera confiable con IA, según Wenda Li, profesora de IA en la Universidad de Edimburgo. El aprendizaje profundo y los transformers (un tipo de red neural), que es lo que usan los modelos de lenguaje, son excelentes para reconocer patrones, pero eso solo no es suficiente, agrega Li.

Las matemáticas son un referente para el razonamiento, dice Li. Una máquina que pueda razonar sobre matemáticas podría, en teoría, aprender a realizar otras tareas que se basen en información existente, como escribir código informático o sacar conclusiones de un artículo de noticias. Las matemáticas son un desafío particularmente difícil porque requieren que los modelos de IA tengan la capacidad de razonar y comprender realmente con qué están tratando.

Un sistema de IA generativo que pueda hacer matemáticas de manera confiable necesitaría tener un conocimiento sólido de definiciones concretas de conceptos particulares que pueden volverse muy abstractos. Muchos problemas matemáticos también requieren algún nivel de planificación a lo largo de múltiples pasos, dice Katie Collins, una investigadora de doctorado en la Universidad de Cambridge especializada en matemáticas e IA. De hecho, Yann LeCun, científico jefe de IA de Meta, publicó en X e LinkedIn el fin de semana que cree que Q* probablemente sea «un intento de OpenAI de planificación».

Las personas preocupadas por si la inteligencia artificial representa un riesgo existencial para los humanos, una de las preocupaciones fundacionales de OpenAI, temen que tales capacidades puedan llevar a la aparición de IA no controlada. Preocupaciones sobre la seguridad podrían surgir si se permite que dichos sistemas de IA establezcan sus propios objetivos y comiencen a interactuar con un mundo real, ya sea físico o digital, de alguna manera, dice Collins.

Pero aunque la capacidad matemática podría acercarnos un paso más a sistemas de IA más potentes, resolver este tipo de problemas matemáticos no señala el nacimiento de una superinteligencia.

«No creo que nos lleve de inmediato a la AGI o situaciones aterradoras», dice Collins. También es muy importante subrayar qué tipo de problemas matemáticos está resolviendo la IA, agrega.

«Resolver problemas de matemáticas de la escuela primaria es muy, muy diferente de empujar los límites de las matemáticas al nivel de algo que puede hacer un medallista Fields», dice Collins, refiriéndose a un prestigioso premio en matemáticas.

La investigación en aprendizaje automático se ha centrado en resolver problemas de la escuela primaria, pero los sistemas de IA de vanguardia aún no han superado completamente este desafío. Algunos modelos de IA fallan en problemas de matemáticas muy simples, pero luego pueden destacar en problemas realmente difíciles, dice Collins. OpenAI, por ejemplo, ha desarrollado herramientas dedicadas que pueden resolver problemas desafiantes planteados en competiciones para los mejores estudiantes de matemáticas en la escuela secundaria, pero estos sistemas superan a los humanos solo ocasionalmente.

Sin embargo, construir un sistema de IA que pueda resolver ecuaciones matemáticas es un desarrollo interesante, si eso es realmente lo que Q* puede hacer. Un entendimiento más profundo de las matemáticas podría abrir aplicaciones para ayudar a la investigación científica e ingeniería, por ejemplo. La capacidad de generar respuestas matemáticas podría ayudarnos a desarrollar una tutoría personalizada mejor, o ayudar a los matemáticos a hacer álgebra más rápido o resolver problemas más complicados.

Esto tampoco es la primera vez que un nuevo modelo ha generado hype sobre la AGI. Justo el año pasado, los expertos tecnológicos decían las mismas cosas sobre Gato de Google DeepMind, un modelo de IA «generalista» que puede jugar videojuegos de Atari, describir imágenes, chatear y apilar bloques con un brazo robot real. En ese momento, algunos investigadores de IA afirmaban que DeepMind estaba «a punto» de lograr la AGI debido a la capacidad de Gato para hacer tantas cosas diferentes bastante bien. La misma máquina de hype, diferente laboratorio de IA.

Y aunque puede ser una excelente estrategia de relaciones públicas, estos ciclos de hype hacen más daño que bien para todo el campo, distrayendo a las personas de los problemas reales y tangibles en torno a la IA. Los rumores sobre un nuevo y potente modelo de IA también podrían ser un gran autogol para el sector tecnológico que evita la regulación. La UE, por ejemplo, está a punto de finalizar su amplia Ley de IA. Una de las mayores disputas actualmente entre los legisladores es si dar a las empresas tecnológicas más poder para regular modelos de IA de vanguardia por sí mismas.

La junta de OpenAI fue diseñada como el interruptor de apagado interno y el mecanismo de gobierno de la compañía para evitar el lanzamiento de tecnologías dañinas. El drama de la junta de la semana pasada ha demostrado que la línea de fondo siempre prevalecerá en estas empresas. También dificultará argumentar por qué deberían confiarse a sí mismas la autorregulación. Legisladores, tomen nota.

Google presenta E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) para ayudar valorar la calidad de las páginas

«Actualización más reciente de las directrices de evaluación de la calidad: el E-A-T adquiere una E adicional de Experiencia | Blog del Centro de la Búsqueda de Google». Google for Developers. Accedido 18 de octubre de 2023.

Ver

Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) es un conjunto de criterios utilizados para evaluar los sitios web con el fin de impulsar mejoras en sus algoritmos y garantizar que se muestren contenidos de calidad a los usuarios.

Para mejorar el rendimiento de su sitio web en los resultados de búsqueda, es una buena práctica centrarse en crear contenido de alta calidad que demuestre experiencia, autoridad y confiabilidad en su campo. Construir una sólida reputación en línea y garantizar información precisa y confiable en su sitio web puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda. Sin embargo, los algoritmos y factores de clasificación exactos utilizados por los motores de búsqueda son propietarios y pueden cambiar con el tiempo. Se utiliza en la evaluación de calidad por los Evaluadores de Calidad de Búsqueda, pero no es un factor directo en el algoritmo de Google. En cambio, es un término utilizado en la comunidad de SEO para describir la calidad de un sitio web.


E-E-A-T significa «Experiencia, Autoridad y Confianza,» y es un concepto introducido por  Google’s Search Quality Rater Guidelines (SQRG) para ayudar a los evaluadores humanos a evaluar la calidad del contenido web. Si bien E-E-A-T no es un factor de clasificación directo utilizado por motores de búsqueda como Google, desempeña un papel importante en la determinación de la calidad y relevancia de las páginas web en los resultados de búsqueda.

Esto es lo que representa cada componente de E-E-A-T :

  • Experiencia (Experience): Google busca sitios web que ofrezcan una experiencia positiva a los usuarios. Esto implica una navegación fácil y amigable, una buena estructura de la página y un diseño que mejore la experiencia del visitante.
  • Experto (Expertise): Google valora la experiencia y conocimientos demostrados en un campo o temática específica. Se espera que el contenido esté respaldado por expertos o autoridades en la materia para garantizar su precisión y calidad.
  • Autoridad (Authoritativeness): La autoridad se refiere a la credibilidad y reputación del sitio web y sus creadores. Google evalúa la confianza que los usuarios pueden tener en la información proporcionada.
  • Confianza (Trustworthiness): La confianza se relaciona con la fiabilidad y veracidad de la información presentada en el sitio web. Los sitios web deben ser transparentes sobre sus propósitos y cumplir con las expectativas de los usuarios en cuanto a la precisión de la información.

Estos criterios son esenciales para garantizar que Google ofrezca resultados de búsqueda de alta calidad que sean útiles y confiables para los usuarios. Los sitios web que cumplen con los estándares de E-E-A-T tienen más posibilidades de obtener un buen posicionamiento en los resultados de búsqueda de Google y de ofrecer contenidos valiosos a sus visitantes.

E-E-A-T es particularmente relevante en campos donde la precisión y la credibilidad de la información son de suma importancia, como la salud, las finanzas y el asesoramiento legal. Los sitios web y creadores de contenido que establecen y mantienen un fuerte perfil de E-E-A-T son más propensos a ser considerados fuentes fiables tanto por los motores de búsqueda como por los usuarios, lo que puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda.

Si bien E-E-A-T no es un factor de clasificación directo, es un aspecto crucial de la optimización para motores de búsqueda (SEO) porque influye en cómo se evalúa y finalmente se clasifica su contenido por los motores de búsqueda como Google. Seguir las pautas de E-E-A-T puede ayudar a mejorar la calidad de su contenido y hacerlo más competitivo en los resultados de búsqueda.

¿Cómo impactan los algoritmos en nuestra vida cotidiana?’: la Biblioteca de la Universidad de Cornell ofrece formación sobre alfabetización algorítmica


Morehart, Phil. «Cornell University Library to Go Inside Algorithms». I Love Libraries, 11 de septiembre de 2023. https://ilovelibraries.org/article/cornell-university-library-to-go-inside-algorithms/.

Los algoritmos dictan cómo muchos de nosotros vivimos nuestras vidas en estos días, estableciendo parámetros para tareas automatizadas tan diversas como recomendar películas en Netflix y libros para comprar en Amazon, hasta ayudar a los conductores a navegar con GPS. Pero, ¿qué son exactamente los algoritmos y cómo funcionan?

La Biblioteca de la Universidad de Cornell en Ithaca, Nueva York, va a dar grandes pasos para ayudar al público a aprender sobre los algoritmos gracias a una subvención que recibió del  Institute of Museum and Library Sciences (IMLS).. La subvención apoyará un proyecto de 18 meses destinado a crear recursos educativos abiertos sobre la alfabetización algorítmica, construyendo el conocimiento público sobre qué son los algoritmos, cómo funcionan y cómo dan forma a la vida moderna.

«Los algoritmos son piezas de código utilizadas para resolver problemas», dijo Reanna Esmail, bibliotecaria principal de instrucción en la Biblioteca de la Universidad de Cornell y co-líder del proyecto, al Cornell Chronicle. «Desafortunadamente, muchos de ellos tienden a ser algoritmos de ‘caja negra’ cuyo código y procesos están ocultos para el entendimiento público, e incluso a veces para el entendimiento de quienes trabajan en el algoritmo. Y por lo tanto, parte del objetivo del proyecto es desentrañar eso y preguntar, ‘¿Cómo impactan los algoritmos en nuestra vida cotidiana?'».

Los algoritmos son creados por personas y son susceptibles a sesgos, especialmente contra grupos históricamente marginados. «Necesitamos crear conciencia pública para que haya responsabilidad en sistemas algorítmicos discriminatorios, y para que no estemos simplemente sujetos a los caprichos de las grandes empresas tecnológicas», dijo Iliana Burgos, bibliotecaria de prácticas de datos emergentes y co-líder del proyecto. «El conocimiento es poder en ese sentido».

Se desarrolla un algoritmo que predice al 97% si una canción será exitosa

Merritt, Sean H., Kevin Gaffuri, y Paul J. Zak. «Accurately predicting hit songs using neurophysiology and machine learning». Frontiers in Artificial Intelligence 6 (2023). https://www.frontiersin.org/articles/10.3389/frai.2023.1154663.

Identificar canciones de éxito es notoriamente difícil. Tradicionalmente, los elementos de las canciones se han medido a partir de grandes bases de datos para identificar los aspectos líricos de los éxitos. Nosotros adoptamos un enfoque metodológico diferente, midiendo las respuestas neurofisiológicas a un conjunto de canciones proporcionadas por un servicio de música en streaming que identificaba éxitos y fracasos. Comparamos varios enfoques estadísticos para examinar la precisión predictiva de cada técnica. Un modelo estadístico lineal que utilizaba dos medidas neuronales identificó los éxitos con una precisión del 69%. A continuación, creamos un conjunto de datos sintéticos y aplicamos el aprendizaje automático conjunto para captar las no linealidades inherentes a los datos neuronales. Este modelo clasificó las canciones de éxito con un 97% de precisión. La aplicación del aprendizaje automático a la respuesta neuronal al primer minuto de canción clasificó los éxitos con un 82% de precisión, lo que demuestra que el cerebro identifica rápidamente la música de éxito. Nuestros resultados demuestran que aplicar el aprendizaje automático a los datos neuronales puede aumentar sustancialmente la precisión de la clasificación de resultados de mercado difíciles de predecir.

Manifiesto de los medios de comunicación de servicio público y de Internet de servicio público

Fuchs, Christian, y Klaus Unterberger. The Public Service Media and Public Service Internet Manifesto. University of Westminster Press. University of Westminster Press, 2021.

Texto completo

PDF

ePuB

Mobi

Este libro presenta el Manifiesto de los Medios de Comunicación de Servicio Público y de Internet de Servicio Público de autoría colectiva y los materiales que lo acompañan. Internet y el panorama de los medios de comunicación están rotos. Las plataformas comerciales de Internet dominantes ponen en peligro la democracia. Han creado un paisaje comunicativo abrumado por la vigilancia, la publicidad, las noticias falsas, el discurso del odio, las teorías de la conspiración y la política algorítmica. Las plataformas comerciales de Internet han perjudicado a los ciudadanos, a los usuarios, a la vida cotidiana y a la sociedad. La democracia y la democracia digital requieren medios de comunicación de servicio público. Una Internet que mejore la democracia requiere que los medios de comunicación de servicio público se conviertan en plataformas de Internet de servicio público: una Internet del público, por el público y para el público; una Internet que avance en lugar de amenazar la democracia y la esfera pública. La Internet de servicio público se basa en plataformas de Internet operadas por diversos medios de comunicación de servicio público, llevando la misión de servicio público a la era digital. La Internet de servicio público ofrece oportunidades para el debate público, la participación y el avance de la cohesión social.

El Manifiesto va acompañado de los materiales que han servido de base para su creación: El informe de Christian Fuchs sobre los resultados de la Encuesta sobre Medios de Comunicación/Internet de Servicio Público, la versión escrita de la charla en línea de Graham Murdock sobre los medios de comunicación de servicio público en la actualidad, y un resumen de un debate en ecomitee.com sobre los fundamentos del Manifiesto.

El Manifiesto puede firmarse en http://bit.ly/signPSManifesto

Comunicación artificial: cómo los algoritmos producen inteligencia social.

Esposito, Elena. Artificial Communication: How Algorithms Produce Social Intelligence. MIT Press, 2022.

Texto completo

Los algoritmos que trabajan con deep learning y big data están mejorando tanto para hacer tantas cosas que nos incomoda. ¿Cómo puede un dispositivo saber cuáles son nuestras canciones favoritas o qué debemos escribir en un correo electrónico? Se han vuelto las máquinas demasiado inteligentes? En Artificial Communication, Elena Esposito sostiene que establecer este tipo de analogía entre los algoritmos y la inteligencia humana es engañoso. Si las máquinas contribuyen a la inteligencia social, no será porque hayan aprendido a pensar como nosotros, sino porque nosotros hemos aprendido a comunicarnos con ellas. Esposito propone que pensemos en las máquinas «inteligentes» no en términos de inteligencia artificial, sino de comunicación artificial.

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible (DigitalES)

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible DigitalES, 2022

Texto completo

El Plan Nacional de Algoritmos Verdes se enmarca dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno para el impulso de aplicaciones de IA sostenibles. Cabe distinguir entre ‘Green in AI’ y ‘Green by AI’, es decir, aplicaciones eco-diseñadas y aplicaciones que generan un impacto sostenible. Este documento tiene como objetivo exponer las propuestas de las empresas que forman parte de DigitalES, para convertir España en un exponente de un desarrollo tecnológico que combata la crisis climática.

1.- Precisar la sostenibilidad de un algoritmo de Inteligencia Artificial
2.- Recopilar casos de uso probados y elaborar un catálogo de buenas
prácticas
3.- Fomentar el debate sobre el plano ambiental del desarrollo tecnológico
4.- Diseñar mecanismos en las empresas para garantizar una IA responsable
5.- Encontrar y formar al talento que vele por la IA sostenible
6.- Reforzar la sostenibilidad como criterio de valoración en la contratación
pública
7.- Sandboxes regulatorios
8.- Colaboración público-privada
9.- Ayudas e incentivos fiscales
10.- Inversión en plataformas españolas de supercomputación compartidas

El futuro de los algoritmos y el etiquetado colaborativo (folksonomías) en las bibliotecas

The Future of Algorithms and Collaborative Tagging in Our Libraries
Editor’s note: This is a guest post by Jessica Luna. Hack Library School, 2022

Texto completo

La folcsonomía es el proceso de utilizar etiquetas de contenidos digitales para su categorización o anotación. Permite a los usuarios clasificar sitios web, imágenes, documentos y otras formas de datos para que el contenido pueda ser fácilmente categorizado y localizado por los usuarios.

La búsqueda se ha convertido en un hilo conductor la vida diaria. El aprendizaje de métodos básicos y avanzados de búsqueda de diferentes tipos de información, la evaluación de los resultados de la búsqueda y la comprensión de cómo los algoritmos dan forma a nuestras consultas son sólo algunas de las cosas a tener en cuenta. Y son esos algoritmos los que han dominado nuestras vidas desde antes de la existencia de la Web 2.0.

Los métodos de recuperación de información personalizada (PIR) mediante el etiquetado colaborativo, también conocido como folcsonomías. El etiquetado colaborativo está cada vez más arraigado en los sistemas bibliotecarios en línea de última generación porque resulta familiar y cómodo para los usuarios navegar y descubrir materiales etiquetados de forma similar. La personalización se ha convertido en un factor esencial en la configuración de las folcsonomías actuales.

Las folcsonomías se utilizan en sitios web de redes sociales como Flickr, Twitter e Instagram para ayudar a los usuarios a buscar temas de su interés. Los creadores de contenidos en plataformas como YouTube y Twitch utilizan las folcsonomías para que sus contenidos sean más buscables y lleguen a un público más amplio. Esto nos hace plantearnos si los modelos de recomendación PIR son el futuro de los catálogos de las bibliotecas de nueva generación.

¿Cómo funciona?

El modelo básico actual de sistema de folcsonomía contiene tres variables esenciales: usuarios, recursos y etiquetas. Estas tres variables constituyen la base para calcular el peso y la clasificación de las etiquetas en diversos sistemas de etiquetado. Los modelos PIR utilizan los perfiles de los usuarios y de los recursos para personalizar su experiencia de búsqueda en función de sus intereses. El objetivo es identificar la respuesta más cercana a la necesidad de una persona en función de las características de su cuenta de usuario.

Una parte importante de los modelos PIR para folksonomías son los sistemas de recomendación. Hay muchas investigaciones sobre diferentes métodos PIR que pueden cambiar drásticamente la forma de clasificar los documentos y las etiquetas que se recomiendan a los usuarios. Algunos sistemas de recomendación PIR reconocen que el comportamiento de etiquetado de los usuarios suele cambiar con el tiempo, por lo que el sistema ideal debería tener en cuenta el comportamiento de etiquetado histórico de un usuario a la hora de evaluar el peso y la clasificación de un recurso etiquetado. Otros algoritmos exploran la relación entre la relevancia de la consulta y la relevancia del interés del usuario. La teoría sugiere que cuantas más veces utiliza un usuario una etiqueta en su perfil, más interesado está en su tema.

El análisis de sentimientos es una forma de que el aprendizaje automático extraiga los intereses y sentimientos de los usuarios basándose en los temas que siguen y en las etiquetas que han buscado en el pasado. Aplica evaluaciones de similitud para crear una mayor precisión de los recursos recuperados. Los algoritmos generan relaciones entre palabras y frases, categorizando las relaciones semánticas entre frases y oraciones. Los términos se clasifican dentro de un espacio vectorial, y los que tienen mayor puntuación tienen más peso a la hora de representar un tema.

Problemas de personalización

Una queja común sobre los sistemas PIR es la privacidad. La personalización sólo puede producirse obteniendo datos del usuario, a menudo sin su conocimiento o consentimiento.

Los sistemas de recomendación pueden forzar a los usuarios a entrar en burbujas de filtros. Estos sistemas aíslan a los usuarios de otras perspectivas y visiones del mundo, perpetuando la ignorancia de la gente sobre creencias y culturas alternativas. Es esencialmente otro tipo de censura que estrecha la percepción de una persona. Por suerte, se han desarrollado otros métodos para diversificar las recomendaciones del PIR.

Mirando hacia el futuro

Los estudios PIR proporcionan una idea de cómo los algoritmos clasifican y ponderan las folksonomías. También nos permite suponer cómo las empresas privadas podrían utilizar métodos similares a la hora de sugerir recursos a los usuarios. Twitter me viene a la mente cuando pienso en los modelos PIR utilizados con las folcsonomías. Cuando interactúas suficientes veces con otro usuario o con un hashtag concreto, el algoritmo añade usuarios y hashtags similares a tu feed.

Hablamos de Twitter porque ha sido noticia últimamente. Para promover la transparencia del algoritmo, Elon Musk declaró en una reciente charla TED sus intenciones de hacer que Twitter sea de código abierto. Será nuestro primer vistazo al análisis crítico de los algoritmos de una plataforma de medios sociales y a una mayor investigación sobre los sistemas PIR.

Al convertirse los algoritmos de Twitter en código abierto, es posible que veamos más estudios sobre cómo los sistemas PIR dan forma a las experiencias de los usuarios. También abre la puerta a nuevas investigaciones sobre las implicaciones éticas de los sistemas PIR y sus posibles soluciones.

Por el momento, no hemos encontrado ningún catálogo de nueva generación que utilice métodos PIR para las folcsonomías. Los ILS/LSP suelen utilizar etiquetas como facetas en su catálogo. Koha tiene una nube de etiquetas que muestra las etiquetas más utilizadas. La adición de medidas de análisis de sentimiento podría resultar fructífera para identificar las similitudes entre las etiquetas. Las etiquetas que podrían considerarse molestas y subjetivas tendrían ahora un significado.

No está claro si algún ILS/LSP incluirá algún día métodos PIR en sus sistemas, pero es bueno saber cómo funcionan.

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible. DigitalES, 2022

Texto completo

El Plan Nacional de Algoritmos Verdes se enmarca dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno para el impulso de aplicaciones de IA sostenibles. Cabe distinguir entre ‘Green in AI’ y ‘Green by AI’, es decir, aplicaciones eco-diseñadas y aplicaciones que generan un impacto sostenible. Este documento tiene como objetivo exponer las propuestas de las empresas que forman parte de DigitalES, para convertir España en un exponente de un desarrollo tecnológico que combata la crisis climática.

1.- Precisar la sostenibilidad de un algoritmo de Inteligencia Artificial
2.- Recopilar casos de uso probados y elaborar un catálogo de buenas prácticas
3.- Fomentar el debate sobre el plano ambiental del desarrollo tecnológico
4.- Diseñar mecanismos en las empresas para garantizar una IA responsable
5.- Encontrar y formar al talento que vele por la IA sostenible
6.- Reforzar la sostenibilidad como criterio de valoración en la contratación pública
7.- Sandboxes regulatorios
8.- Colaboración público-privada
9.- Ayudas e incentivos fiscales
10.- Inversión en plataformas españolas de supercomputación compartidas