Archivo de la etiqueta: Algoritmos

La cultura en la era de la inteligencia artificial: ¿creación humana o producción algorítmica?

Rothman, Joshua. “A.I. Is Coming for Culture.The New Yorker, August 25, 2025. https://www.newyorker.com/magazine/2025/09/01/ai-is-coming-for-culture

Joshua Rothman abre reflexionando sobre cómo, en la era de los smartphones, nuestra rutina cotidiana está profundamente marcada por el algoritmo

Estamos acostumbrados a que los algoritmos guíen nuestras elecciones. Sin embargo, cuando las máquinas pueden generar sin esfuerzo el contenido que consumimos, ¿qué queda para la imaginación humana?

El ensayo reflexiona sobre cómo la inteligencia artificial está transformando la producción cultural. Comienza con la idea de que nuestra vida diaria ya está profundamente mediada por algoritmos que moldean lo que leemos, vemos y escuchamos. A este ritmo, la IA no solo multiplicará la cantidad de contenidos disponibles —música, vídeos, textos o imágenes—, sino que dará lugar a nuevas formas de creación todavía imprevisibles.

Sin embargo, las limitaciones de estas obras generadas por máquinas: carecen de individualidad, intención y agencia artística, pues se basan en patrones preexistentes. Aun así, para muchos creadores la IA representa una oportunidad, ya que reduce costes, facilita la experimentación y permite realizar proyectos antes inalcanzables.

También se plantea un escenario futuro en el que los contenidos culturales no sean productos fijos, sino experiencias creadas en tiempo real para cada usuario, diseñadas para provocar una reacción inmediata. Esto transformaría radicalmente la forma en que concebimos el arte y el entretenimiento.

El texto concluye con una advertencia: si todo lo que consumimos procede de máquinas, corremos el riesgo de diluir la creatividad humana. Pero, paradójicamente, esta situación podría reforzar nuestro aprecio por lo genuinamente humano en la cultura, frente a la avalancha de producciones artificiales.

¿Quién decide qué se lee en Goodreads? intereses comerciales, algoritmos opacos y estructuras de poder

Hu, Yuerong, Jana Diesner, Ted Underwood, Zoe LeBlanc, Glen Layne-Worthey, y John Stephen Downie. “Who Decides What Is Read on Goodreads? Uncovering Sponsorship and Its Implications for Scholarly Research.” Big Data & Society, vol. 12, no. 3 (julio–septiembre 2025): 1–17. https://doi.org/10.1177/20539517251359229.

Se analiza críticamente el papel de las reseñas incentivadas en Goodreads y su impacto tanto en la comprensión académica del comportamiento lector como en la dinámica cultural y económica de la crítica literaria en línea. Los autores parten de la premisa de que las reseñas en redes sociales de libros no son simples reflejos espontáneos de lectores amateurs, sino artefactos sociotécnicos moldeados por intereses comerciales, algoritmos opacos y estructuras de poder dentro de la industria editorial y las plataformas digitales.

A partir de un corpus histórico de más de 7,8 millones de reseñas (2006–2017), el estudio identifica 331.211 reseñas explícitamente incentivadas mediante un enfoque de diccionario de palabras clave relacionadas con patrocinios. Este método revela que, aunque representan un porcentaje reducido (alrededor del 4,23 % del total), su presencia ha crecido exponencialmente desde 2007, con picos notables en géneros altamente rentables como romance, misterio/thriller y fantasía. El análisis vincula el incremento a la adquisición de Goodreads por Amazon en 2013, lo que habría intensificado la comercialización de la visibilidad de los libros.

Los resultados muestran una concentración extrema: el 80 % de las reseñas incentivadas provienen de solo el 13,66 % de los usuarios que publican este tipo de contenido, y se concentran en libros de un 27 % de autores y un 10 % de editoriales. Asimismo, las redes de patrocinadores revelan que empresas como NetGalley, Amazon y Goodreads ocupan posiciones centrales, colaborando frecuentemente en co-patrocinios. NetGalley, por sí sola, está presente en un tercio de las reseñas incentivadas identificadas.

El trabajo discute cómo esta concentración reproduce desigualdades preexistentes del mundo editorial tradicional, limitando la diversidad de géneros y la representación de autores independientes. Además, se alerta sobre el uso de reseñas como herramienta de marketing —incluso cuando no son positivas— para aumentar visibilidad y ventas, y sobre la dificultad de distinguir entre reseñas auténticas, pagadas o generadas por IA. Los autores subrayan la necesidad de un análisis crítico de los datos culturales de plataformas sociales, dado el acceso restringido y las limitaciones metodológicas impuestas por algoritmos propietarios.

En sus conclusiones, el estudio señala que las reseñas incentivadas no deben tratarse como meros registros de opinión pública, sino como productos de un ecosistema que combina intereses corporativos, dinámicas algorítmicas y estrategias de autopromoción. Recomienda que investigadores, desarrolladores de IA y lectores aborden estos datos con cautela, considerando su contexto sociotécnico, para evitar interpretaciones distorsionadas y perpetuación de sesgos estructurales.

Las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias.

How online misinformation exploits ‘information voids’—And what to do about it. (2024). Nature, 625(7994), 215-216. https://doi.org/10.1038/d41586-024-00030-x

Este año marca el año electoral más grande registrado en la historia, con países que representan alrededor de la mitad de la población mundial celebrando elecciones. Sin embargo, surgen preocupaciones de que 2024 podría ser un año significativo para la propagación de información errónea y desinformación. Si bien ambos términos se refieren a contenido engañoso, la desinformación se fabrica intencionalmente.

La prevalencia de la búsqueda en línea y las redes sociales permite reclamaciones y contraargumentos interminables durante los períodos electorales. Un estudio reciente destacó la existencia de «vacíos de datos», espacios que carecen de evidencia en los que las personas que buscan precisión sobre temas controvertidos pueden caer. Esto subraya la necesidad de campañas de alfabetización mediática más sofisticadas para combatir la desinformación.

La investigación indica que las personas que utilizan motores de búsqueda para verificar noticias que sabían que eran inexactas terminaron confiando más en esas historias. Esto ocurre porque los resultados de la búsqueda pueden priorizar fuentes que corroboren la historia inexacta, contribuyendo al efecto de la verdad ilusoria.

Los esfuerzos para abordar este problema requieren una colaboración entre los proveedores de motores de búsqueda y las fuentes de conocimiento basado en evidencia. Si bien los sistemas automatizados despriorizan fuentes no confiables, se necesitan medidas adicionales. Google, por ejemplo, se basa en algoritmos para clasificar noticias según medidas de calidad, pero la incorporación de aportes humanos y el fortalecimiento de los sistemas internos de verificación de hechos podrían ofrecer soluciones más efectivas.

Las campañas de alfabetización mediática deben centrarse en educar a los usuarios para discernir entre diferentes fuentes en los resultados de búsqueda. Las iniciativas para mejorar la alfabetización mediática podrían comenzar exponiendo a personas influyentes a métodos de investigación, permitiéndoles influir positivamente en sus redes. Las lecciones de las campañas de alfabetización en salud también deberían informar las estrategias, considerando las diversas necesidades de los diferentes grupos de población.

Al abordar la información errónea y la desinformación, es crucial una colaboración entre los proveedores de motores de búsqueda, las fuentes de conocimiento basado en evidencia y las revistas de investigación. La urgencia surge a medida que la inteligencia artificial generativa y los modelos de lenguaje grandes tienen el potencial de amplificar la información errónea. Empoderar a las personas para ignorar noticias de fuentes no confiables se vuelve esencial en este año electoral crítico.

El algoritmo Q* y la destitución y readmisión de Sam Altman de Open AI

Melissa Heikkilä. «Unpacking the Hype around OpenAI’s Rumored New Q* Model». MIT Technology Review Accedido 28 de noviembre de 2023.

Ver original

Desde los dramáticos eventos de la semana pasada en OpenAI, el rumor se ha desatado sobre por qué el director científico de la compañía, Ilya Sutskever, y su junta decidieron destituir al CEO Sam Altman (solo para recontratarlo unos días después y reemplazar a las únicas dos mujeres en su junta con hombres blancos. ¡Con clase!).

Aunque aún no conocemos todos los detalles, ha habido informes de que los investigadores de OpenAI hicieron un «avance» en IA que alarmó a los miembros del personal. Reuters y The Information informaron que los investigadores habían ideado una nueva forma de crear sistemas de IA potentes y habían creado un nuevo modelo llamado Q* (pronunciado Q estrella) capaz de realizar operaciones matemáticas de nivel escolar.

Según personas que hablaron con Reuters, algunos en OpenAI creen que esto podría ser un hito en la búsqueda de la compañía para construir una inteligencia artificial general, un concepto muy promocionado de un sistema de IA más inteligente que los humanos. La compañía declinó hacer comentarios sobre Q*.

Las redes sociales están llenas de especulaciones y exageraciones, así que llamé a algunos expertos para saber qué importante sería realmente cualquier avance en matemáticas e IA.

Durante años, los investigadores han intentado que los modelos de IA resuelvan problemas matemáticos. Modelos de lenguaje como ChatGPT y GPT-4 pueden hacer algo de matemáticas, pero no muy bien ni de manera confiable. Actualmente, no tenemos los algoritmos ni las arquitecturas adecuadas para resolver problemas matemáticos de manera confiable con IA, según Wenda Li, profesora de IA en la Universidad de Edimburgo. El aprendizaje profundo y los transformers (un tipo de red neural), que es lo que usan los modelos de lenguaje, son excelentes para reconocer patrones, pero eso solo no es suficiente, agrega Li.

Las matemáticas son un referente para el razonamiento, dice Li. Una máquina que pueda razonar sobre matemáticas podría, en teoría, aprender a realizar otras tareas que se basen en información existente, como escribir código informático o sacar conclusiones de un artículo de noticias. Las matemáticas son un desafío particularmente difícil porque requieren que los modelos de IA tengan la capacidad de razonar y comprender realmente con qué están tratando.

Un sistema de IA generativo que pueda hacer matemáticas de manera confiable necesitaría tener un conocimiento sólido de definiciones concretas de conceptos particulares que pueden volverse muy abstractos. Muchos problemas matemáticos también requieren algún nivel de planificación a lo largo de múltiples pasos, dice Katie Collins, una investigadora de doctorado en la Universidad de Cambridge especializada en matemáticas e IA. De hecho, Yann LeCun, científico jefe de IA de Meta, publicó en X e LinkedIn el fin de semana que cree que Q* probablemente sea «un intento de OpenAI de planificación».

Las personas preocupadas por si la inteligencia artificial representa un riesgo existencial para los humanos, una de las preocupaciones fundacionales de OpenAI, temen que tales capacidades puedan llevar a la aparición de IA no controlada. Preocupaciones sobre la seguridad podrían surgir si se permite que dichos sistemas de IA establezcan sus propios objetivos y comiencen a interactuar con un mundo real, ya sea físico o digital, de alguna manera, dice Collins.

Pero aunque la capacidad matemática podría acercarnos un paso más a sistemas de IA más potentes, resolver este tipo de problemas matemáticos no señala el nacimiento de una superinteligencia.

«No creo que nos lleve de inmediato a la AGI o situaciones aterradoras», dice Collins. También es muy importante subrayar qué tipo de problemas matemáticos está resolviendo la IA, agrega.

«Resolver problemas de matemáticas de la escuela primaria es muy, muy diferente de empujar los límites de las matemáticas al nivel de algo que puede hacer un medallista Fields», dice Collins, refiriéndose a un prestigioso premio en matemáticas.

La investigación en aprendizaje automático se ha centrado en resolver problemas de la escuela primaria, pero los sistemas de IA de vanguardia aún no han superado completamente este desafío. Algunos modelos de IA fallan en problemas de matemáticas muy simples, pero luego pueden destacar en problemas realmente difíciles, dice Collins. OpenAI, por ejemplo, ha desarrollado herramientas dedicadas que pueden resolver problemas desafiantes planteados en competiciones para los mejores estudiantes de matemáticas en la escuela secundaria, pero estos sistemas superan a los humanos solo ocasionalmente.

Sin embargo, construir un sistema de IA que pueda resolver ecuaciones matemáticas es un desarrollo interesante, si eso es realmente lo que Q* puede hacer. Un entendimiento más profundo de las matemáticas podría abrir aplicaciones para ayudar a la investigación científica e ingeniería, por ejemplo. La capacidad de generar respuestas matemáticas podría ayudarnos a desarrollar una tutoría personalizada mejor, o ayudar a los matemáticos a hacer álgebra más rápido o resolver problemas más complicados.

Esto tampoco es la primera vez que un nuevo modelo ha generado hype sobre la AGI. Justo el año pasado, los expertos tecnológicos decían las mismas cosas sobre Gato de Google DeepMind, un modelo de IA «generalista» que puede jugar videojuegos de Atari, describir imágenes, chatear y apilar bloques con un brazo robot real. En ese momento, algunos investigadores de IA afirmaban que DeepMind estaba «a punto» de lograr la AGI debido a la capacidad de Gato para hacer tantas cosas diferentes bastante bien. La misma máquina de hype, diferente laboratorio de IA.

Y aunque puede ser una excelente estrategia de relaciones públicas, estos ciclos de hype hacen más daño que bien para todo el campo, distrayendo a las personas de los problemas reales y tangibles en torno a la IA. Los rumores sobre un nuevo y potente modelo de IA también podrían ser un gran autogol para el sector tecnológico que evita la regulación. La UE, por ejemplo, está a punto de finalizar su amplia Ley de IA. Una de las mayores disputas actualmente entre los legisladores es si dar a las empresas tecnológicas más poder para regular modelos de IA de vanguardia por sí mismas.

La junta de OpenAI fue diseñada como el interruptor de apagado interno y el mecanismo de gobierno de la compañía para evitar el lanzamiento de tecnologías dañinas. El drama de la junta de la semana pasada ha demostrado que la línea de fondo siempre prevalecerá en estas empresas. También dificultará argumentar por qué deberían confiarse a sí mismas la autorregulación. Legisladores, tomen nota.

Google presenta E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) para ayudar valorar la calidad de las páginas

«Actualización más reciente de las directrices de evaluación de la calidad: el E-A-T adquiere una E adicional de Experiencia | Blog del Centro de la Búsqueda de Google». Google for Developers. Accedido 18 de octubre de 2023.

Ver

Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) es un conjunto de criterios utilizados para evaluar los sitios web con el fin de impulsar mejoras en sus algoritmos y garantizar que se muestren contenidos de calidad a los usuarios.

Para mejorar el rendimiento de su sitio web en los resultados de búsqueda, es una buena práctica centrarse en crear contenido de alta calidad que demuestre experiencia, autoridad y confiabilidad en su campo. Construir una sólida reputación en línea y garantizar información precisa y confiable en su sitio web puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda. Sin embargo, los algoritmos y factores de clasificación exactos utilizados por los motores de búsqueda son propietarios y pueden cambiar con el tiempo. Se utiliza en la evaluación de calidad por los Evaluadores de Calidad de Búsqueda, pero no es un factor directo en el algoritmo de Google. En cambio, es un término utilizado en la comunidad de SEO para describir la calidad de un sitio web.


E-E-A-T significa «Experiencia, Autoridad y Confianza,» y es un concepto introducido por  Google’s Search Quality Rater Guidelines (SQRG) para ayudar a los evaluadores humanos a evaluar la calidad del contenido web. Si bien E-E-A-T no es un factor de clasificación directo utilizado por motores de búsqueda como Google, desempeña un papel importante en la determinación de la calidad y relevancia de las páginas web en los resultados de búsqueda.

Esto es lo que representa cada componente de E-E-A-T :

  • Experiencia (Experience): Google busca sitios web que ofrezcan una experiencia positiva a los usuarios. Esto implica una navegación fácil y amigable, una buena estructura de la página y un diseño que mejore la experiencia del visitante.
  • Experto (Expertise): Google valora la experiencia y conocimientos demostrados en un campo o temática específica. Se espera que el contenido esté respaldado por expertos o autoridades en la materia para garantizar su precisión y calidad.
  • Autoridad (Authoritativeness): La autoridad se refiere a la credibilidad y reputación del sitio web y sus creadores. Google evalúa la confianza que los usuarios pueden tener en la información proporcionada.
  • Confianza (Trustworthiness): La confianza se relaciona con la fiabilidad y veracidad de la información presentada en el sitio web. Los sitios web deben ser transparentes sobre sus propósitos y cumplir con las expectativas de los usuarios en cuanto a la precisión de la información.

Estos criterios son esenciales para garantizar que Google ofrezca resultados de búsqueda de alta calidad que sean útiles y confiables para los usuarios. Los sitios web que cumplen con los estándares de E-E-A-T tienen más posibilidades de obtener un buen posicionamiento en los resultados de búsqueda de Google y de ofrecer contenidos valiosos a sus visitantes.

E-E-A-T es particularmente relevante en campos donde la precisión y la credibilidad de la información son de suma importancia, como la salud, las finanzas y el asesoramiento legal. Los sitios web y creadores de contenido que establecen y mantienen un fuerte perfil de E-E-A-T son más propensos a ser considerados fuentes fiables tanto por los motores de búsqueda como por los usuarios, lo que puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda.

Si bien E-E-A-T no es un factor de clasificación directo, es un aspecto crucial de la optimización para motores de búsqueda (SEO) porque influye en cómo se evalúa y finalmente se clasifica su contenido por los motores de búsqueda como Google. Seguir las pautas de E-E-A-T puede ayudar a mejorar la calidad de su contenido y hacerlo más competitivo en los resultados de búsqueda.

¿Cómo impactan los algoritmos en nuestra vida cotidiana?’: la Biblioteca de la Universidad de Cornell ofrece formación sobre alfabetización algorítmica


Morehart, Phil. «Cornell University Library to Go Inside Algorithms». I Love Libraries, 11 de septiembre de 2023. https://ilovelibraries.org/article/cornell-university-library-to-go-inside-algorithms/.

Los algoritmos dictan cómo muchos de nosotros vivimos nuestras vidas en estos días, estableciendo parámetros para tareas automatizadas tan diversas como recomendar películas en Netflix y libros para comprar en Amazon, hasta ayudar a los conductores a navegar con GPS. Pero, ¿qué son exactamente los algoritmos y cómo funcionan?

La Biblioteca de la Universidad de Cornell en Ithaca, Nueva York, va a dar grandes pasos para ayudar al público a aprender sobre los algoritmos gracias a una subvención que recibió del  Institute of Museum and Library Sciences (IMLS).. La subvención apoyará un proyecto de 18 meses destinado a crear recursos educativos abiertos sobre la alfabetización algorítmica, construyendo el conocimiento público sobre qué son los algoritmos, cómo funcionan y cómo dan forma a la vida moderna.

«Los algoritmos son piezas de código utilizadas para resolver problemas», dijo Reanna Esmail, bibliotecaria principal de instrucción en la Biblioteca de la Universidad de Cornell y co-líder del proyecto, al Cornell Chronicle. «Desafortunadamente, muchos de ellos tienden a ser algoritmos de ‘caja negra’ cuyo código y procesos están ocultos para el entendimiento público, e incluso a veces para el entendimiento de quienes trabajan en el algoritmo. Y por lo tanto, parte del objetivo del proyecto es desentrañar eso y preguntar, ‘¿Cómo impactan los algoritmos en nuestra vida cotidiana?'».

Los algoritmos son creados por personas y son susceptibles a sesgos, especialmente contra grupos históricamente marginados. «Necesitamos crear conciencia pública para que haya responsabilidad en sistemas algorítmicos discriminatorios, y para que no estemos simplemente sujetos a los caprichos de las grandes empresas tecnológicas», dijo Iliana Burgos, bibliotecaria de prácticas de datos emergentes y co-líder del proyecto. «El conocimiento es poder en ese sentido».

Se desarrolla un algoritmo que predice al 97% si una canción será exitosa

Merritt, Sean H., Kevin Gaffuri, y Paul J. Zak. «Accurately predicting hit songs using neurophysiology and machine learning». Frontiers in Artificial Intelligence 6 (2023). https://www.frontiersin.org/articles/10.3389/frai.2023.1154663.

Identificar canciones de éxito es notoriamente difícil. Tradicionalmente, los elementos de las canciones se han medido a partir de grandes bases de datos para identificar los aspectos líricos de los éxitos. Nosotros adoptamos un enfoque metodológico diferente, midiendo las respuestas neurofisiológicas a un conjunto de canciones proporcionadas por un servicio de música en streaming que identificaba éxitos y fracasos. Comparamos varios enfoques estadísticos para examinar la precisión predictiva de cada técnica. Un modelo estadístico lineal que utilizaba dos medidas neuronales identificó los éxitos con una precisión del 69%. A continuación, creamos un conjunto de datos sintéticos y aplicamos el aprendizaje automático conjunto para captar las no linealidades inherentes a los datos neuronales. Este modelo clasificó las canciones de éxito con un 97% de precisión. La aplicación del aprendizaje automático a la respuesta neuronal al primer minuto de canción clasificó los éxitos con un 82% de precisión, lo que demuestra que el cerebro identifica rápidamente la música de éxito. Nuestros resultados demuestran que aplicar el aprendizaje automático a los datos neuronales puede aumentar sustancialmente la precisión de la clasificación de resultados de mercado difíciles de predecir.

Manifiesto de los medios de comunicación de servicio público y de Internet de servicio público

Fuchs, Christian, y Klaus Unterberger. The Public Service Media and Public Service Internet Manifesto. University of Westminster Press. University of Westminster Press, 2021.

Texto completo

PDF

ePuB

Mobi

Este libro presenta el Manifiesto de los Medios de Comunicación de Servicio Público y de Internet de Servicio Público de autoría colectiva y los materiales que lo acompañan. Internet y el panorama de los medios de comunicación están rotos. Las plataformas comerciales de Internet dominantes ponen en peligro la democracia. Han creado un paisaje comunicativo abrumado por la vigilancia, la publicidad, las noticias falsas, el discurso del odio, las teorías de la conspiración y la política algorítmica. Las plataformas comerciales de Internet han perjudicado a los ciudadanos, a los usuarios, a la vida cotidiana y a la sociedad. La democracia y la democracia digital requieren medios de comunicación de servicio público. Una Internet que mejore la democracia requiere que los medios de comunicación de servicio público se conviertan en plataformas de Internet de servicio público: una Internet del público, por el público y para el público; una Internet que avance en lugar de amenazar la democracia y la esfera pública. La Internet de servicio público se basa en plataformas de Internet operadas por diversos medios de comunicación de servicio público, llevando la misión de servicio público a la era digital. La Internet de servicio público ofrece oportunidades para el debate público, la participación y el avance de la cohesión social.

El Manifiesto va acompañado de los materiales que han servido de base para su creación: El informe de Christian Fuchs sobre los resultados de la Encuesta sobre Medios de Comunicación/Internet de Servicio Público, la versión escrita de la charla en línea de Graham Murdock sobre los medios de comunicación de servicio público en la actualidad, y un resumen de un debate en ecomitee.com sobre los fundamentos del Manifiesto.

El Manifiesto puede firmarse en http://bit.ly/signPSManifesto

Comunicación artificial: cómo los algoritmos producen inteligencia social.

Esposito, Elena. Artificial Communication: How Algorithms Produce Social Intelligence. MIT Press, 2022.

Texto completo

Los algoritmos que trabajan con deep learning y big data están mejorando tanto para hacer tantas cosas que nos incomoda. ¿Cómo puede un dispositivo saber cuáles son nuestras canciones favoritas o qué debemos escribir en un correo electrónico? Se han vuelto las máquinas demasiado inteligentes? En Artificial Communication, Elena Esposito sostiene que establecer este tipo de analogía entre los algoritmos y la inteligencia humana es engañoso. Si las máquinas contribuyen a la inteligencia social, no será porque hayan aprendido a pensar como nosotros, sino porque nosotros hemos aprendido a comunicarnos con ellas. Esposito propone que pensemos en las máquinas «inteligentes» no en términos de inteligencia artificial, sino de comunicación artificial.

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible (DigitalES)

Algoritmos verdes. 10 retos para el desarrollo de la Inteligencia Artificial sostenible DigitalES, 2022

Texto completo

El Plan Nacional de Algoritmos Verdes se enmarca dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA) del Gobierno para el impulso de aplicaciones de IA sostenibles. Cabe distinguir entre ‘Green in AI’ y ‘Green by AI’, es decir, aplicaciones eco-diseñadas y aplicaciones que generan un impacto sostenible. Este documento tiene como objetivo exponer las propuestas de las empresas que forman parte de DigitalES, para convertir España en un exponente de un desarrollo tecnológico que combata la crisis climática.

1.- Precisar la sostenibilidad de un algoritmo de Inteligencia Artificial
2.- Recopilar casos de uso probados y elaborar un catálogo de buenas
prácticas
3.- Fomentar el debate sobre el plano ambiental del desarrollo tecnológico
4.- Diseñar mecanismos en las empresas para garantizar una IA responsable
5.- Encontrar y formar al talento que vele por la IA sostenible
6.- Reforzar la sostenibilidad como criterio de valoración en la contratación
pública
7.- Sandboxes regulatorios
8.- Colaboración público-privada
9.- Ayudas e incentivos fiscales
10.- Inversión en plataformas españolas de supercomputación compartidas