Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Inteligencia artificial y enseñanza universitaria: desafíos, riesgos y oportunidades según la AAUP

AAUP. Artificial Intelligence and Academic Professions. American Association of University Professors, 2025

Texto completo

El informe Artificial Intelligence and Academic Professions de la American Association of University Professors (AAUP) analiza de manera exhaustiva el impacto potencial de la inteligencia artificial (IA) en la educación superior y en las profesiones académicas.

El documento subraya que la adopción de la IA en entornos universitarios no debe ser meramente instrumental o tecnológica, sino que requiere un enfoque crítico, ético y participativo. Los autores advierten que el uso indiscriminado de la IA podría alterar la naturaleza misma del trabajo académico, afectando tanto la autonomía profesional como la libertad académica.

Uno de los puntos centrales del informe es que la IA puede automatizar numerosas tareas docentes y administrativas, desde la corrección de exámenes hasta la generación de materiales educativos o la asistencia en la investigación. Si bien esto puede aumentar la eficiencia, también existe un riesgo significativo de deshumanización de la educación, pérdida de empleos y precarización laboral. La AAUP enfatiza que las herramientas de IA no deben reemplazar la labor humana, sino complementarla, asegurando que el juicio, la experiencia y la creatividad de los académicos sigan siendo insustituibles en la enseñanza y la investigación.

El informe también aborda la participación activa del profesorado en la implementación de estas tecnologías. La AAUP recomienda que las universidades involucren a docentes y personal académico en la selección, supervisión y evaluación de herramientas de IA, evitando decisiones unilaterales por parte de la administración. Esto se considera clave para proteger la integridad académica, garantizar la transparencia en los procesos y fomentar un uso responsable de los datos estudiantiles y de investigación.

Otro tema destacado es el impacto ético y social de la IA en la educación superior. Los académicos deben cuestionar cómo estas tecnologías pueden reproducir sesgos, afectar la equidad educativa y cambiar la naturaleza de la interacción docente-estudiante. El informe enfatiza la necesidad de políticas institucionales claras que promuevan un enfoque ético, incluyendo la protección de la privacidad, la equidad en el acceso y la transparencia en la toma de decisiones algorítmicas.

Por último, el informe de la AAUP subraya que la IA representa tanto oportunidades como desafíos. Por un lado, puede facilitar la enseñanza personalizada, optimizar procesos administrativos y apoyar la investigación. Por otro, plantea riesgos significativos si se implementa sin supervisión ni participación académica. La recomendación final es que las universidades adopten un enfoque equilibrado, reflexivo y regulado, donde la innovación tecnológica se integre respetando los valores fundamentales de la educación superior y la profesionalidad de los docentes.

¿Logrará la IA superar el umbral del pensamiento humano?

Nosta, John. “AI’s Cognitive March Toward Thought.Psychology Today, June 21, 2025. https://www.psychologytoday.com/us/blog/the-digital-self/202506/ais-cognitive-march-toward-thought

La inteligencia artificial (IA) se aproxima a lo que entendemos como pensamiento humano, aunque sin alcanzarlo completamente. Utilizando la analogía matemática de una serie que se acerca infinitamente a un valor sin llegar a él.

Los modelos de lenguaje a gran escala (LLMs) simulan el razonamiento paso a paso, pero su lógica es predictiva, no secuencial como la humana. Modelos recientes emplean el concepto de “pensamiento continuo”, que permite considerar múltiples caminos de razonamiento simultáneamente antes de colapsar en una sola respuesta, lo que mejora la eficiencia en la resolución de problemas complejos.

Aunque la IA se aproxima cada vez más a lo que podríamos llamar pensamiento humano en apariencia, la brecha entre simulación y cognición real persiste. La analogía matemática de la asintota ilustra cómo la IA se acerca infinitamente a la cognición humana, pero nunca la alcanza: sus capacidades se parecen cada vez más al razonamiento, pero no implican conciencia, intención ni experiencia subjetiva.

El autor advierte sobre el riesgo de atribuir cualidades humanas a sistemas que, aunque sofisticados, siguen siendo herramientas de manipulación semántica a gran escala. La tentación de considerar estos sistemas como inteligentes o incluso conscientes puede llevar a malentendidos y expectativas erróneas sobre sus capacidades.

Este comportamiento plantea un desafío filosófico y social: aunque los sistemas puedan parecer pensantes y generar respuestas confiables o incluso convincentes, siguen siendo herramientas de manipulación semántica a gran escala. La ilusión de cognición puede llevar a interpretaciones erróneas sobre su inteligencia o supuesta conciencia, pero la distinción entre apariencia de razonamiento y pensamiento real es crucial.

Se invita a reflexionar sobre la naturaleza de la cognición y la inteligencia, reconociendo los avances de la IA sin caer en la ilusión de que ha alcanzado el pensamiento humano genuino. La diferencia fundamental radica en que, mientras la IA puede simular el razonamiento, solo los seres humanos lo viven y lo experimentan.

Teoría de la muerte de Internet: gran parte de la web está dominada por bots y contenido generado automáticamente

Hindy, Joe. “What Is the Dead Internet Theory? Zombie Internet Might Be a More Accurate Term.” Mashable, September 6, 2025. https://mashable.com/article/what-is-dead-internet-theory

La Dead Internet Theory sostiene que desde 2016 gran parte de la web está dominada por bots y contenido generado automáticamente, manipulado por algoritmos. Sus defensores creen que se usan para influir en el consumo y en la opinión pública, incluso por parte de gobiernos.

Dead Internet Theory (Teoría del Internet Muerto) postula que gran parte del contenido y la actividad en la web ya no proviene de seres humanos auténticos, sino de bots, cuentas automatizadas, contenido generado por IA y mecanismos algorítmicos diseñados para maximizar la participación (likes, clics, compartidos), muchas veces sin intervención humana real.

Según esta perspectiva, no solo se crean publicaciones automatizadas, sino que también las cuentas que interactúan con ellas (comentando, reaccionando, compartiendo) pueden estar controladas por IA, lo que produce una retroalimentación artificial de contenido. Esto habría generado un ciclo donde los algoritmos, motores de búsqueda y plataformas sociales priorizan lo que atrae métricas, no lo que es auténtico o humano.

Un ejemplo citado en fuentes relacionadas es el fenómeno de «Shrimp Jesus» — imágenes generadas por IA que combinan iconografía religiosa con absurdos visuales, que terminan haciéndose virales en redes sociales. Estas tendencias ilustran cómo contenido sin una lógica humana clara puede ganar tracción por su capacidad de generar reacción, no necesariamente por su valor informativo o cultural.

También se discute la implicación política y social de esta teoría: no se trata solo de curiosidad o fenómenos virales, sino de una posible manipulación de la opinión pública, desinformación, propaganda, o de estructuras de monetización que se benefician más de la atención que de la verdad. En algunos estudios se estima que casi la mitad del tráfico de internet podría estar generado por bots u operaciones automatizadas, lo que refuerza los temores de que lo que percibimos como conversación humana puede estar mediado o construido por sistemas no humanos.

Al mismo tiempo, los expertos señalan que muchos elementos de la teoría son especulativos o conjeturales. Si bien hay evidencias de aumento en contenido generado por IA, mayor uso de bots, y prácticas de engagement fraudulento o artificial, no hay consenso de que la “internet esté muerta” en el sentido literal que algunos proponentes afirman. La teoría sirve más como un lente crítico: nos permite pensar en hasta qué punto la autenticidad humana todavía está presente en nuestras interacciones en línea, y cómo se están transformando las dinámicas de visibilidad, verdad y confianza en la red.

El 38 % de los sitios web que estaban activos en 2013 ya no existen en 2025

Boing Boing. 2025. “Link Rot Study Finds More Than 1/3 Websites from 2013 Are Gone.” Boing Boing, September 16, 2025. https://boingboing.net/2025/09/16/link-rot-study-finds-more-than-1-3-websites-from-2013-are-gone.html

Un estudio sobre la llamada “decadencia digital”, es decir, la desaparición progresiva de sitios web, reveló que el 38 % de las páginas que estaban en línea en 2013 ya no existen. Otro análisis, titulado When Online Content Disappears, mostró además que el 8 % de los sitios creados apenas dos años atrás ya no son accesibles. Esta pérdida de información se detecta principalmente a través del fenómeno conocido como link rot, visible en páginas de noticias y en Wikipedia.

En las webs de noticias, el 23 % contiene al menos un enlace roto, una proporción similar a la de los portales gubernamentales (21 %). El tráfico del sitio no parece influir: tanto los más visitados como los menos concurridos muestran problemas. En el caso de las páginas gubernamentales locales —como las de ayuntamientos— la situación es todavía más grave. En Wikipedia, más de la mitad de las entradas (54 %) incluyen en la sección de “Referencias” al menos un enlace que ya no conduce a ninguna parte.

Buena parte de estos enlaces perdidos corresponde a tuits, que durante la última década llegaron a considerarse “fuentes suficientes” en noticias. Sin embargo, también desaparecen recursos oficiales en portales gubernamentales. El muestreo de unas 500.000 páginas de organismos públicos realizado a partir del rastreo de Common Crawl de marzo/abril de 2023 reveló que el 6 % de los enlaces ya no funciona, tanto internos como externos. En conjunto, un 21 % de los sitios gubernamentales analizados presentaba al menos un enlace roto, con un mínimo del 14 % en cada nivel administrativo, y con los ayuntamientos mostrando la peor tasa.

El estudio invita a una reflexión: cuanto más antiguo es un sitio web, más “humana” suele ser la huella que deja. A mediados de la década de 2010, muchas páginas comenzaron a inflarse con contenido automatizado para mejorar su posicionamiento en buscadores. Hoy, en cambio, proliferan textos generados a escala masiva por modelos de lenguaje, lo que los autores llaman la “era del slop”. En este contexto, la desaparición del 38 % de los sitios de 2013 resulta llamativa, pero buena parte de lo que se pierde en la actualidad son contenidos efímeros y artificiales, creados con fines automatizados y rara vez consultados por personas reales.

Las bibliotecas como guías en el uso ético y comunitario de la inteligencia artificial

Enis, Matt “AI Influencers: Libraries Guiding AI Use.Library Journal, March 20, 2024. https://www.libraryjournal.com/story/news/ai-influencers-libraries-guiding-ai-use

El artículo aborda el creciente impacto de la inteligencia artificial generativa y el papel que pueden tener las bibliotecas para moldear su uso ético y efectivo. Se cita el libro Generative AI and Libraries: Claiming Our Place in the Center of a Shared Future de Chris Rosser y Michael Hanegan, que compara la velocidad de adopción de tecnologías como ChatGPT con la del teléfono o internet, subrayando que la IA “llega para quedarse” y transformará profundamente la sociedad.

Los autores sostienen que las bibliotecas están en una posición privilegiada para intervenir: enseñar sobre la IA, desarrollar competencias necesarias en las comunidades, colaborar con organizaciones locales de ámbito laboral, compartir recursos entre distintas bibliotecas y establecer políticas comunes. Por ejemplo, mencionan que las bibliotecas públicas se verán involucradas en una de las mayores reconversiones laborales de la historia.

Otro tema destacado es la desigualdad de acceso y conocimiento. Dr. Michael Hughes advierte que quienes entienden y tienen acceso a versiones más potentes de las herramientas de IA obtendrán ventajas, agudizando las brechas existentes. Las bibliotecas tienen ya experiencia crítica con IA y la capacidad para guiar a estudiantes y usuarios en un uso responsable.

El artículo también describe ejemplos prácticos de acciones ya en marcha. En Austin (EE.UU.), por ejemplo, la biblioteca pública y las oficinas municipales han promovido políticas de IA y formación profesional para el personal con el fin de asesorar sobre uso ético. Asimismo, la Universidad de Carolina del Norte ha creado un AI Studio en su sistema de bibliotecas, espacio destinado a talleres, diálogo comunitario, cooperación entre facultades y democratización del acceso a herramientas.

Finalmente, se destaca el reto del ritmo acelerado de cambio tecnológico. Las bibliotecas deben mantenerse al día, no solo en cuanto a las herramientas, sino también en los debates sobre implicaciones éticas, equidad, riesgos y desinformación. Se sugiere que el aprendizaje continuo, la colaboración entre bibliotecas, y la creación de políticas institucionales y locales son vías esenciales para que las bibliotecas realmente influyan.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

La dependencia excesiva de la inteligencia artificial (IA) que podría estar erosionando habilidades humanas esenciales

Daws, Ryan. «AI Obsession Is Costing Us Our Human SkillsArtificial Intelligence News, 6 de agosto de 2025. https://www.artificialintelligence-news.com/news/ai-obsession-costing-us-our-human-skills/

Un número creciente de evidencias sugiere que la dependencia excesiva de la inteligencia artificial (IA) podría estar erosionando las habilidades humanas necesarias para usarla de manera efectiva.

Aunque la inversión en IA promete transformar sectores económicos, Daws destaca que sin una inversión paralela en el desarrollo de capacidades humanas como el razonamiento analítico y la creatividad, el potencial de la IA podría no materializarse plenamente. Investigaciones de Multiverse identifican trece habilidades clave que distinguen a los usuarios avanzados de IA, enfocadas en el pensamiento crítico y la reflexión, más allá de la simple interacción técnica con las herramientas.

La advertencia es que, sin cultivar activamente nuestras propias habilidades humanas, esta inversión multimillonaria en IA no solo rendirá por debajo de lo esperado, sino que podría fracasar por completo. Corremos el riesgo de crear un déficit de habilidades humanas que podría lastrar la productividad durante años.

No se trata solo de lo que le pides a la IA, sino de cómo analizas, cuestionas y refinás lo que te devuelve. Tomemos el razonamiento analítico. Es la habilidad humana de examinar un problema complejo y descomponerlo en partes que la IA pueda manejar, pero también la sabiduría para reconocer cuándo una tarea simplemente no es adecuada para una máquina. Se trata de ser el piloto, no solo el pasajero.

De manera similar, la creatividad nos impulsa a experimentar y encontrar formas genuinamente nuevas de usar estas herramientas, en lugar de pedir solo una versión ligeramente mejor de algo que ya existe.

También entran en juego rasgos personales. Habilidades como la determinación (la paciencia de seguir intentando cuando la IA produce resultados deficientes) y la adaptabilidad son necesarias. Cualquiera que haya usado estas herramientas sabe que el éxito a la primera es raro. Se requiere cierta resiliencia y curiosidad profunda para mirar más allá de la respuesta de la IA y verificarla con tu propio conocimiento.

Gary Eimerman, director de aprendizaje en Multiverse, enfatiza que los líderes empresariales deben reconocer que los desafíos actuales no son únicamente tecnológicos, sino también humanos. La falta de atención al desarrollo de habilidades cognitivas y culturales podría generar un déficit de competencias humanas que obstaculizaría la adopción efectiva de la IA y limitaría su impacto positivo en la productividad.

El artículo subraya la necesidad de equilibrar la inversión en IA con el fortalecimiento de las habilidades humanas fundamentales para garantizar una integración exitosa y sostenible de la inteligencia artificial en la sociedad y la economía.

Análisis del uso de Claude: patrones de adopción de la IA en EE. UU. y el mundo

Anthropic. “Anthropic Economic Index: Tracking AI’s Role in the US and Global Economy.” Anthropic Research, 15 de septiembre de 2025. https://www.anthropic.com/research/economic-index-geography

El informe de Anthropic presenta el Economic Index, una herramienta que analiza cómo se utiliza Claude, su modelo de inteligencia artificial, en distintos países y estados de Estados Unidos. El objetivo es ofrecer una visión clara de los patrones tempranos de adopción de la IA y su impacto económico, explorando tanto diferencias geográficas como la evolución en los tipos de tareas realizadas.

A nivel internacional, Estados Unidos lidera el uso total, seguido por India, Brasil, Japón y Corea del Sur. Sin embargo, al ajustar por población activa, países como Israel, Singapur, Australia y Nueva Zelanda muestran niveles de adopción proporcionalmente más altos. El índice revela una fuerte correlación entre el ingreso per cápita y el uso relativo de la IA, con los países de mayor desarrollo económico y conectividad digital a la cabeza.

Dentro de Estados Unidos, el mismo patrón se repite: los estados con mayor PIB per cápita presentan un uso más intensivo de la IA. El Distrito de Columbia lidera el índice estatal, destacando en tareas de edición y búsqueda de información, mientras que California se orienta más hacia la programación y Nueva York hacia las finanzas. Las economías locales influyen en el tipo de tareas: por ejemplo, en Hawái se observan más usos vinculados al turismo.

El estudio también muestra una transición hacia una mayor automatización. Entre diciembre de 2024 y mediados de 2025, las tareas automatizadas directivas crecieron del 27 % al 39 %, mientras que las de colaboración y apoyo (augmentación) disminuyeron. Esto sugiere que los usuarios confían cada vez más en que Claude ejecute tareas con menor supervisión.

Finalmente, se destacan diferencias entre el uso empresarial y el de consumidores. Los clientes de la API —principalmente empresas— priorizan la automatización y las tareas más costosas, como programación y matemáticas, mientras que los usuarios de Claude.ai mantienen un equilibrio mayor entre colaboración y automatización. En conjunto, el informe concluye que la adopción de la IA está marcada por la desigualdad económica, la especialización local y una creciente tendencia hacia la delegación de responsabilidades a los sistemas automatizados.

Acceso inclusivo a la información: guía canadiense sobre copyright y formatos alternativos

Canadian Association of Research Libraries (CARL) y Canadian Federation of Library Associations (CFLA). “CARL and CFLA Release New Guide on the Canadian Copyright Act for Accessible Content.” CARL News, 15 de septiembre de 2025

Texto completo

El documento busca ofrecer una visión clara y práctica de la legislación canadiense en materia de derechos de autor, centrada en el acceso, la producción y la distribución de contenidos accesibles para personas con discapacidades perceptuales

La publicación explica cómo se aplican las disposiciones vigentes, incluye un listado de verificación de requisitos legales, recopila buenas prácticas, ofrece recomendaciones para situaciones cotidianas y propone medidas para reducir barreras de acceso. También incorpora un glosario de términos clave que facilita la comprensión del marco legal (carl-abrc.ca).

El material está dirigido principalmente a productores de formatos alternativos, bibliotecas, archivos, museos, galerías, instituciones educativas y organizaciones que trabajan con personas con discapacidades perceptuales. Sin embargo, resulta igualmente útil para titulares de derechos que deseen conocer en detalle la normativa aplicable (carl-abrc.ca).

La guía subraya la necesidad de lograr una mayor coordinación entre quienes crean contenidos accesibles y los propietarios de derechos, con el fin de garantizar que toda la ciudadanía canadiense pueda acceder en igualdad de condiciones a la información y la cultura. Además, constituye la primera publicación conjunta de CARL y CFLA disponible también en formato EPUB, lo que amplía su nivel de accesibilidad.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.