Archivo de la etiqueta: Inteligencia artificial

ChatGPT en cifras: más uso personal que profesional

Dellinger, AJ. “OpenAI Reveals How (and Which) People Are Using ChatGPT.Gizmodo, 15 de septiembre de 2025. https://gizmodo.com/openai-how-people-use-chatgpt-2000658906

OpenAI, en colaboración con el National Bureau of Economic Research (NBER), publicó un estudio reciente que revela cómo la gente está usando ChatGPT, descubriendo que la mayor parte del uso no es profesional sino personal. Aproximadamente el 80 % de todas las interacciones con ChatGPT se agrupan en tres grandes categorías: guía práctica (como tutorías, consejos sobre cómo hacer las cosas o generación de ideas creativas), búsqueda de información, y escritura (redacción, edición, traducción entre otros).

En cuanto al uso profesional, el informe muestra que la escritura constituye el tipo de uso laboral más común — alrededor del 40 % de los mensajes relacionados con trabajo — mientras que la programación representa solo un 4.2 %. Además, ha habido un cambio notable: en junio de 2024 casi la mitad de los mensajes (47 %) estaban relacionados con el trabajo, pero para mediados de 2025 este porcentaje había caído a cerca del 27 %, lo que refleja un aumento de las interacciones de índole personal, que subieron al 73 % de los mensajes.

Otro hallazgo interesante tiene que ver con los usos emocionales o sociales: aunque representan una pequeña parte del total, algunas personas usan ChatGPT como especie de apoyo emocional o compañía. Solo alrededor del 2 % de los mensajes son para eso; unas 0.4 % implican reflexiones personales o conversaciones sobre relaciones.

También se aprecia un cambio demográfico en los usuarios. Los más jóvenes (18-25 años) son quienes más utilizan ChatGPT para fines personales. En cuanto al género, se observa un cierre de la brecha: en 2022, la gran mayoría de los usuarios frecuentes tenían nombres identificados como masculinos (~80 %), pero para junio de 2025 ese porcentaje ha bajado hasta el 48 %, acercándose a la paridad con los supuestos usuarios con nombres “femeninos”.

Cómo ven los estadounidenses el impacto de la inteligencia artificial en la sociedad

Kennedy, Brian; Eileen Yam; Emma Kikuchi; Isabelle Pula; Javier Fuentes. How Americans View AI and Its Impact on People and Society. Pew Research Center, 17 septiembre 2025. https://www.pewresearch.org/science/2025/09/17/how-americans-view-ai-and-its-impact-on-people-and-society/

El informe del Pew Research Center, basado en una encuesta nacional realizada a más de cinco mil adultos en junio de 2025, ofrece una radiografía de cómo los estadounidenses perciben el impacto de la inteligencia artificial en la sociedad. Casi la totalidad de los encuestados afirma haber oído hablar de la IA, lo que revela el nivel de penetración del concepto en la cultura general. Sin embargo, ese conocimiento no se traduce necesariamente en entusiasmo: predominan las reservas, las dudas y una sensación de inquietud ante la velocidad de los cambios tecnológicos.

La mayoría de los participantes señalan que se siente más preocupados que esperanzados respecto a la expansión de la IA en la vida cotidiana. Concretamente, la mitad de los encuestados declara experimentar más ansiedad que ilusión frente a estos avances, mientras que solo una pequeña minoría expresa una actitud mayoritariamente optimista. Esta percepción se refleja en el balance entre riesgos y beneficios: más del 50 % cree que los riesgos sociales asociados al desarrollo de la IA son elevados, frente a apenas una cuarta parte que considera igual de significativos los beneficios.

En el ámbito de las capacidades humanas, los encuestados tienden a pensar que la IA puede deteriorar más que potenciar habilidades esenciales. Muchos temen que la creatividad individual, la capacidad de pensamiento crítico y las relaciones interpersonales puedan verse mermadas en un contexto donde las máquinas asumen un papel cada vez más protagónico. Aunque existe un sector que reconoce que la IA puede aportar ventajas en la resolución de problemas complejos, el pesimismo sigue siendo mayoritario.

Donde sí se observa una mayor aceptación es en los usos más técnicos y analíticos de la IA. La ciudadanía se muestra más abierta a su incorporación en campos como la predicción meteorológica, la detección de fraudes financieros o la investigación médica. Sin embargo, rechaza con contundencia la idea de que la inteligencia artificial sustituya a las personas en esferas íntimas y de carácter moral o emocional, como el acompañamiento religioso, la terapia psicológica o la búsqueda de pareja. La distinción entre lo “técnico” y lo “humano” resulta clave: los estadounidenses parecen dispuestos a confiar en los algoritmos cuando se trata de cálculos y datos, pero no cuando se trata de valores, creencias o vínculos afectivos.

Otro hallazgo relevante del estudio es la preocupación por la transparencia en la producción de contenidos. Una gran mayoría considera imprescindible que exista un mecanismo claro para diferenciar el material generado por humanos del producido por sistemas de IA. No obstante, al mismo tiempo, muchos reconocen sentirse incapaces de identificar esa diferencia por sí mismos, lo que genera un clima de desconfianza e incertidumbre. La demanda de regulación y control externo aparece aquí con fuerza, como una forma de proteger tanto la integridad de la información como la autonomía de los individuos frente a una tecnología que, en gran medida, aún se percibe como opaca.

En conjunto, los resultados muestran una ciudadanía dividida entre la aceptación pragmática de la IA en campos de utilidad pública y la resistencia a su penetración en aspectos más personales y sociales. Estados Unidos se encuentra, por tanto, en una fase de negociación cultural: la inteligencia artificial ya forma parte del día a día, pero todavía despierta más temores que entusiasmos. Entre el escepticismo, la cautela y la esperanza, los estadounidenses reclaman garantías de seguridad, transparencia y regulación antes de conceder a la IA un papel más central en la vida social.

Datos clave:

  • Conocimiento generalizado: 95 % de los adultos en EE. UU. ha oído hablar de la inteligencia artificial.
  • Preocupación vs entusiasmo: 50 % se siente más preocupado que ilusionado por la IA; solo 10 % está más entusiasmado; 38 % tiene sentimientos mixtos.
  • Riesgos vs beneficios sociales: 57 % percibe altos riesgos sociales; apenas 25 % percibe altos beneficios.
  • Deseo de control: ~60 % quiere más control sobre cómo la IA afecta sus vidas; solo 17 % está conforme con el control actual.
  • Creatividad: 53 % cree que la IA empeorará la capacidad de pensar creativamente; 16 % piensa que la mejorará.
  • Relaciones humanas: 50 % cree que la IA empeorará la capacidad de formar relaciones significativas; solo 5 % dice que la mejorará.
  • Resolución de problemas: 38 % cree que la IA lo empeorará; 29 % que lo mejorará.
  • Toma de decisiones difíciles: 40 % opina que la IA empeorará esta capacidad; 19 % que la mejorará.Transparencia en contenidos: 76 % cree que es muy importante distinguir entre contenido humano y generado por IA; 53 % no confía en poder hacerlo.
  • Aceptación de roles técnicos: mayoría apoya IA en pronósticos meteorológicos (74 %), detección de fraudes financieros (70 %), control de ayudas gubernamentales (70 %) y desarrollo de medicamentos (66 %).
  • Rechazo en roles íntimos/morales: 73 % rechaza que la IA aconseje sobre fe; 66 % rechaza que evalúe compatibilidad romántica.
  • Edad: jóvenes menores de 30 años son más propensos a pensar que la IA empeorará la creatividad (61 %) y las relaciones (58 %), más que los mayores.
  • Educación: 73 % considera importante que la población entienda qué es la IA; la cifra sube entre personas con estudios universitarios.

Inteligencia artificial y enseñanza universitaria: desafíos, riesgos y oportunidades según la AAUP

AAUP. Artificial Intelligence and Academic Professions. American Association of University Professors, 2025

Texto completo

El informe Artificial Intelligence and Academic Professions de la American Association of University Professors (AAUP) analiza de manera exhaustiva el impacto potencial de la inteligencia artificial (IA) en la educación superior y en las profesiones académicas.

El documento subraya que la adopción de la IA en entornos universitarios no debe ser meramente instrumental o tecnológica, sino que requiere un enfoque crítico, ético y participativo. Los autores advierten que el uso indiscriminado de la IA podría alterar la naturaleza misma del trabajo académico, afectando tanto la autonomía profesional como la libertad académica.

Uno de los puntos centrales del informe es que la IA puede automatizar numerosas tareas docentes y administrativas, desde la corrección de exámenes hasta la generación de materiales educativos o la asistencia en la investigación. Si bien esto puede aumentar la eficiencia, también existe un riesgo significativo de deshumanización de la educación, pérdida de empleos y precarización laboral. La AAUP enfatiza que las herramientas de IA no deben reemplazar la labor humana, sino complementarla, asegurando que el juicio, la experiencia y la creatividad de los académicos sigan siendo insustituibles en la enseñanza y la investigación.

El informe también aborda la participación activa del profesorado en la implementación de estas tecnologías. La AAUP recomienda que las universidades involucren a docentes y personal académico en la selección, supervisión y evaluación de herramientas de IA, evitando decisiones unilaterales por parte de la administración. Esto se considera clave para proteger la integridad académica, garantizar la transparencia en los procesos y fomentar un uso responsable de los datos estudiantiles y de investigación.

Otro tema destacado es el impacto ético y social de la IA en la educación superior. Los académicos deben cuestionar cómo estas tecnologías pueden reproducir sesgos, afectar la equidad educativa y cambiar la naturaleza de la interacción docente-estudiante. El informe enfatiza la necesidad de políticas institucionales claras que promuevan un enfoque ético, incluyendo la protección de la privacidad, la equidad en el acceso y la transparencia en la toma de decisiones algorítmicas.

Por último, el informe de la AAUP subraya que la IA representa tanto oportunidades como desafíos. Por un lado, puede facilitar la enseñanza personalizada, optimizar procesos administrativos y apoyar la investigación. Por otro, plantea riesgos significativos si se implementa sin supervisión ni participación académica. La recomendación final es que las universidades adopten un enfoque equilibrado, reflexivo y regulado, donde la innovación tecnológica se integre respetando los valores fundamentales de la educación superior y la profesionalidad de los docentes.

¿Logrará la IA superar el umbral del pensamiento humano?

Nosta, John. “AI’s Cognitive March Toward Thought.Psychology Today, June 21, 2025. https://www.psychologytoday.com/us/blog/the-digital-self/202506/ais-cognitive-march-toward-thought

La inteligencia artificial (IA) se aproxima a lo que entendemos como pensamiento humano, aunque sin alcanzarlo completamente. Utilizando la analogía matemática de una serie que se acerca infinitamente a un valor sin llegar a él.

Los modelos de lenguaje a gran escala (LLMs) simulan el razonamiento paso a paso, pero su lógica es predictiva, no secuencial como la humana. Modelos recientes emplean el concepto de “pensamiento continuo”, que permite considerar múltiples caminos de razonamiento simultáneamente antes de colapsar en una sola respuesta, lo que mejora la eficiencia en la resolución de problemas complejos.

Aunque la IA se aproxima cada vez más a lo que podríamos llamar pensamiento humano en apariencia, la brecha entre simulación y cognición real persiste. La analogía matemática de la asintota ilustra cómo la IA se acerca infinitamente a la cognición humana, pero nunca la alcanza: sus capacidades se parecen cada vez más al razonamiento, pero no implican conciencia, intención ni experiencia subjetiva.

El autor advierte sobre el riesgo de atribuir cualidades humanas a sistemas que, aunque sofisticados, siguen siendo herramientas de manipulación semántica a gran escala. La tentación de considerar estos sistemas como inteligentes o incluso conscientes puede llevar a malentendidos y expectativas erróneas sobre sus capacidades.

Este comportamiento plantea un desafío filosófico y social: aunque los sistemas puedan parecer pensantes y generar respuestas confiables o incluso convincentes, siguen siendo herramientas de manipulación semántica a gran escala. La ilusión de cognición puede llevar a interpretaciones erróneas sobre su inteligencia o supuesta conciencia, pero la distinción entre apariencia de razonamiento y pensamiento real es crucial.

Se invita a reflexionar sobre la naturaleza de la cognición y la inteligencia, reconociendo los avances de la IA sin caer en la ilusión de que ha alcanzado el pensamiento humano genuino. La diferencia fundamental radica en que, mientras la IA puede simular el razonamiento, solo los seres humanos lo viven y lo experimentan.

Teoría de la muerte de Internet: gran parte de la web está dominada por bots y contenido generado automáticamente

Hindy, Joe. “What Is the Dead Internet Theory? Zombie Internet Might Be a More Accurate Term.” Mashable, September 6, 2025. https://mashable.com/article/what-is-dead-internet-theory

La Dead Internet Theory sostiene que desde 2016 gran parte de la web está dominada por bots y contenido generado automáticamente, manipulado por algoritmos. Sus defensores creen que se usan para influir en el consumo y en la opinión pública, incluso por parte de gobiernos.

Dead Internet Theory (Teoría del Internet Muerto) postula que gran parte del contenido y la actividad en la web ya no proviene de seres humanos auténticos, sino de bots, cuentas automatizadas, contenido generado por IA y mecanismos algorítmicos diseñados para maximizar la participación (likes, clics, compartidos), muchas veces sin intervención humana real.

Según esta perspectiva, no solo se crean publicaciones automatizadas, sino que también las cuentas que interactúan con ellas (comentando, reaccionando, compartiendo) pueden estar controladas por IA, lo que produce una retroalimentación artificial de contenido. Esto habría generado un ciclo donde los algoritmos, motores de búsqueda y plataformas sociales priorizan lo que atrae métricas, no lo que es auténtico o humano.

Un ejemplo citado en fuentes relacionadas es el fenómeno de «Shrimp Jesus» — imágenes generadas por IA que combinan iconografía religiosa con absurdos visuales, que terminan haciéndose virales en redes sociales. Estas tendencias ilustran cómo contenido sin una lógica humana clara puede ganar tracción por su capacidad de generar reacción, no necesariamente por su valor informativo o cultural.

También se discute la implicación política y social de esta teoría: no se trata solo de curiosidad o fenómenos virales, sino de una posible manipulación de la opinión pública, desinformación, propaganda, o de estructuras de monetización que se benefician más de la atención que de la verdad. En algunos estudios se estima que casi la mitad del tráfico de internet podría estar generado por bots u operaciones automatizadas, lo que refuerza los temores de que lo que percibimos como conversación humana puede estar mediado o construido por sistemas no humanos.

Al mismo tiempo, los expertos señalan que muchos elementos de la teoría son especulativos o conjeturales. Si bien hay evidencias de aumento en contenido generado por IA, mayor uso de bots, y prácticas de engagement fraudulento o artificial, no hay consenso de que la “internet esté muerta” en el sentido literal que algunos proponentes afirman. La teoría sirve más como un lente crítico: nos permite pensar en hasta qué punto la autenticidad humana todavía está presente en nuestras interacciones en línea, y cómo se están transformando las dinámicas de visibilidad, verdad y confianza en la red.

Las bibliotecas como guías en el uso ético y comunitario de la inteligencia artificial

Enis, Matt “AI Influencers: Libraries Guiding AI Use.Library Journal, March 20, 2024. https://www.libraryjournal.com/story/news/ai-influencers-libraries-guiding-ai-use

El artículo aborda el creciente impacto de la inteligencia artificial generativa y el papel que pueden tener las bibliotecas para moldear su uso ético y efectivo. Se cita el libro Generative AI and Libraries: Claiming Our Place in the Center of a Shared Future de Chris Rosser y Michael Hanegan, que compara la velocidad de adopción de tecnologías como ChatGPT con la del teléfono o internet, subrayando que la IA “llega para quedarse” y transformará profundamente la sociedad.

Los autores sostienen que las bibliotecas están en una posición privilegiada para intervenir: enseñar sobre la IA, desarrollar competencias necesarias en las comunidades, colaborar con organizaciones locales de ámbito laboral, compartir recursos entre distintas bibliotecas y establecer políticas comunes. Por ejemplo, mencionan que las bibliotecas públicas se verán involucradas en una de las mayores reconversiones laborales de la historia.

Otro tema destacado es la desigualdad de acceso y conocimiento. Dr. Michael Hughes advierte que quienes entienden y tienen acceso a versiones más potentes de las herramientas de IA obtendrán ventajas, agudizando las brechas existentes. Las bibliotecas tienen ya experiencia crítica con IA y la capacidad para guiar a estudiantes y usuarios en un uso responsable.

El artículo también describe ejemplos prácticos de acciones ya en marcha. En Austin (EE.UU.), por ejemplo, la biblioteca pública y las oficinas municipales han promovido políticas de IA y formación profesional para el personal con el fin de asesorar sobre uso ético. Asimismo, la Universidad de Carolina del Norte ha creado un AI Studio en su sistema de bibliotecas, espacio destinado a talleres, diálogo comunitario, cooperación entre facultades y democratización del acceso a herramientas.

Finalmente, se destaca el reto del ritmo acelerado de cambio tecnológico. Las bibliotecas deben mantenerse al día, no solo en cuanto a las herramientas, sino también en los debates sobre implicaciones éticas, equidad, riesgos y desinformación. Se sugiere que el aprendizaje continuo, la colaboración entre bibliotecas, y la creación de políticas institucionales y locales son vías esenciales para que las bibliotecas realmente influyan.

¿Estamos construyendo nuestra propia destrucción con la inteligencia artificial?

Levy, Steven. «The Doomers Who Insist AI Will Kill Us AllWired, 5 de septiembre de 2025. https://www.wired.com/story/the-doomers-who-insist-ai-will-kill-us-all/

Las sombrías predicciones de Eliezer Yudkowsky y Nate Soares, quienes advierten que la inteligencia artificial superhumana representa una amenaza existencial para la humanidad. Su libro, If Anyone Builds It, Everyone Dies, sostiene que una vez que la IA supere la inteligencia humana, desarrollará preferencias propias que no se alinearán con los intereses humanos, viéndonos como obstáculos a eliminar.

Según los autores, la IA superhumana representa una amenaza existencial para la humanidad, y el subtítulo de su próximo libro, If Anyone Builds It, Everyone Dies, subraya que esta tecnología “mataría a todos los humanos” si no se toman medidas preventivas. El artículo señala que, incluso los propios autores no confían en que la sociedad tome las decisiones necesarias para evitar la catástrofe, lo que genera un tono extremadamente oscuro en su obra, comparado con notas escritas en la víspera de una ejecución.

Los comentaristas advierten que, aunque existe una probabilidad significativa —alrededor del 10% o más— de que estas predicciones sean correctas, el tema no ocupa un lugar central en el debate público. Esto se atribuye a una combinación de desinformación, desinterés y una orientación económica de los líderes actuales, así como a la influencia de ejecutivos tecnológicos que promueven la innovación sin considerar los riesgos potenciales. El artículo denuncia que el mundo está dominado por individuos egoístas y poderosos, cuya conducta aumenta la posibilidad de que la humanidad enfrente consecuencias catastróficas si no se gestionan adecuadamente los avances en IA.

Asimismo, se examinan las críticas a la perspectiva “doomer” de la IA. Algunos expertos consideran que este enfoque exagera la amenaza y refleja más la visión pesimista y misantrópica de sus proponentes que un análisis objetivo. Se discute que, aunque la superinteligencia podría actuar de manera hostil, también es posible que simplemente nos ignore, dado que no necesariamente comparte nuestras motivaciones ni emociones humanas. Se plantean escenarios alternativos, desde una automatización gradual de la economía que escape al control humano hasta el uso de la IA por dictadores como superarma, que llevaría a una autodestrucción indirecta de la humanidad.

El artículo concluye que la verdadera preocupación no reside únicamente en la intención de la IA, sino en la enorme incertidumbre sobre cómo se desarrollará esta tecnología y en cómo la humanidad responde a ella. La existencia de riesgos serios exige una discusión pública informada y regulaciones responsables, además de un enfoque equilibrado que considere tanto los beneficios de la IA como las posibles consecuencias catastróficas de su mal uso. En este contexto, los autores destacan la necesidad de estar preparados para escenarios extremos, aunque algunos escépticos sugieren que la exageración de los apocalípticos también puede reflejar motivaciones de autopromoción o fascinación por la ciencia ficción.

La dependencia excesiva de la inteligencia artificial (IA) que podría estar erosionando habilidades humanas esenciales

Daws, Ryan. «AI Obsession Is Costing Us Our Human SkillsArtificial Intelligence News, 6 de agosto de 2025. https://www.artificialintelligence-news.com/news/ai-obsession-costing-us-our-human-skills/

Un número creciente de evidencias sugiere que la dependencia excesiva de la inteligencia artificial (IA) podría estar erosionando las habilidades humanas necesarias para usarla de manera efectiva.

Aunque la inversión en IA promete transformar sectores económicos, Daws destaca que sin una inversión paralela en el desarrollo de capacidades humanas como el razonamiento analítico y la creatividad, el potencial de la IA podría no materializarse plenamente. Investigaciones de Multiverse identifican trece habilidades clave que distinguen a los usuarios avanzados de IA, enfocadas en el pensamiento crítico y la reflexión, más allá de la simple interacción técnica con las herramientas.

La advertencia es que, sin cultivar activamente nuestras propias habilidades humanas, esta inversión multimillonaria en IA no solo rendirá por debajo de lo esperado, sino que podría fracasar por completo. Corremos el riesgo de crear un déficit de habilidades humanas que podría lastrar la productividad durante años.

No se trata solo de lo que le pides a la IA, sino de cómo analizas, cuestionas y refinás lo que te devuelve. Tomemos el razonamiento analítico. Es la habilidad humana de examinar un problema complejo y descomponerlo en partes que la IA pueda manejar, pero también la sabiduría para reconocer cuándo una tarea simplemente no es adecuada para una máquina. Se trata de ser el piloto, no solo el pasajero.

De manera similar, la creatividad nos impulsa a experimentar y encontrar formas genuinamente nuevas de usar estas herramientas, en lugar de pedir solo una versión ligeramente mejor de algo que ya existe.

También entran en juego rasgos personales. Habilidades como la determinación (la paciencia de seguir intentando cuando la IA produce resultados deficientes) y la adaptabilidad son necesarias. Cualquiera que haya usado estas herramientas sabe que el éxito a la primera es raro. Se requiere cierta resiliencia y curiosidad profunda para mirar más allá de la respuesta de la IA y verificarla con tu propio conocimiento.

Gary Eimerman, director de aprendizaje en Multiverse, enfatiza que los líderes empresariales deben reconocer que los desafíos actuales no son únicamente tecnológicos, sino también humanos. La falta de atención al desarrollo de habilidades cognitivas y culturales podría generar un déficit de competencias humanas que obstaculizaría la adopción efectiva de la IA y limitaría su impacto positivo en la productividad.

El artículo subraya la necesidad de equilibrar la inversión en IA con el fortalecimiento de las habilidades humanas fundamentales para garantizar una integración exitosa y sostenible de la inteligencia artificial en la sociedad y la economía.

Análisis del uso de Claude: patrones de adopción de la IA en EE. UU. y el mundo

Anthropic. “Anthropic Economic Index: Tracking AI’s Role in the US and Global Economy.” Anthropic Research, 15 de septiembre de 2025. https://www.anthropic.com/research/economic-index-geography

El informe de Anthropic presenta el Economic Index, una herramienta que analiza cómo se utiliza Claude, su modelo de inteligencia artificial, en distintos países y estados de Estados Unidos. El objetivo es ofrecer una visión clara de los patrones tempranos de adopción de la IA y su impacto económico, explorando tanto diferencias geográficas como la evolución en los tipos de tareas realizadas.

A nivel internacional, Estados Unidos lidera el uso total, seguido por India, Brasil, Japón y Corea del Sur. Sin embargo, al ajustar por población activa, países como Israel, Singapur, Australia y Nueva Zelanda muestran niveles de adopción proporcionalmente más altos. El índice revela una fuerte correlación entre el ingreso per cápita y el uso relativo de la IA, con los países de mayor desarrollo económico y conectividad digital a la cabeza.

Dentro de Estados Unidos, el mismo patrón se repite: los estados con mayor PIB per cápita presentan un uso más intensivo de la IA. El Distrito de Columbia lidera el índice estatal, destacando en tareas de edición y búsqueda de información, mientras que California se orienta más hacia la programación y Nueva York hacia las finanzas. Las economías locales influyen en el tipo de tareas: por ejemplo, en Hawái se observan más usos vinculados al turismo.

El estudio también muestra una transición hacia una mayor automatización. Entre diciembre de 2024 y mediados de 2025, las tareas automatizadas directivas crecieron del 27 % al 39 %, mientras que las de colaboración y apoyo (augmentación) disminuyeron. Esto sugiere que los usuarios confían cada vez más en que Claude ejecute tareas con menor supervisión.

Finalmente, se destacan diferencias entre el uso empresarial y el de consumidores. Los clientes de la API —principalmente empresas— priorizan la automatización y las tareas más costosas, como programación y matemáticas, mientras que los usuarios de Claude.ai mantienen un equilibrio mayor entre colaboración y automatización. En conjunto, el informe concluye que la adopción de la IA está marcada por la desigualdad económica, la especialización local y una creciente tendencia hacia la delegación de responsabilidades a los sistemas automatizados.

Hasta el 70 % de las escuchas de música en Deezer son realizadas por bots de IA para cobrar regalías

Deezer. “Up to 70% of Streams of AI-Generated Music on Deezer Are Fraudulent, Says Report.The Guardian, 18 junio 2025

Siete de cada diez reproducciones de música generada por inteligencia artificial en la plataforma Deezer son fraudulentas, según la plataforma francesa de streaming.

Un informe reciente de Deezer advierte que hasta el 70 % de las reproducciones de canciones generadas íntegramente por inteligencia artificial (IA) en la plataforma son fraudulentas. Estas escuchas corresponden a bots u otras formas de manipulación destinadas a inflar las cifras y obtener regalías de manera indebida. Aunque las pistas creadas con IA suponen apenas el 0,5 % del total de reproducciones, su presencia es mucho más significativa en el volumen de cargas diarias: alrededor de 20.000 temas al día, lo que representa el 18 % de todas las canciones subidas.

Para hacer frente a esta situación, Deezer asegura disponer de herramientas capaces de identificar con total precisión los contenidos producidos por modelos como Suno y Udio. Los temas detectados como totalmente artificiales se etiquetan de forma explícita, quedan fuera de las recomendaciones algorítmicas y de las listas editoriales, y además, las reproducciones fraudulentas que generan no se contabilizan para el pago de regalías.

Deezer afirmó que la música generada por IA que los estafadores transmitían iba desde pop y rap falsos hasta pistas musicales artificiales que estimulaban el estado de ánimo. La plataforma ha decidido bloquear el pago de regalías por las reproducciones que ha identificado como fraudulentas.

En su último informe global sobre música, la IFPI afirmó que el streaming fraudulento roba dinero que «debería destinarse a artistas legítimos». Añadió que la IA generativa había «exacerbado significativamente» el problema.

El año pasado, el músico estadounidense Michael Smith fue acusado en relación con un plan para crear cientos de miles de canciones generadas por IA y reproducirlas miles de millones de veces, obteniendo 10 millones de dólares en regalías.

Según Thibault Roucou, director de regalías de la compañía, muchas de estas canciones creadas de manera automática carecen de una verdadera motivación artística y responden únicamente al ánimo de lucro mediante la manipulación del sistema.