La música generada por IA ha inundado las grandes plataformas de streaming sin que nadie la haya pedido. Deezer dice detectar 75.000 pistas de IA subidas cada día, y la cifra va a más. Spotify se ha cargado 75 millones de canciones de ese tipo en los últmos doce meses. Y Apple Music reconoce que más de un tercio de todo lo que le llega es «100% IA».
Por qué es importante. No es solo un problema de calidad para el catálogo ni para la reputación de la plataforma, que también, sino un problema económico.
- Spotify, Apple Music y la mayoría de plataformas operan con un modelo de reparto proporcional (pro-rata): cada artista recibe un porcentaje de la bolsa total de royalties equivalente a su cuota de reproducciones.
- Cuantas más canciones de IA acumulen escuchas (aunque sean fraudulentas, generadas por bots) más se diluye lo que cobra un músico real.
Entre líneas. Aunque cada vez se sube más música de este tipo, casi nadie la escucha, al menos a propósito (a veces se cuelan canciones IA en listas de descubrimiento algorítmico). El problema no es la demanda, que no existe, sino la cantidad bestial y al alza que distorsiona los algoritmos y erosiona los ingresos de los artistas reales aunque sus canciones sigan siendo las que la gente sí quiere escuchar.
Alguien está subiendo música que nadie pide para cobrar un dinero que no merece porque las escuchan llegan vía bots. Y eso es dinero que deja de ganar el artista real.
El trasfondo. El caso más extremo, al menos documentado hasta ahora, ha sido el de Michael Smith, un empresario estadounidense que entre 2017 y 2024 generó más de 10 millones de dólares en royalties usando Suno y otras herramientas para crear cientos de miles de canciones y ejércitos de bots para reproducirlas automáticamente.
Aquel fue el primer caso de fraude de streaming con IA procesado penalmente en Estados Unidos. Según la acusación, llegó a acumular 660.000 reproducciones al día. Mil millones de reproducciones y cero fans.
Sí, pero. Las plataformas ya están haciendo frente a esta oleada. Deezer ha sido la más agresiva: ha implementado detección automática de IA, excluye esas canciones de las recomendaciones algorítmicas y ha desmonetizado el 85% de sus reproducciones. Bandcamp ha prohibido directamente la música generada por IA. Apple Music ha empezado a desplegar sus ‘Transparency Tags‘ (de momento, opcionales), y Spotify ha lanzado un sello de verificación ‘Verified by Spotify‘ para garantizar que hay un humano detrás de cada perfil de artista.
El problema es que tanto Spotify como Apple han apostado por sistemas voluntarios: son los sellos y distribuidoras quienes deben declarar si han usado IA. Nadie que viva del fraude va a hacerlo. Hay una distinción importante:
- Una cosa es que un músico use IA como herramienta dentro de su proceso creativo (para afinar una letra, generar una base, experimentar con sonidos…) y otra muy distinta es que una canción entera salga de Suno o equivalente con un par de prompts y sin intervención humana real.
- Las plataformas, de momento, no distinguen entre una cosa y otra.
Y Spotify ha dejado además una puerta abierta al señalar que «el concepto de autenticidad artística es complejo y evoluciona rápidamente», lo que en la práctica significa que los artistas de IA podrían acabar siendo verificados algún día.
Imagen destacada | Xataka
–
La noticia
Spotify y Apple Music tienen un problemón con la música generada por IA. Y los músicos de verdad lo están pagando
fue publicada originalmente en
Xataka
por
Javier Lacort
.
Fuente: www.xataka.com







