
Immagine generata con Grok
Foglio AI
Quando l'artista diventa algoritmo, la musica cambia pelle
Dai brani fake alle band create dall’AI. Alcuni artisti protestano in silenzio, altri si alleano con le macchine
C’è un brano che si chiama Don’t Tap the Glass. Suona come un classico pezzo di Tyler, The Creator: beat pulito, voce familiare, atmosfera malinconica. Il problema è che non è di Tyler, The Creator. E nemmeno di un suo fan. E’ un pezzo interamente creato da un’intelligenza artificiale. Una copia perfetta – o quasi – che per qualche giorno ha ingannato migliaia di ascoltatori prima che si scoprisse il trucco.
Non è un caso isolato. Nella stessa settimana, su Spotify, ha raggiunto oltre un milione di ascoltatori mensili una band chiamata Velvet Sundown. Solo che Velvet Sundown non esiste. O meglio: esiste solo nei circuiti di un computer. La musica, la voce, le foto del gruppo, persino la bio: tutto prodotto da AI generativa. Nessun membro umano. Nessun live. Eppure un successo virale.
La notizia ha fatto il giro del mondo. Qualcuno si è indignato. Qualcuno ha parlato di truffa. Qualcuno si è limitato a godersi la musica, indipendentemente da chi (o cosa) l’avesse composta. Ma la domanda resta: ci importa ancora chi c’è dietro a una canzone? La verità è che la rivoluzione musicale dell’AI è già cominciata. E si muove su tre fronti: la creazione, l’imitazione e la proprietà.
Partiamo dalla creazione. Oggi esistono software come Suno, Udio, Hookpad Aria, capaci di comporre brani interi partendo da pochissimi input: un testo, un genere, un’immagine. C’è chi li usa per scrivere canzoni inedite in pochi minuti. C’è chi li impiega come assistenti: suggeriscono una melodia, un’armonia, un contrappunto. E c’è chi li teme, perché abbassano l’ingresso nel mercato musicale a chiunque abbia un computer. Non c’è bisogno di suonare. Né di cantare. Né, forse, di vivere davvero certe emozioni. Alcuni produttori stanno già usando l’AI per testare idee prima di investire tempo e risorse in una sessione di registrazione. Funziona come un bozzetto sonoro: l’AI propone e l’umano rifinisce. Altri, invece, pubblicano direttamente i brani generati, scommettendo sul fatto che il pubblico non farà troppe domande. In Corea del sud è nato un intero genere “AI pop”, con idol virtuali e hit prodotte da algoritmi. Intanto, su TikTok, centinaia di brani virali usano voci sintetiche che imitano quelle di artisti famosi, spesso senza etichettarlo chiaramente. Il confine tra demo, deepfake e hit ufficiale si fa ogni giorno più labile.
Il secondo fronte è quello dell’imitazione. E’ qui che si gioca la partita più inquietante. Perché non si tratta solo di creare musica nuova, ma di usare la voce, lo stile, il timbro di artisti veri – spesso senza consenso. Dopo il caso Tyler, è emersa un’altra storia clamorosa: un remake vocale della canzone Saiyaara con la voce sintetica del leggendario cantante indiano Kishore Kumar, morto nel 1987. Il brano ha fatto il giro dei social, commosso milioni di persone. Ma il figlio del cantante ha detto no: “E’ una mancanza di rispetto. Nessuno ha chiesto il permesso.”
La terza questione, la più delicata, è quella economica e legale. L’AI ha bisogno di dati per imparare. Per suonare “umano”, deve ascoltare moltissima musica umana. E qui nasce il problema: chi ha dato il consenso? Con che diritti? Le grandi major – Sony, Warner, Universal – hanno già fatto causa a diverse aziende accusandole di usare milioni di brani protetti da copyright per addestrare i loro modelli senza alcuna licenza.
Nel frattempo, gli artisti si muovono. Non solo protestano: firmano. Elton John, Dua Lipa, Paul McCartney, Zayn, Peter Frampton, i R.E.M., le Haim: oltre 400 musicisti hanno sottoscritto una lettera per chiedere al Congresso americano una legge chiara che vieti l’uso non autorizzato della propria voce e del proprio stile da parte delle AI. In Inghilterra, invece, è uscita una compilation provocatoria dal titolo Is This What We Want? – dodici tracce di silenzio. Una forma di protesta contro le nuove proposte legislative che permetterebbero l’uso indiscriminato di opere musicali per addestrare intelligenze artificiali. Mille artisti hanno aderito. Silenzio contro l’imitazione.
Eppure, non tutti gli artisti vedono l’AI come un nemico. Imogen Heap, cantautrice e produttrice britannica, ha sviluppato una sua controfigura algoritmica: Mogen. La usa per remix, collaborazioni, esperimenti. In un’intervista ha spiegato che l’AI può essere uno specchio, non un sostituto: “Dipende da come la programmi. E’ uno strumento, non un’anima.”
Lo stesso Nick Cave, cantore dell’apocalisse e noto detrattore dell’intelligenza artificiale, ha avuto un momento di apertura. Dopo aver visto un videoclip creato da un progetto AI, con un Elvis ricostruito che canta Tupelo, Cave ha ammesso: “E’ disturbante, sì. Ma anche spirituale. Mi ha fatto pensare. Forse l’AI può dire qualcosa di vero, se usata bene.” Il punto, oggi, non è stabilire se l’intelligenza artificiale sia buona o cattiva. E’ capire come vogliamo che entri nella musica. Per fare cosa? Per sostituire gli esseri umani? O per aiutarli a esprimersi in modi nuovi?
Perché è vero che l’AI può fare un beat in tre secondi. Ma può scrivere Ziggy Stardust? Può immaginare Like a Rolling Stone? Può trasformare il dolore di un’intera generazione in un urlo come Smells Like Teen Spirit? Forse no. O forse sì, ma solo se noi glielo insegniamo. E allora torniamo alla domanda iniziale: ci importa ancora sapere chi c’è dietro una canzone? Per alcuni, la risposta è no. Se il pezzo ti fa ballare, va bene. Se ti rilassa, meglio. Se funziona, funziona. Per altri, invece, la musica è relazione. E’ corpo, è storia, è rischio. E’ il respiro prima di un verso. E’ l’imperfezione che commuove. Ed è proprio quello che, almeno per ora, l’intelligenza artificiale non sa simulare: l’essere vivi.