Produzione musicale e AI: a che punto siamo?
Google mette le mani sulla musica con l’acquisizione di ProducerAI, piattaforma sostenuta anche dai The Chainsmokers. Tra nuovi strumenti capaci di trasformare parole in brani e artisti come Wyclef Jean che già li abbracciano, l’industria musicale si interroga su confini, copyright e futuro della creatività umana. Non tutti, però, sono pronti a mettersi in ascolto.
Google ha annunciato l'acquisizione di ProducerAI, piattaforma di generazione musicale tramite intelligenza artificiale, che entra a far parte di Google Labs. Non si tratta di un movimento secondario nel panorama tech, ma di una mossa che ridisegna i confini tra creatività umana e macchina nel mondo della produzione musicale. ProducerAI, sostenuta finanziariamente anche dai The Chainsmokers, permette agli utenti di generare brani semplicemente descrivendo a parole ciò che vogliono: basta scrivere qualcosa come "crea un beat lofi" per ottenere un risultato audio immediato.
Il motore che alimenta tutto questo è Lyria 3, il modello di generazione musicale sviluppato da Google DeepMind, capace di trasformare sia testi che immagini in output sonori. Google aveva già annunciato pochi giorni prima dell'acquisizione l'integrazione di Lyria 3 nell'app Gemini ma con ProducerAI il salto qualitativo è evidente: qui l'interazione con il modello AI diventa qualcosa di più simile a un dialogo con un partner creativo vero e proprio. A dirlo è Elias Roman, senior director of Product Management di Google Labs, che descrive l'esperienza in termini entusiastici: ha usato lo strumento per mischiare generi musicali inediti, comporre canzoni di compleanno personalizzate e costruire soundtrack per i propri allenamenti. Un utilizzo quotidiano, domestico, quasi affettuoso della tecnologia, che dice molto su dove si vuole portare questo tipo di strumento.
Tuttavia, la storia diventa ancora più interessante quando entra in scena Wyclef Jean, rapper tre volte vincitore del Grammy, che ha utilizzato proprio Lyria 3 e il Music AI Sandbox di Google per il suo brano "Back From Abu Dhabi". Jean racconta di aver voluto aggiungere il suono di un flauto a una traccia già registrata, e di aver potuto farlo in pochi istanti grazie agli strumenti Google. Jeff Chang, director of Product Management at Google DeepMind, sottolinea come l'uso di questi strumenti non sia affatto meccanico o passivo: richiede cura, selezione, un orecchio critico capace di distinguere ciò che funziona da ciò che non serve. Jean stesso insiste su un concetto fondamentale: nell'era dell'intelligenza artificiale, l'essere umano deve essere il più creativo possibile. La macchina ha accesso a un'informazione infinita, ma l'anima resta esclusivamente umana. Un equilibrio difficile, ma che artisti come lui sembrano già saper gestire con consapevolezza. Il quadro non è però tutto rose e fiori. Una parte significativa del mondo musicale si oppone con forza all'uso dell'AI nella creazione artistica, soprattutto perché i modelli generativi vengono quasi sempre addestrati su materiale protetto da copyright, spesso senza il consenso degli artisti.
Nel 2024 centinaia di musicisti, tra cui Billie Eilish, Katy Perry e Jon Bon Jovi, firmarono una lettera aperta per chiedere alle aziende tecnologiche di non minacciare la creatività umana con questi strumenti. Sul fronte legale, un gruppo di editori musicali ha citato in giudizio Anthropic per tre miliardi di dollari, accusando la società di aver scaricato illegalmente oltre ventimila brani protetti, tra cui spartiti, testi e composizioni. Anthropic era già stata condannata a un risarcimento da un miliardo e mezzo di dollari ad autori i cui libri erano stati usati per il training dei modelli. La legge americana resta comunque ambigua: il giudice federale William Alsup ha stabilito che addestrare un'AI su materiale protetto da copyright è legale, mentre non lo è scaricarlo illegalmente.
Nel frattempo il mercato va avanti. Paul McCartney ha usato sistemi AI di noise reduction per ripulire una vecchia demo a bassa qualità di John Lennon, dando vita al brano "Now and Then", che ha vinto un Grammy nel 2025.
Strumenti come Suno hanno prodotto musica sintetica talmente convincente da scalare le classifiche di Spotify e Billboard. Telisha Jones, trentunenne del Mississippi, ha usato Suno per trasformare la sua poesia nel brano R&B virale "How Was I Supposed to Know", ottenendo un contratto con Hallwood Media da tre milioni di dollari. Il futuro della musica si sta scrivendo adesso, e lo si scrive anche in codice.
