D’ora in poi la voce di Darth Vader sarà creata con l’intelligenza artificiale.

Dopo che Earl Jones ha firmato un contratto con la Disney, la società di media sarà in grado di replicare la sua voce grazie all’intelligenza artificiale.. Questo è ciò che dicono da Vanity Fairdove si afferma anche che tale accordo è avvenuto durante la trasmissione della serie Obi-Wan Kenobi.

Per replicare la voce di Jones, Disney utilizza un modello di intelligenza artificiale chiamato Respeecher. In questo modo, possono imitare la voce dell’attore, senza che questi debba dire una sola parola. Un’impresa che spaventa gli attori di Paesi come gli Stati Uniti, dove le aziende utilizzano le loro voci senza pagarle un centesimo.

James Earl Jones, dal canto suo, ha ormai 91 anni. Durante questo periodo, è riuscito a partecipare come Darth Vader a produzioni legate a Guerre stellari per 45 annia partire dal 1977 con Star Wars: Episodio IV – Una nuova speranza. La sua ultima apparizione nel franchise è stata nel 2019, con Star Wars: Episodio IX – L’ascesa di Skywalker..

“Mi ha accennato che stava valutando la possibilità di eliminare questo particolare personaggio”, racconta l’attrice. Vanity Fair Matthew Wood, supervisore del montaggio del suono presso la Lucasfilm. Aggiunge anche la domanda: “Come possiamo quindi andare avanti?“.

La magia di Respeecher, l’intelligenza artificiale in grado di imitare la vostra voce.

Respeecher è un prodotto basato sull’intelligenza artificiale creato da un’azienda ucraina. Grazie al deep learning, è in grado di replicare le voci umane in modo quasi indistinguibile dalle versioni reali.. Inoltre, non è la prima volta che Lucasfilm utilizza questa tecnologia in una delle sue produzioni. Lo hanno già fatto con la voce di Mark Hamill in Il Mandalorianoe ora intendono portare la loro versione di Darth Vader su altri prodotti.

LEGGI  NVIDIA vanta prestazioni DLSS 3, una tecnologia esclusiva della nuova RTX 4000

Come funziona Respeecher e come riesce a imitare le voci degli altri? Beh, per ora, sappiamo che questa intelligenza artificiale utilizza un record di registrazioni precedenti della voce di James Earl Jones.. In questo modo, può creare un modello vocale che può essere interpretato dalla voce di un altro attore. Come se fosse il famoso metodo di autotune utilizzati nell’industria musicale. Questa tecnologia viene definita Da discorso a discorsoo speech-to-speech.

Nonostante sia una delle più importanti, Respeecher non è l’unica tecnologia in grado di raggiungere questo obiettivo. Sono in fase di sviluppo altri modelli open source, come Koe Recast. Questa IA si sta diffondendo sempre di più e, nel farlo, diventa anche più pericolosa.. Sia per la sicurezza del lavoro dei doppiatori e degli attori, sia per una nuova area grigia nella legge sul copyright.

Fortunatamente, Respeecher è ben protetto da questo punto di vista. Nell’etica dell’azienda si afferma che non è consentito l’uso ingannevole dei propri programmi, compreso l’uso di voci senza l’autorizzazione della persona in questione. Tuttavia, è improbabile che lo stesso possa essere garantito quando tale IA viene replicata su larga scala.ed è qui che avremo bisogno di leggi aggiornate per affrontare i potenziali problemi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *