Steve Downes, la voce dietro il leggendario protagonista della serie Halo , Master Chief, si è fatto avanti di recente e ha dichiarato di sentirsi a disagio con le numerose riproduzioni della sua voce da parte dell'IA, affermando che "superano una linea che entra in un'area che mi mette a disagio" Naturalmente, come la maggior parte dei VA il cui lavoro viene essenzialmente duplicato senza compenso, vuole che si fermi.
Ha espresso le sue preoccupazioni in un recente AMA di sul suo canale YouTube. Mentre Downes ha affermato i benefici dell'IA e i suoi inevitabili vantaggi, ha criticato l'uso non autorizzato della sua voce, che inganna i fan facendo credere loro di ascoltare battute registrate da lui stesso.
Nell'AMA, ha spiegato:
Una delle cose che può essere travolgente quando si tratta di attenzione da parte dei fan è quando l'AI viene coinvolta. In gran parte è innocuo, suppongo, ma in parte non può essere innocuo. Sono stato molto esplicito riguardo ai miei sentimenti sull'uso dell'intelligenza artificiale, che, da un lato, è inevitabile e ha molti effetti positivi non solo sul mondo dello spettacolo, ma sull'umanità in generale, ma può anche essere un danno. Può anche essere qualcosa che priva l'attore del suo lavoro.
Downes ha continuato:
Ho sentito alcune cose online in termini di IA e di riproduzione della mia voce che assomiglia alla mia voce che... come ho detto, la maggior parte delle cose che ho visto sono abbastanza innocue, ma non possono essere così in fretta. Quindi, non sono un sostenitore. Non mi piace. Preferirei che non venisse fatto. Ci sono molti progetti fatti dai fan che sono davvero fantastici, fatti con il cuore. Ma quando si arriva alla parte AI e si inganna qualcuno facendo credere, nel mio caso, che queste sono le battute che ho pronunciato in realtà quando non lo sono, è allora che si supera un limite che entra in un'area in cui non mi sento a mio agio. Lo dirò in via ufficiale.
I deepfakes e la mimica vocale sono in aumento e sono diventati quasi indistinguibili negli ultimi anni. La clonazione vocale dell'AI ha superato la "soglia dell'indistinguibilità" Numerosi analisti ed esperti prevedono che nel 2026 si assisterà a un boom di falsi doppiatori generati dall'AI, che aumenteranno il rischio di frode. Questa è già una realtà, dato che persone ignare sono sottoposte a 1.000 chiamate truffa generate dall'AI ogni giorno.
Fonte(i)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones





