Notebookcheck Logo

YouTube ora chiede agli spettatori di rilevare l'intelligenza artificiale generativa quando valutano i video

Viene mostrato il banner per la valutazione di YouTube AI slop
ⓘ YouTube, Firefly AI
Viene mostrato il banner per la valutazione di YouTube AI slop
Gli spettatori potrebbero presto avere maggiore influenza sulla visibilità e sulla monetizzazione dei video di YouTube. La piattaforma sta richiedendo ad alcuni utenti di etichettare un numero crescente di creazioni sospette come "AI slop". Tuttavia, l'azienda potrebbe anche essere alla ricerca di più dati per migliorare i suoi modelli di AI generativa.

YouTube ha un atteggiamento complicato nei confronti l'intelligenza artificiale generativa. Consente alcuni video prodotti dall'apprendimento automatico sulla piattaforma e ne incoraggia persino l'uso. Tuttavia, l'azienda ha anche giurato di di dare un giro di vite alle frodi dell'AI. È emerso un nuovo sistema di valutazione che chiede agli spettatori di individuare questi contenuti indesiderati.

VidIQ è uno dei numerosi account di social media che hanno notato i pop-up nell'app di Applicazione di YouTube. Il sistema chiede senza mezzi termini: "Ti sembra che questo contenuto sia frutto dell'IA?" o, in alternativa, se l'"IA di bassa qualità" è stata un fattore. Le risposte possibili vanno da "Per niente" a "Estremamente" Al momento, sembra che la nuova strategia sia in una fase di test limitata.

I creatori di contenuti sono liberi di utilizzare strumenti di AI generativa per migliorare i video. Non sono tenuti a registrare voci fuori campofare modifiche o progettare grafici. Purtroppo, un numero crescente di caricamenti viene costruito senza una sufficiente supervisione umana. Anche in questo caso, spesso sono consentiti se non sono considerati di bassa qualità. Altrimenti, i proprietari dei canali rischiano di perdere monetizzazione.

Come fa YouTube a filtrare la spazzatura dell'AI?

Per determinare se un candidato soddisfa gli standard di base, YouTube si affida a recensioni sia automatizzate che umane. Nessuna delle due si è dimostrata adeguata, e uno studio recente ha dimostrato che oltre il 20% dei cortometraggi di Cortometraggi di YouTube erano prodotti male, ripetitivi o fuorvianti. Questo potrebbe essere il motivo per cui l'azienda sta aggiungendo un nuovo elemento alle opzioni convenzionali "mi piace" e "non mi piace".

Affidarsi ai telespettatori ha i suoi svantaggi, in quanto alcuni non sono abbastanza esperti da individuare gli intelligenti deepfakes. C'è anche un elemento soggettivo, in cui i sostenitori di un canale possono esitare a segnalare un video.

Alcuni critici ritengono che il nuovo sistema di valutazione porterà a un maggior numero di errori dell'IAnon meno. Se le modifiche si diffonderanno, gli utenti forniranno enormi quantità di dati. TukiFromKL ritiene che la piattaforma stia addestrando i propri modelli per generare contenuti più difficili da individuare. Con alcuni risultati più convincenti di altri, potrebbe imparare a ingannare efficacemente il pubblico.

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 03 > YouTube ora chiede agli spettatori di rilevare l'intelligenza artificiale generativa quando valutano i video
Adam Corsetti, 2026-03-18 (Update: 2026-03-18)