Notebookcheck Logo

Un nuovo strumento di intelligenza artificiale open-source consente di generare video molto più lunghi e coerenti

Un'immagine generata dall'intelligenza artificiale di una giraffa
ⓘ Gemini
Un'immagine generata dall'intelligenza artificiale di una giraffa
I ricercatori dell'Istituto Federale di Tecnologia di Losanna (École polytechnique fédérale de Lausanne) hanno sviluppato un nuovo sistema chiamato Stable Video Infinity (SVI) per affrontare la deriva nei modelli di generazione video.

Se ha utilizzato dei modelli di generazione video, c'è una cosa che troverà sempre coerente: sono limitati a clip brevi, di solito tra i 5 e i 20 secondi. Il motivo di questa limitazione è dovuto alla cosiddetta "deriva" La deriva fa sì che le scene e i personaggi perdano sempre più la loro caratteristica, fotogramma dopo fotogramma, con il risultato di un risultato incoerente nel tempo.

Ora, per affrontare questo problema, i ricercatori del laboratorio Visual Intelligence for Transportation (VITA) dell'EPFL hanno sviluppato un nuovo metodo di formazione chiamato "riqualificazione tramite riciclo degli errori" Invece di scartare gli errori e le deformazioni che si verificano naturalmente durante la generazione, questo approccio li reintroduce intenzionalmente nel modello.

Il Prof. Alexandre Alahi paragona il processo all'"addestramento di un pilota in condizioni di tempo turbolento piuttosto che in un cielo sereno" Imparando dai propri errori, l'AI diventa abbastanza robusta da stabilizzarsi quando gli errori appaiono inevitabilmente, invece di precipitare nella casualità.

Questo metodo è alla base del nuovo sistema Stable Video Infinity (SVI). A differenza dei modelli attuali, che spesso si sgretolano dopo 30 secondi, SVI può generare video coerenti e di alta qualità che durano diversi minuti o più. Il sistema sta già facendo scalpore nella comunità tecnologica; il suo codice open-source su GitHub ha ottenuto oltre 2.000 stelle e la ricerca è stata accettata per la presentazione alla 2026 International Conference on Learning Representations (ICLR).

Il team sta anche debuttando LayerSync, un metodo complementare che consente all'AI di correggere la sua logica interna attraverso la generazione di video, immagini e suoni. Insieme, questi strumenti promettono di progettare sistemi autonomi migliori e di sbloccare il potenziale di media generativi veramente di lunga durata.

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 02 > Un nuovo strumento di intelligenza artificiale open-source consente di generare video molto più lunghi e coerenti
Chibuike Okpara, 2026-02-10 (Update: 2026-02-10)