Notebookcheck Logo

I ricercatori raddoppiano la velocità di addestramento dell'IA domando le inefficienze della coda lunga nell'utilizzo del processore

Un'immagine decorativa che mostra un chip con l'acronimo
ⓘ Igor Omilaev via Unsplash
Un'immagine decorativa che mostra un chip con l'acronimo "AI"
Un nuovo sistema sfrutta la potenza di calcolo inattiva per addestrare al volo una bozza di modello più piccola, accelerando drasticamente l'apprendimento per rinforzo di modelli linguistici complessi e di grandi dimensioni, senza sacrificare la precisione.

Lo sviluppo di modelli linguistici di grandi dimensioni in grado di ragionare, di programmare in modo avanzato e di pianificare in più fasi, richiede enormi risorse computazionali. Durante il processo standard di apprendimento per rinforzo, i modelli generano più risposte potenziali per imparare la risposta migliore. Questa fase di generazione, nota come rollout, può consumare fino all'85% del tempo di esecuzione totale. Crea un collo di bottiglia critico caratterizzato da una distribuzione a coda lunga, in cui i processori che terminano le risposte più brevi rimangono inattivi in attesa che altri completino le query più lunghe.

Per eliminare questo spreco di tempo di inattività, i ricercatori del Massachusetts Institute of Technology, insieme a collaboratori industriali e accademici, hanno sviluppato un sistema chiamato "Taming the Long Tail" (TLT). L'approccio si avvale di un modello adattivo di drafter che si allena continuamente sui processori inattivi. Questo modello leggero indovina rapidamente le uscite future del modello target più grande, che poi verifica tutte le ipotesi simultaneamente attraverso una tecnica chiamata decodifica speculativa.

Mentre la decodifica speculativa tradizionale si basa su un tracciatore statico che diventa rapidamente obsoleto durante i continui aggiornamenti dell'addestramento, il sistema TLT riallinea continuamente il tracciatore durante l'addestramento, senza costi computazionali aggiuntivi. Un motore di rollout adattivo integrato ottimizza ulteriormente il processo, mantenendo un pool efficiente in termini di memoria di grafici pre-catturati e selezionando dinamicamente la migliore strategia di decodifica per ogni nuovo lotto di input.

Le valutazioni su più modelli di ragionamento dimostrano che questa soluzione senza perdite accelera la velocità di formazione end-to-end del 70-110% rispetto ai sistemi di ultima generazione. Mantenendo i livelli di accuratezza originali e producendo una bozza di modello di alta qualità come sottoprodotto di distribuzione gratuita, questo metodo offre un percorso altamente efficiente per ridurre gli oneri energetici e finanziari dello sviluppo di architetture di intelligenza artificiale avanzate.

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 02 > I ricercatori raddoppiano la velocità di addestramento dell'IA domando le inefficienze della coda lunga nell'utilizzo del processore
Chibuike Okpara, 2026-02-28 (Update: 2026-02-28)