Notebookcheck Logo

Meta rompe il ciclo del silicio: Quattro nuovi chip AI entro il 2027

Meta afferma che sono in arrivo quattro nuove generazioni di chip MTIA, mentre espande la sua infrastruttura AI interna.
ⓘ about.fb.com
Meta afferma che sono in arrivo quattro nuove generazioni di chip MTIA, mentre espande la sua infrastruttura AI interna.
Meta svela un'aggressiva roadmap di silicio per l'AI, con l'implementazione di quattro generazioni MTIA entro il 2027. Scopra come i chip MTIA 500 personalizzati alimenteranno la GenAI su scala.

Meta ha dettagliato una nuova ambiziosa roadmap per i suoi chip AI interni, affermando che sta sviluppando e distribuendo quattro nuove generazioni di hardware Meta Training e Inference Accelerator entro i prossimi due anni.

In un post, l'azienda ha dichiarato che la nuova linea MTIA supporterà i carichi di lavoro di ranking, raccomandazioni e AI generativa, con il silicio personalizzato che ora si trova al centro della sua più ampia strategia di infrastruttura AI.

MTIA 300 è già in produzione

Il dettaglio più chiaro a breve termine è che MTIA 300 è già in produzione. Meta ha dichiarato che questo chip sarà utilizzato per l'addestramento di classificazioni e raccomandazioni, segnando un ruolo più ampio per MTIA rispetto alla semplice accelerazione dell'inferenza.

L'azienda ha aggiunto che MTIA 400, 450 e 500 saranno in grado di gestire tutti i carichi di lavoro, anche se Meta prevede di utilizzare queste ultime generazioni principalmente per l'inferenza AI generativa nel breve termine e nel 2027.

Questo dà a Meta una cadenza di chip pubblici molto più veloce di quella tipica del settore AI. L'azienda ha detto che il piano di quattro chip si svilupperà nell'arco di due anni, che ha descritto come un ritmo più veloce rispetto ai cicli di chip standard.

Meta vuole che i propri chip giochino un ruolo molto più importante

Meta ha presentato per la prima volta MTIA nel 2023 come una famiglia di chip personalizzati per i carichi di lavoro AI, ma l'ultimo aggiornamento dell'azienda chiarisce che il progetto non è più uno sforzo secondario. Meta ha dichiarato di aver già implementato centinaia di migliaia di chip MTIA per carichi di lavoro di inferenza su contenuti organici e annunci nelle sue app, e ha affermato che questi chip sono più efficienti in termini di calcolo e di costi rispetto al silicio generico per gli usi previsti dall'azienda.

Il messaggio più ampio è chiaro: Meta vuole avere un maggiore controllo sull'hardware che gestisce i suoi sistemi AI. Invece di affidarsi solo a fornitori esterni, l'azienda sta cercando di costruire un proprio stack per i carichi di lavoro più importanti per le sue piattaforme.

Indipendenza dai giganti del silicio

Mentre Meta ha recentemente firmato un accordo multimiliardario per le più recenti GPU di Nvidiaquesta roadmap è un chiaro segnale che Menlo Park è stanca di aspettare le catene di fornitura esterne. Spostando i suoi enormi carichi di lavoro di inferenza - che rappresentano la maggior parte dei suoi costi di AI - su hardware MTIA personalizzato, Meta sta sfidando direttamente il dominio del mercato dei fornitori di terze parti. Si tratta di un passaggio da "acquirente" ad "architetto", che consente all'azienda di determinare per la prima volta i margini della propria infrastruttura.

I prossimi chip si concentrano molto sull'inferenza

Meta ha detto che la sua strategia per i chip privilegia l'iterazione rapida, un approccio progettuale incentrato sull'inferenza e una più facile adozione attraverso ecosistemi software e hardware standard del settore. In pratica, ciò significa che gli MTIA 450 e 500 sono ottimizzati prima di tutto per l'inferenza generativa dell'AI, con la possibilità di supportare altri carichi di lavoro in base alle esigenze, tra cui l'addestramento e l'inferenza di ranking e raccomandazioni, nonché l'addestramento generativo dell'AI.

Questo focus ha senso per un'azienda che gestisce servizi alla scala di Meta. L'inferenza è l'ambito in cui i prodotti di AI di grandi dimensioni possono diventare particolarmente costosi, e Meta sta chiaramente progettando queste generazioni successive per soddisfare meglio questa domanda.

Lo sviluppo più rapido fa parte del piano

Meta ha anche detto di aver costruito la sua roadmap MTIA su cicli di rilascio più brevi. Mentre il settore lancia spesso un nuovo chip AI ogni uno o due anni, Meta ha detto che ora è in grado di rilasciare nuove generazioni MTIA ogni sei mesi o meno, riutilizzando i progetti modulari. L'azienda ha detto che questo dovrebbe aiutarla ad adattarsi più rapidamente alle tecniche di AI in evoluzione e a ridurre i costi di costruzione e distribuzione di nuovo hardware.

Un altro vantaggio pratico è la compatibilità con l'infrastruttura esistente. Meta ha detto che la modularità del suo silicio consente ai nuovi chip di inserirsi nell'attuale infrastruttura di sistemi rack, il che dovrebbe aiutare a velocizzare la distribuzione.

L'infrastruttura AI è ora il campo di battaglia

L'infrastruttura AI sta diventando uno dei campi di battaglia più importanti nel settore tecnologico e l'annuncio di Meta dimostra quanto seriamente stia trattando la progettazione dei chip come parte di questa battaglia. Quattro nuove generazioni MTIA in due anni sono una roadmap aggressiva sulla carta, ma l'aspetto più importante è che Meta non parla più del silicio personalizzato come un esperimento. Ora presenta MTIA come una parte fondamentale del modo in cui Facebook, Instagram e le altre piattaforme gestiranno i carichi di lavoro di ranking, raccomandazioni e AI generativa in futuro.

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 03 > Meta rompe il ciclo del silicio: Quattro nuovi chip AI entro il 2027
Darryl Linington, 2026-03-13 (Update: 2026-03-13)