Notebookcheck Logo

L'intelligenza artificiale e il suo consumo energetico: un problema tra gli altri

Un grande sforzo per un ritorno a volte molto gestibile: l'intelligenza artificiale. (Immagine: pixabay/viarami)
Un grande sforzo per un ritorno a volte molto gestibile: l'intelligenza artificiale. (Immagine: pixabay/viarami)
Non è certo un segreto che ChatGPT e altri sistemi di intelligenza artificiale siano divoratori di energia. E quando Sam Altman, CEO di OpenAI, ammette che questo potrebbe diventare un problema, vale sicuramente la pena fare i conti e guardare al futuro.

ChatGPT attualmente richiede l'elettricità di 33.000 famiglie. 70.000 o 80.000 persone potrebbero utilizzare questa energia per un anno intero.

Tuttavia, i piani di OpenAI si basano ovviamente su un futuro simile al presente di Google. Le sue query di ricerca, da sole, possono generare una quantità considerevole di energia.

Secondo diverse fonti, che fanno tutte riferimento a una cifra un po' più vecchia, vengono utilizzati 0,3 Wh per ogni query di ricerca - 8,5 miliardi di query di ricerca al giorno in tutto il mondo.

Si tratta di un totale di quasi 1 terawattora all'anno solo per elaborare le query di ricerca. Se si estrapola questo dato alle famiglie, si tratta già di 90.000-100.000 unità. È il consumo di elettricità delle famiglie di Reno o Buffalo.

Tuttavia, la cifra di Google, che è ancora chiaramente gigantesca, è solo tre volte superiore a quella di ChatGPT. E per entrambe le aziende, stiamo parlando di un aspetto dell'intera azienda.

Secondo i dati aziendali di Google, il consumo totale è in realtà di 6 terawattora, 6 volte superiore alle query di ricerca stesse. Tuttavia, si tratta di un consumo a livello mondiale. Se si considera il consumo totale di elettricità negli Stati Uniti, ad esempio, questa cifra corrisponde a poco più dello 0,1%.

Tuttavia, OpenAI dichiara un fattore da 4 a 5 per ogni query di ricerca. Inoltre, il numero di query di ricerca raddoppia ogni pochi anni.

Quindi, se l'attuale volume di ricerca fosse gestito da ChatGPT e dai suoi concorrenti, il valore utilizzato per Google potrebbe facilmente essere quintuplicato.

Si tratterebbe di 30 terawattora. L'intera Los Angeles, con i suoi 4 milioni di abitanti, può farcela con questa quantità di elettricità. D'altra parte, 30 TWh sono solo una piccola frazione della produzione globale di energia, ma rappresentano l'uso globale dell'AI.

Eppure: se lo sviluppo in generale progredisce, in futuro le query di ricerca saranno risposte solo dall'IA e il numero continuerà a crescere allo stesso ritmo, sarà più vicino a 60 o 100 TWh. In questo caso, il potenziale di risparmio è innegabile.

Naturalmente, la tecnologia può essere utilizzata anche per risparmiare elettricità. Se ottengo risultati di ricerca migliori, non devo cliccare su quattro o cinque siti web, posso semplicemente cliccare sul primo. Posso generare una foto e non devo crearla e modificarla io stesso. Posso modificare i documenti con i colleghi e gli amici senza essere sul posto, il che ovviamente fa risparmiare energia (anche se non è necessaria l'intelligenza artificiale per questo).

Tuttavia, resta importante sensibilizzare l'opinione pubblica sul fatto che l'AI può e deve essere resa più efficiente. Confidare semplicemente nella disponibilità di una quantità sufficiente di energia a basso costo potrebbe rivelarsi una fallacia fin troppo comoda.

A questo proposito, il campanello d'allarme di Sam Altman è un buon segnale. Il suo piano di utilizzare la fusione nucleare https://www.energytrend.com/news/20230511-31989.htmlper bilanciare il tutto, invece, sembra piuttosto ingenuo.

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 02 > L'intelligenza artificiale e il suo consumo energetico: un problema tra gli altri
Mario Petzold, 2024-02-22 (Update: 2024-02-22)