L’Intelligenza artificiale di Trump e Musk

L’Intelligenza Artificiale è il futuro non solo della Russia ma di tutta l’umanità. Ci sono enormi opportunità, ma anche minacce che sono difficili da prevedere oggi… il leader del settore [dell’Intelligenza Artificiale] governerà il mondo. Vladimir Putin

Il presidente Donald Trump, dopo aver prestato giuramento come 47° presidente degli Stati Uniti d’America (20 gennaio 2025), ha annunciato, oltre ad una raffica di decreti legislativi (ampiamente preannunciati sia durante la recente campagna elettorale che durante il suo precedente mandato), un ambizioso progetto per il futuro degli Stati Uniti nello spazio (space economy), la cosiddetta Stargate venture: “Perseguiremo il nostro destino manifesto verso le stelle, lanciando astronauti americani per piantare le stelle e strisce sul pianeta Marte”, ha detto Trump (se tutto va bene nel 2026 la compagnia Space X di Elon Musk invierà cinque razzi spaziali sul pianeta rosso, preludio alla futura realizzazione marziana di un trumpiano Resort Spaziale?).

Il giorno dopo, durante una conferenza stampa tenutasi alla Casa Bianca, nel corso della quale sono stati invitati a prendere la parola il CEO di Softbank Masayoshi Son, il CEO di OpenAI Sam Altman e il Chief Technology Officer di Oracle Larry Ellison, Donald Trump ha annunciato una joint venture da 100 miliardi di dollari (che dovrebbero diventare 500 in quattro anni) con la società tecnologica texana Oracle, la giapponese SoftBank e il produttore di ChatGPT OpenAI.

Una somma consistente che verrebbe investita nella realizzazione di nuove infrastrutture, nello specifico Centri di elaborazione dati (data center*), destinate ad accogliere le reti di risorse di elaborazione e archiviazione dati che supportano la cosiddetta Intelligenza Artificiale (AI, Artificial Intelligence).

Questo significa che in vista di una crescente espansione del mercato dell’AI (AI economy), ai 5.381 data center segnalati a marzo 2024 sul territorio statunitense, il numero più alto di qualsiasi altro paese al mondo (il 45,6% del totale) [Fig. 1], se ne aggiungeranno altri, verosimilmente con le caratteristiche dei costosissimi super data center (hyperscaler) di Google, Microsoft, Meta e Amazon, che per espandere la loro tecnologia di intelligenza artificiale e cloud computing hanno bisogno di consumare enormi quantitativi di energia elettrica e di acqua, rilasciata nell’atmosfera sotto forma di gas serra (CO2).

Due maxi progetti annunciati al grido di Make America Great Again (MAGA), siglati da un patto strategico, sul modello del vannevariano academic/industrial/military iron triangle (Vannevar Bush, 1947), stretto dall’amministrazione trumpiana con i protagonisti del primato mondiale statunitense tecnologico e del know how nel settore aerospaziale (con la compagnia Space X di Elon Musk e il suo network satellitare Starlink in posizione trainante), e con i protagonisti del primato mondiale statunitense tecnologico e del know how nel settore dell’intelligenza artificiale (con il supercomputer Colossus realizzato dalla compagnia xAI di Elon Musk in pool position).

Due primati che si avvalgono i) del talento di ricercatori, scienziati e imprenditori di origine asiatica, ii) della produzione taiwanese di chip, iii) dell’industria manifatturiera asiatica (in particolare cinese) e iv) delle compagnie di assemblaggio (in particolare asiatiche) che si occupano di assemblare i componenti e ottenere il prodotto finito.

Un patto strategico di portata storica, un business che certifica la rilevanza strategica dell’AI economy e della space economy per un mercato mondiale da trilioni di dollari. Una svolta decisiva nel passaggio dalla Rivoluzione Industriale 4.0 (rivoluzione digitale) alla Rivoluzione Industriale 5.0, basata sulla implementazione a più livelli e su larga scala della IA, sia in ambito civile che militare, sia terrestre che spaziale.

In questo grafico vengono visualizzati quanti data center erano presenti nel mondo, divisi per Paese, a marzo 2024. Fonte del grafico.

I data center non sono green

Un data center tradizionale (rete di risorse di elaborazione e archiviazione sistemi cloud) può consumare la stessa quantità di elettricità di una cittadina di 30-40 mila abitanti. Il supercomputer Frontier, ad esempio, fabbricato da Hewlett Packard e ospitato presso il DoE Oak Ridge Laboratory nel Tennessee, USA, utilizza 504 MWh (504 mila chilowatt all’ora) in media al giorno, pari all’energia consumata ogni giorno da circa 17 mila abitazioni statunitensi.

La maggior parte dei data center si affidano a sistemi di raffreddamento ad acqua che consumano centinaia di milioni di litri di acqua potabile all’anno. Quasi due terzi della popolazione mondiale soffre di gravi carenze idriche per almeno un mese all’anno e si prevede che entro il 2030 questo divario peggiorerà notevolmente, con quasi metà della popolazione mondiale che dovrà affrontare gravi problemi idrici.

Un singolo data center, che utilizza torri di raffreddamento e meccanismi ad aria per dissipare sotto forma di CO2 il calore prodotto dai server, può consumare fino a 20 milioni di litri di acqua potabile al giorno, sufficienti per rifornire migliaia di famiglie o aziende agricole.

E questo è solo il consumo di elettricità e di acqua potabile di un data center! L’inquinamento atmosferico e le emissioni di carbonio sono noti costi ambientali di un data center. Secondo Morgan Stanley (Reuters, settembre 2024) il boom dei data center produrrà a livello globale circa 2,5 miliardi di tonnellate di emissioni equivalenti di anidride carbonica entro il 2030.

Queste sono le stime dell’impatto energetico, idrico e ambientale dei data center tradizionali. I data center che impiegano modelli di intelligenza artificiale** (come i modelli a reti neurali) consumano molta più energia rispetto alle tipiche applicazioni basate su cloud e sono anche divoratori d’acqua.

Grandi modelli di intelligenza artificiale come GPT-5 e DeepSeek, con molti miliardi di parametri, vengono spesso addestrati e distribuiti su grandi cluster di server con più unità di elaborazione grafica (GPU). Secondo stime di Morgan Stanley l’addestramento di GPT-5 vede per esempio coinvolte 25.000 GPU di Nvidia (oltre ad altre tipologie di chip), per un costo complessivo di 250 milioni di dollari di solo hardware.

Secondo Goldman Sachs (maggio 2024), l’elettricità necessaria per elaborare una query ChatGPT determinerà un aumento della domanda di energia dei data center del 160% entro il 2030. Allo stesso tempo, il consumo di acqua previsto dall’impiego dell’intelligenza artificiale potrebbe già raggiungere i 6,6 miliardi di m³ entro il 2027 (Forbes, febbraio 2024).

Quindi, nonostante i recenti miglioramenti dell’efficienza algoritmica e hardware, l’addestramento e l’inferenza dei modelli di intelligenza artificiale comportano ancora un enorme consumo di energia, oltre che di acqua, che non sostituisce ma si somma al consumo dei server tradizionali, che continueranno a supportare i sistemi cloud.

E allora c’è chi guarda oltre l’informatica classica, quella che utilizza i bit*** come unità di calcolo, e per ridurre il consumo di energia e di acqua pensa ai computer quantistici. L’informatica quantistica, che come unità di calcolo utilizza il quantum bit o qbit , sta rapidamente emergendo come una nuova generazione di elaborazione ad alte prestazioni per affrontare problemi complessi inaccessibili ai dispositivi attualmente in uso.

Ma I qbit non sono facili da ottenere, visto che i computer quantistici richiedono condizioni molto specifiche, come temperature estremamente basse, vicine allo zero assoluto (-273 °C). A queste temperature, alcuni materiali diventano superconduttori, il che significa che permettono il passaggio di elettroni senza alcuna resistenza. Questo comportamento è cruciale per realizzare i qbit, che devono mantenere coerenza quantistica per eseguire calcoli correttamente.

Sebbene questi computer quantistici abbiano requisiti di raffreddamento molto più elevati di quelli tradizionali e debbano essere mantenuti a temperature più fredde rispetto allo spazio interstellare, sebbene l’informatica quantistica non potrà sostituire ma solo integrare quella classica, e malgrado solo pochi soggetti al mondo, pubblici o privati, potranno permetterseli, pare che consumino meno acqua e meno energia della tecnologia che utilizza i bit come unità di calcolo. Ad oggi non è ancora possibile fare una stima su quale sarà il loro impatto sul consumo energetico e idrico e sulla produzione di gas serra.

Ma c’è anche chi pensa di costruire data center sulla Luna. Le compagnie Phison Electronics e Lonestar Data Holdings in collaborazione con la Space X di Elon Musk lo stanno già facendo. Quindi tenetevi forte, la Rivoluzione Industriale 5.0 è decollata e con la strana coppia del MAGA in cabina di comando il viaggio sarà adrenalinico (sconsigliato ai cardiopatici e alle donne incinte). Destinazione Marte!

Note al testo

* Un data center è una rete di risorse di elaborazione (procedimento informatico che comporta la conversione dei dati raccolti in informazioni utili tramite algoritmi) e archiviazione dati (sistemi di memoria) allocata in un edificio popolato da varie apparecchiature informatiche tra cui server di diversa capienza e di diversa configurazione a seconda delle attività presidiate (per questo motivo un sinonimo di data center è server farm), che consente la movimentazione di applicazioni software e dati condivisi.

All’interno di un data center, oltre ai server, sono presenti vari sistemi di archiviazione dati (hardware), vari sistemi IT per il monitoraggio, il controllo e la gestione di macchine, applicazioni e infrastrutture di telecomunicazione, nonché tutti gli accessori ad essi collegati. Per garantire il funzionamento e la piena efficienza delle macchine, oltre ai gruppi di continuità (gruppi UPS), i data center includono sistemi di condizionamento e controllo ambientale molto particolari, nonché sistemi di raffreddamento (generalmente ad acqua) del calore prodotto dai computer (l’emissione primaria di un data center è il calore, che è un sottoprodotto dei server che elaborano grandi quantità di dati).

**I modelli di IA sono essenzialmente funzioni matematiche complicate con molti parametri. Le capacità in continua crescita dell’IA si basano su enormi volumi di dati e calcoli computazionali intensivi per estrarre patterns utili. I modelli di IA attualmente più performanti sono i cosiddetti modelli a reti neurali, laddove rete neurale indica un modello di apprendimento automatico basato su una serie di piccole funzioni matematiche (definite “neuroni” in analogia col cervello umano) che costituiscono il livello più basso di calcolo.

Un “neurone” calcola un output in base a un input ricevuto, ma è il complesso della rete neuronale che è importante. Questa può essere costituita da poche connessioni o da miliardi di livelli di connessione, in questo caso viene definita “profonda” (deep learning).

***Il termine “bit” sta per binary digit, o cifra binaria, è l’unità fondamentale nel mondo informatico, ed è una cifra binaria formata soltanto da 0 e 1. Questi due valori possono rappresentare solo uno stato alla volta, ad esempio acceso o spento, vero o falso, non possono rappresentare entrambi gli stati simultaneamente. Questo codice binario costituisce la base di tutta l’elaborazione digitale delle informazioni e dei trasferimenti dati.

****A differenza dell’informatica tradizionale che utilizza il bit come unità di calcolo, l’unità base del calcolo quantistico è il quantum bit o qbit****. A differenza del bit classico, il quantum bit può essere 0 e 1 simultaneamente grazie alla sovrapposizione quantistica (che permette di eseguire più calcoli simultaneamente) e può influenzare istantaneamente altri qubit tramite un fenomeno noto come entanglement. Queste proprietà rendono i quantum computer capaci di eseguire calcoli con un’efficienza impensabile per i computer tradizionali.

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.