• Tutto con Bancomat. Scambi denaro, giochi ti premi.
  • Esprinet molto più di un distributore di tecnologia
  • Fai un Preventivo

Chip AI, Nvidia non è più sola: la nuova guerra del calcolo

- di: Bruno Coletta
 
Chip AI, Nvidia non è più sola: la nuova guerra del calcolo
Chip AI: Nvidia non è più sola, la nuova guerra del calcolo

Da TPU a Trainium, da Maia ai chip “in casa”: l’AI entra nell’era multi-acceleratore (e l’Europa prova a giocare la carta della sovranità di calcolo). 

(Foto: a sinistra Jensen Huang, Ceo di Nvidia).

Per anni è sembrato che l’intelligenza artificiale avesse un unico motore “naturale”: le GPU di Nvidia. Oggi quel motore resta potentissimo, ma non è più l’unico in officina. Il cambiamento è sotto gli occhi di chiunque paghi una fattura cloud o provi a prenotare capacità per addestrare modelli: attorno al calcolo AI sta nascendo un mercato più competitivo, più frammentato e molto più politico.

Il punto non è che Nvidia “crolla”. Il punto è che i grandi consumatori di chip — i colossi del cloud e dell’AI — hanno deciso che dipendere da un solo fornitore è un lusso che non si possono più permettere. E così, mentre Nvidia continua a correre, gli altri hanno iniziato a costruire strade alternative.

Perché Nvidia è diventata “la” piattaforma

La leadership di Nvidia non nasce solo dai transistor. È una storia di ecosistema: tool, librerie, ottimizzazioni, comunità di sviluppatori, framework, driver e best practice. In una parola che nel settore pesa quanto una fabbrica: CUDA.

Questo “effetto piattaforma” ha creato un vantaggio pratico: quando un team deve mettere in produzione un modello, tende a scegliere ciò che “funziona subito”, si integra con tutto e ha una filiera di competenze già formate. Ma proprio quel vantaggio si è trasformato nel bersaglio principale dei concorrenti: non basta fare un chip veloce, bisogna rendere semplice usarlo.

La controffensiva degli hyperscaler: chip su misura e controllo dei costi

Il primo segnale della nuova fase è arrivato dai “padroni di casa” del cloud: Google, Amazon e Microsoft. La logica è brutale e lineare: se sei tu a comprare (o affittare) enormi volumi di calcolo, vuoi decidere architettura, disponibilità, ottimizzazione e prezzo.

Google: TPU e l’assalto al problema chiave, la compatibilità software

Google lavora da anni sulle TPU, acceleratori progettati espressamente per il machine learning. La novità più interessante, però, è meno “silicio” e più “ponte”: l’obiettivo è far girare meglio il mondo PyTorch sulle TPU, riducendo la frizione che ha finora favorito Nvidia (dove PyTorch è storicamente “a casa”).

Secondo un’inchiesta Reuters, Google sta spingendo un progetto interno per migliorare l’esperienza PyTorch su TPU e sta collaborando con Meta, attore chiave dell’ecosistema PyTorch: un’alleanza che, se funziona, non “uccide” Nvidia, ma rende più economico cambiare strada.

Amazon: Trainium e Inferentia, il cloud che vuole smettere di pagare il pedaggio

AWS ha una strategia quasi didattica: separare il mondo dell’AI in due grandi capitoli — training e inference — e offrire chip dedicati. Con Trainium2 (disponibilità annunciata il 3 dicembre 2024) AWS spinge l’idea di una migliore “price performance” rispetto alle opzioni precedenti in cloud, e con la piattaforma Neuron prova a costruire un’esperienza da “ecosistema”, non solo da componentistica.

Sullo sfondo c’è anche la geopolitica dell’infrastruttura AI: il Financial Times (articolo pubblicato a metà dicembre 2025) ha raccontato colloqui preliminari su un possibile investimento di Amazon in OpenAI legato anche all’uso di chip AWS. In parallelo, Data Center Dynamics ha riportato che l’ipotesi di un accordo includerebbe l’adozione delle soluzioni custom di AWS: segnale che la partita non è solo “chi vende chip a chi”, ma chi controlla la capacità di calcolo.

Microsoft: Maia, il chip interno per non restare prigionieri della domanda

Microsoft ha annunciato Maia 100 nel contesto di Ignite e ha poi pubblicato dettagli tecnici e di approccio “silicon-to-systems” in un approfondimento ufficiale . L’idea è chiara: se Copilot e i servizi AI diventano infrastruttura quotidiana, l’azienda vuole una parte della catena sotto controllo.

Qui c’è una differenza importante rispetto a Google e Amazon: la disponibilità esterna su larga scala è meno esplicita. Maia è soprattutto un tassello per ottimizzare workload interni e stabilizzare costi e disponibilità su Azure.

Il fronte “merchant”: AMD e l’arte di scardinare CUDA senza chiamarla guerra

Se gli hyperscaler giocano in casa, AMD punta a essere l’alternativa “generalista” nel data center: acceleratori della linea Instinct, più piattaforma software ROCm. Il messaggio è pragmatico: prestazioni e memoria per il training moderno, ma soprattutto un percorso di migrazione che riduca il costo di cambiare hardware.

La roadmap è stata ribadita in documenti e presentazioni corporate legate agli eventi “Advancing AI” (materiali AMD datati), con enfasi su nuove generazioni di acceleratori e aggiornamenti dello stack software. Non è solo competizione su TFLOPS: è competizione su tempo di porting, stabilità, tool di debugging, librerie ottimizzate.

Il ritorno degli ASIC: Broadcom, “custom silicon” e la tentazione del chip su misura

C’è poi una categoria che sta crescendo in silenzio: i chip progettati per un cliente specifico. Qui entrano in scena player come Broadcom (e l’ecosistema dei partner di progettazione e packaging) con acceleratori cuciti su misura per workload ripetibili e volumi enormi.

Nel caso di OpenAI, Reuters ha riportato che l’azienda stava accelerando sul design del suo primo chip interno per ridurre la dipendenza da Nvidia, con un team dedicato e una tabella di marcia orientata alla produzione. Il senso industriale è evidente: se il costo del calcolo è la voce più pesante, progettare anche solo una parte della filiera può cambiare i conti.

Training contro inference: la frattura che ridisegna il mercato

Un motivo per cui l’ecosistema si diversifica è che l’AI non è un monolite. Addestrare modelli giganteschi richiede molta memoria, interconnessioni rapidissime e un software stack maturo; ma quando quei modelli arrivano agli utenti, l’inference diventa una fabbrica fatta di volumi, latenza e costo per richiesta.

In questo contesto, è più facile vedere una convivenza: Nvidia forte nei cluster di training e nei sistemi integrati, mentre acceleratori alternativi — spesso più mirati — guadagnano terreno dove conta il costo per output. La frammentazione non è un incidente: è una conseguenza naturale di workload diversi.

Che cosa cambia davvero: prezzi, disponibilità e potere negoziale

La concorrenza non promette miracoli, ma produce tre effetti concreti:

  1. Più opzioni di fornitura: se un acceleratore è introvabile o troppo caro, il cliente può negoziare sapendo che esiste un “piano B”.
  2. Nuove dipendenze software: il lock-in non sparisce, si sposta. Ogni stack (CUDA, Neuron, TPU toolchain, ROCm) cerca di diventare lo standard.
  3. Design dei data center: energia, raffreddamento e rete diventano parte della strategia. Non vince solo chi ha il chip migliore, ma chi offre sistemi e integrazione.

Europa e Italia: la parola chiave è sovranità di calcolo

Se l’AI è infrastruttura, la domanda non è più solo “quanto costa?”, ma “chi la controlla?”. In Europa il tema si traduce spesso in un’espressione destinata a diventare comune: compute sovereignty.

Sul piano pubblico, l’UE ha messo in fila strumenti e iniziative: il Chips Act è entrato in vigore e punta a rafforzare la resilienza della filiera dei semiconduttori. Sul fronte specifico dell’AI, la rete EuroHPC sta costruendo un modello “infrastruttura + servizi” con le AI factories: l’iniziativa è stata lanciata nel 2024 e nel dicembre 2024 sono stati selezionati i primi Paesi ospitanti; ulteriori selezioni sono state annunciate nel 2025.       

E c’è anche una dimensione finanziaria: la BEI ha comunicato un lavoro congiunto con la Commissione per sostenere la nascita di AI gigafactories, esplicitando l’obiettivo di rafforzare indipendenza tecnologica e competitività. Tradotto: il calcolo non è più solo “capex da data center”, è politica industriale.

Per l’Italia la partita è doppia: attrarre capacità (cluster, cloud region, supercalcolo) e formare competenze in grado di far girare modelli su architetture diverse. Nella nuova era multi-acceleratore, chi sa orchestrare workload tra piattaforme differenti avrà un vantaggio che vale quanto un brevetto.

La sintesi: il futuro è multi-chip, ma non per forza “anti-Nvidia”

L’idea più realistica non è un mondo “post-Nvidia”. È un mondo multi-acceleratore, in cui Nvidia resta un perno, ma perde l’esclusiva psicologica e contrattuale. Google lavora per abbassare la barriera software, AWS spinge i suoi chip per addestramento e inference, Microsoft ottimizza i propri workload, AMD alza la posta sul fronte “alternativa generalista”, e OpenAI esplora vie per controllare il costo del calcolo.

Il risultato finale è un ecosistema dove la potenza non si misura solo in prestazioni, ma in tre parole: disponibilità, portabilità e governance. 

Notizie dello stesso argomento
Trovati 113 record
Pagina
1
22/12/2025
Borse europee vivaci: oro record, Milano giù, Wall Street corre
Europa cauta ma brillante: Milano chiude in lieve calo, oro ai massimi, petrolio in rialzo...
22/12/2025
La Lettera/ Banca di Asti: visione partner e futuro dei territori
La lettera del presidente della Fondazione Cassa di Risparmio di Asti sul futuro della ban...
22/12/2025
Chip AI, Nvidia non è più sola: la nuova guerra del calcolo
Nvidia resta centrale nei chip AI, ma Google, Amazon, Microsoft, AMD e OpenAI costruiscono...
22/12/2025
Bollo auto 2026: esenzioni, scadenze e regole regionali in bilico
Dal 2026 il bollo potrebbe cambiare: ipotesi esenzione per redditi bassi, conferme e diffe...
22/12/2025
Economia 2025 tra scosse globali e resilienza delle imprese
Analisi di fine 2025 sull’economia italiana: manifattura in difficoltà, export sotto press...
22/12/2025
Trump riapre il fronte dei dazi contro l’Ue: l’Europa stavolta risponda
La Casa Bianca minaccia ritorsioni contro l’Ue su tasse digitali, multe e regole per le Bi...
Trovati 113 record
Pagina
1
  • Con Bancomat, scambi denaro, giochi e ti premi.
  • Punto di contatto tra produttori, rivenditori & fruitori di tecnologia
  • POSTE25 sett 720