(Adnkronos) – NVIDIA ha ufficializzato il lancio di Rubin, la piattaforma di prossima generazione progettata per ridefinire i parametri di potenza, efficienza e scalabilità dei supercomputer dedicati all'intelligenza artificiale. L'architettura si basa su un concetto di "estremo co-design" che unisce hardware e software attraverso sei nuovi semiconduttori proprietari, puntando a una drastica riduzione dei tempi di addestramento e dei costi operativi.
Secondo Jensen Huang, fondatore e CEO di NVIDIA, l'arrivo di questa tecnologia risponde a una necessità critica del mercato: "Rubin arriva esattamente al momento giusto, poiché la domanda di calcolo AI sia per l'addestramento che per l'inferenza sta salendo alle stelle. Con il nostro ritmo annuale di fornitura di una nuova generazione di supercomputer AI — e il co-design estremo tra sei nuovi chip — Rubin compie un salto da gigante verso la prossima frontiera dell'intelligenza artificiale". Il sistema Rubin non è un singolo processore, ma un ecosistema integrato che comprende:
CPU NVIDIA Vera: dotata di 88 core Olympus personalizzati, ottimizzata per il ragionamento agentico e l'efficienza energetica.
GPU NVIDIA Rubin: capace di erogare 50 petaflops di calcolo NVFP4 grazie al Transformer Engine di terza generazione.
Switch NVLink 6: garantisce una larghezza di banda di 3,6 TB/s per singola GPU, superando la capacità di traffico dell'intero internet attuale nelle configurazioni rack NVL72.
ConnectX-9 SuperNIC e BlueField-4 DPU: componenti essenziali per la gestione dei flussi dati e la sicurezza dei modelli proprietari.
Switch Ethernet Spectrum-6: Progettato per scalare le "fabbriche AI" con un'efficienza energetica cinque volte superiore rispetto agli standard precedenti. I dati tecnici evidenziano un progresso significativo rispetto alla piattaforma Blackwell. Rubin è in grado di offrire una riduzione fino a 10 volte del costo dei token di inferenza e richiede un numero di GPU quattro volte inferiore per l'addestramento di modelli Mixture-of-Experts (MoE). Questa efficienza è supportata dalla nuova piattaforma di archiviazione Inference Context Memory, alimentata dal processore BlueField-4, che accelera il ragionamento multi-fase tipico dell'AI agentica. I principali attori del settore hanno già confermato l'adozione della piattaforma per le proprie infrastrutture. Microsoft utilizzerà i sistemi Rubin NVL72 per le sue future "superfactory" AI Fairwater, mentre OpenAI e Meta prevedono di sfruttare la nuova architettura per scalare modelli di frontiera.
Sam Altman, CEO di OpenAI, ha sottolineato l'importanza della scalabilità: "L'intelligenza scala con il calcolo. Quando aggiungiamo più potenza di calcolo, i modelli diventano più capaci, risolvono problemi più difficili e generano un impatto maggiore per le persone. La piattaforma NVIDIA Rubin ci aiuta a mantenere questo progresso".
Anche Elon Musk, fondatore di xAI, ha descritto Rubin come un "motore a razzo per l'AI", definendo NVIDIA lo "standard aureo per chi intende addestrare modelli di frontiera su larga scala". La piattaforma Rubin è già in produzione. I primi prodotti basati su questa architettura saranno disponibili tramite partner come AWS, Google Cloud, Microsoft e Oracle Cloud Infrastructure nella seconda metà del 2026. Aziende come Dell Technologies, HPE e Lenovo integreranno Rubin nei propri server, supportate da una collaborazione estesa con Red Hat per offrire uno stack AI completo basato su Linux e OpenShift.
—tecnologiawebinfo@adnkronos.com (Web Info)
📲 Ricevi gratis le notizie di Montagne & Paesi sul tuo telefonino!
Iscriviti al nostro canale WhatsApp ufficiale per restare sempre aggiornato su notizie e curiosità dalle valli.
📢 Seguici anche su Telegram!
Unisciti al canale Telegram di Montagne & Paesi per ricevere tutte le news in tempo reale.





