Condividere:
su 30/05/2024
Affrontare NvLink?Giganti tecnologici come Intel, AMD, Microsoft e Broadcom formano Ualink
Otto giganti tecnologici, tra cui Intel, Google, Microsoft e Meta, stanno istituendo un nuovo gruppo di settore chiamato UALINK Promotion Group per guidare lo sviluppo di componenti che collegano i chip dell'acceleratore di intelligenza artificiale all'interno dei data center.
Il team di promozione di Ualink è stato annunciato per essere istituito giovedì e i suoi membri includono anche AMD, HP Enterprise, Broadcom e Cisco.Il gruppo ha proposto un nuovo standard industriale per collegare un numero crescente di chip di acceleratore di AI nei server.In senso lato, un acceleratore di intelligenza artificiale è un chip progettato da una GPU a una soluzione personalizzata per accelerare l'addestramento, la messa a punto e il funzionamento dei modelli di intelligenza artificiale.
"Il settore ha bisogno di uno standard aperto che può essere rapidamente spinto in avanti, consentendo a più aziende di aggiungere valore all'intero ecosistema in un formato aperto.""L'industria ha bisogno di uno standard che consente l'innovazione che si svolge a un ritmo rapido senza essere vincolato da nessuna singola azienda", ha affermato Forrest Norrod, direttore generale di AMD Data Center Solutions, in un briefing di mercoledì
La prima versione dello standard proposto, Ualink 1.0 , fino a 1024 acceleratori di AI sarà collegata solo in una singola GPU di calcolo.(Il gruppo definisce POD come uno o più rack in un server.) Ualink 1.0 si basa su "standard aperti" e include l'architettura infinita di AMD.Consentirà il caricamento diretto e l'archiviazione di memoria aggiuntiva tra gli acceleratori di intelligenza artificiale e migliorano la velocità e ridurrà la latenza di trasmissione dei dati rispetto alle specifiche di interconnessione esistenti.
Il gruppo ha dichiarato che creerà un'alleanza, la Ualink Alliance, nel terzo trimestre per supervisionare il futuro sviluppo degli standard di Ualink.Ualink 1.0 verrà fornito alle aziende che si uniranno all'alleanza nello stesso periodo, con una specifica di aggiornamento della larghezza di banda più elevata per Ualink 1.1.Si prevede che venga lanciato nel quarto trimestre del 2024.
Il primo lotto di prodotti Ualink sarà lanciato "nei prossimi anni", ha detto Norrod.
Nvidia, il più grande produttore di acceleratori di intelligenza artificiale fino ad oggi, con una quota di mercato stimata dell'80% al 95%, è chiaramente assente dall'elenco dei membri del gruppo.Nvidia ha rifiutato di commentare questo.Ma non è difficile capire perché questo produttore di chip non sia desideroso di supportare le specifiche basate sulla tecnologia dei concorrenti.
In primo luogo, Nvidia fornisce la propria tecnologia di interconnessione proprietaria per le GPU all'interno dei suoi server di data center.La società potrebbe non essere disposta a supportare gli standard basati sulla tecnologia della concorrenza.
Poi arriva il fatto che Nvidia opera da una posizione di immensa forza e influenza.
Nel più recente trimestre fiscale di Nvidia (trimestre 2025), le vendite di data center, comprese le vendite di chip AI, sono aumentate di oltre il 400% rispetto allo stesso periodo dell'anno scorso.Se Nvidia continua la sua attuale traiettoria di sviluppo, supera la Apple ad un certo punto quest'anno per diventare l'azienda più preziosa del mondo.
Pertanto, in termini semplici, se Nvidia non vuole partecipare, non è necessario partecipare.
Per quanto riguarda Amazon Web Services (AWS), che è l'unico gigante del cloud pubblico che non ha contribuito a Ualink, potrebbe essere in modalità di attesa in quanto sta riducendo i suoi vari sforzi hardware dell'acceleratore interno.Potrebbe anche essere AWS, basandosi sul suo controllo sul mercato dei servizi cloud e non vede alcun significato strategico nell'opposizione di Nvidia, che ha fornito la maggior parte delle sue GPU ai suoi clienti.
AWS non ha risposto alla richiesta di commento di TechCrunch.
In effetti, i maggiori beneficiari di Ualink - a parte AMD e Intel - sembrano essere Microsoft, Meta e Google, che hanno speso miliardi di dollari per acquistare GPU NVIDIA per guidare le loro nuvole e formare i loro modelli di AI in crescita.Tutti vogliono sbarazzarsi di un fornitore che considerano eccessivamente dominante nell'ecosistema hardware AI.
Google ha chip, TPU e Axion personalizzati per la formazione e la gestione di modelli AI.Amazon ha diverse famiglie di chip AI.Microsoft si è unito alla competizione tra Maia e Cobalt l'anno scorso.Meta sta migliorando la sua serie di acceleratori.
Nel frattempo, secondo quanto riferito, Microsoft e il suo partner stretto Openi pianificano di spendere almeno $ 100 miliardi in un supercomputer per formare i modelli di intelligenza artificiale, che saranno dotati di futuri chip di cobalto e Maia.Questi chip avranno bisogno di qualcosa per collegarli insieme - forse sarà ualink.