Pat Gelsinger si è scagliato contro la tecnologia CUDA di Nvidia in favore di standard più aperti.
l CEO di Intel, Pat Gelsinger, si è espresso contrariato per la tecnologia CUDA di Nvidia, sostenendo, invece, che la tecnologia di inferenza sarà molto più importante della formazione per l’intelligenza artificiale. Intel non si affida solo alla formazione ma pensa che l’inferenza sia la strada da percorrere.
Il CEO Intel afferma: “Pensiamo al fossato CUDA come poco profondo e piccolo,” Gelsinger continua. “Perché il settore è motivato a offrire un insieme più ampio di tecnologie per la formazione, l’innovazione, la scienza dei dati e così via.” Egli cita esempi come OpenAI, Google, MILR suggerendo che si stanno spostando verso un “livello di programmazione Pythonic” per rendere la formazione sull’intelligenza artificiale più aperta. “Sapete, l’intero settore è motivato a eliminare il mercato CUDA“, ha affermato. Ha detto Gelsinger. In un evento a New York City, rispondendo alle domande del NASDAQ, Gelsinger ha suggerito che il dominio CUDA di Nvidia non sarebbe durato per sempre.
“Quando avviene l’inferenza, ehi, una volta addestrato il modello… Non esiste alcuna dipendenza da CUDA,” Gelsinger continuò. “La questione è: riesci a gestire bene quel modello?” Ha suggerito che con Gaudi 3, mostrato sul palco per la prima volta, Intel sarà all’altezza della sfida, e sarà in grado di farlo anche con Xeon ed edge PC. Non che Intel non voglia competere nella formazione, ma “fondamentalmente il mercato dell’inferenza è il luogo in cui si svolgerà il gioco” Ha detto Gelsinger.
Ha anche colto l’occasione per promuovere OpenVINO, lo standard che Intel ha raccolto per i suoi sforzi di intelligenza artificiale, e ha previsto un mondo di elaborazione mista, alcuni che si verificano nel cloud e altri che si verificano sul PC.
Sandra Rivera, vicepresidente esecutivo e direttore generale del Data Center e del gruppo AI di Intel, ha aggiunto che la scalabilità di Intel dal data center al PC potrebbe renderla un partner privilegiato, poiché può produrre su larga scala. È una strategia audace e Gelsinger è apparso fiducioso mentre guidava il suo team durante le varie presentazioni. Può davvero affrontare CUDA? Solo il tempo dirà quanto le applicazioni per i chip lanciati oggi da Intel, e su cui stanno lavorando anche i suoi concorrenti, diventeranno sempre più diffuse.
“Concorreremo in tre modi per il 100% del TAM AI del data center.” Ha detto Gelsinger, aggiungendosi al commento di Rivera. “Con i nostri amministratori delegati, acceleratori di leadership e come fonderia. Ognuna di queste opportunità interne è a nostra disposizione: i TPU, le inferentias, i trainium, eccetera. Perseguiremo tutti questi aspetti. E perseguiremo anche ogni opportunità commerciale, con NVIDIA, con AMD, eccetera. Diventeremo un attore della fonderia.”
Non ci resta che aspettare gli interessanti sviluppi futuri.
0 commenti