黃仁勳:我從不在乎市佔率英偉達唯一目標是創造新市場
「這是我聽過的黃仁勳最好的採訪!」英偉達CEO黃仁勳的一場爐邊談話再次引起熱議:英偉達從來沒有一天談論過市場份額。我們所討論的只是:如何創造下一個東西?如何將過去需要一年才能完成的飛輪縮短到一個月?
面對Azure和AWS等自主建構ASIC晶片的雲端運算大客戶,老黃打了個比喻:
公司受到魚池大小的限制,唯一的目標是用想像力擴大魚池。 (指創造新市場)
當然了,除了提及英偉達,老黃也討論了AGI的智慧擴展、機器學習的加速、推理與訓練的重要性…
雖然時長感人(近1個半小時),但一大波網友已經看完並交起了作業(開始捲了是吧!)
網友:學起來!學起來!
黃仁勳:未來推理的成長將遠大於訓練
鑑於影片較長,量子位先直接給大家劃重點了,老黃的主要觀點包括(省流版):
「口袋裡的AI助理」很快就會以某種形式出現,儘管最初可能會不完美;
英偉達的競爭優勢在於建立了從GPU、CPU、網路到軟體和函式庫的全端平台;
擴展人工智慧的重點已從訓練前轉移到訓練後和推理;
推理(inference)時計算將作為一個全新的智慧擴展向量;
未來推理的成長將遠大於訓練的成長;
閉源和開源將共存,開源模型可能用於創建特定領域的應用;
……
(以下為重點部分整理)
Q:關於個人AI助理的發展前景,您認為我們何時能在口袋裡裝上一個無所不知的AI助理?
A:很快就會以某種形式出現。這個助理一開始可能不夠完美,但會隨著時間推移而不斷改進,這是技術發展的必然法則。
Q:目前AI領域的發展變化速度是否是您看過最快的?
A:是的,這是因為我們重新發明了計算。在過去10年裡,我們將計算的邊際成本降低了10萬倍,而依照摩爾定律可能只能降低100倍。
我們透過以下方式實現了這一點:
引入加速運算,將原本在CPU上效率不高的工作轉移到GPU上
發明新的數值精度
開發新架構(如張量核心)
採用高速記憶體(HBM)
透過MVLink和InfiniBand實現系統擴展
這種快速發展使我們從人工編程轉向了機器學習,整個技術堆疊都在快速創新和進步。
Q:模型規模擴展方面有哪些變化?
A:以前我們主要關注預訓練模型的擴展(重點在模型大小和資料規模),這使得所需計算能力每年增加4倍。
現在我們看到後訓練(post-training)和推理階段也在擴展。人類的思考過程不可能是一次完成的,而是需要快速思考、慢思考、推理、反思、迭代和模擬等多個環節。
而且,以前人們認為預訓練難,推理簡單,但現在都很難了。
Q:與3-4年前相比,您認為NVIDIA今天的優勢是更大還是更小?
A:其實更大了。過去人們認為晶片設計就是追求更多的FLOPS和性能指標,這種想法已經過時。
現在的關鍵在於整個機器學習系統的資料管線(flywheel),因為機器學習不僅僅是軟體編程,而是涉及整個資料處理流程。從一開始的資料管理就需要AI參與。資料的收集、整理、訓練前的準備等每個環節都很複雜,需要大量處理工作。
Q:與Intel等公司相比,NVIDIA在晶片製造和設計方面有什麼不同的策略?
A: Intel的優勢在於製造和設計更快的x86串行處理晶片,而NVIDIA採取不同策略:
在平行處理中,不需要每個電晶體都很出色
我們更傾向於使用更多但較慢的晶體管,而不是更少但更快的晶體管
寧願有10倍數量、速度慢20%的晶體管,也不要數量少10倍、速度快20%的電晶體
Q:關於客製化ASIC(如Meta的推理加速器、亞馬遜的Trainium、Google的TPU)以及供應短缺的情況,這些是否會改變與NVIDIA的合作動態?
A:這些都是在做不同的事情。 NVIDIA致力於為這個新的機器學習、生成式AI和智慧Agent世界建立運算平台。
在過去60年裡,我們重新發明了整個運算技術棧,從程式設計方式到處理器架構,從軟體應用到人工智慧,每個層面都發生了變革。我們的目標是創建一個隨處可用的計算平台。
Q: NVIDIA作為一家公司的核心目的是什麼?
A:建構一個無所不在的架構平台。我們不是在爭取市場份額,而是在創造市場。我們專注於創新和解決下一個問題,讓科技進步的速度更快。
Q: NVIDIA對待競爭對手和合作夥伴的態度是什麼?
A:我們對競爭很清醒,但這不會改變我們的使命。我們向AWS、Azure等合作夥伴提前分享路線圖,保持透明,即使他們在開發自己的晶片。對於開發者和AI新創公司,我們提供CUDA作為統一入口。
Q:對OpenAI的看法如何?如何看待它的崛起?
A: OpenAI是我們這個時代最重要的公司之一。雖然AGI的具體定義和時間點並不是最重要的,但AI能力的發展路線圖將會非常壯觀。從生物學家到氣候研究者,從遊戲設計師到製造工程師,AI已經在革新各個領域的工作方式。
我非常欣賞OpenAI推進這一領域的速度和決心,並為可以資助下一代模式感到高興。
Q:您認為模型層是否正在走向商品化,以及這對模型公司的影響是什麼?
A:模型層正在商品化,Llama的出現使得建造模型變得更便宜。這將導致模型公司的整合,只有那些擁有經濟引擎並能夠持續投資的公司才能生存。
Q:您如何看待AI模型的未來,以及模型與人工智慧之間的差異?
A:模型是人工智慧不可或缺的組成部分,但人工智慧是一種能力,需要應用於不同的領域。我們將看到模型層的發展,但更重要的是人工智慧如何應用於各種不同的應用場景。
Q:您如何看待X公司,以及他們建立大型超級集群的成就?
A:他們在19天內(通常需要3年)建造了一個擁有100,000個GPU的超級電腦叢集。這展示了我們的平台的力量,以及我們能夠將整個生態系統整合在一起的能力。
Q:是否認為分散式計算和推理擴展將會發展到更大規模?
A:是的,我對此非常熱情和樂觀。推理時計算作為一個全新的智慧擴展向量,與僅僅建立更大的模型截然不同。
Q:在人工智慧中,是否很多事情只能在運行時完成?
A:是的,很多智慧工作不能先驗地完成,很多事情需要在執行時完成。
Q:您如何看待人工智慧的安全性?
A:我們必須建立安全的人工智慧,並為此需要與政府機構合作。我們已經在建立許多系統來確保人工智慧的安全性,並需要確保人工智慧對人類是有益的。
Q:你們公司超過40%的收入來自推理,推理的重要性是否因為推理鏈而大大增加?
A:沒錯,推理鏈讓推理的能力提高了十億倍,這是我們正在經歷的工業革命。未來推理的成長將遠大於訓練的成長。
Q:你們如何看待開源和閉源人工智慧模型的未來?
A:開源和閉源模型都會存在,它們對於不同的產業和應用都是必要的。開源模型有助於啟動多個產業,而閉源模型則是經濟模型創新的引擎。
對於上述這些,你怎麼看?
參考連結:
[1]https://x.com/StartupArchive_/status/1848693280948818070
[2]https://www.youtube.com/watch?v=bUrCR4jQQg8