見發生·知(zhī)未見
業界觀點

英偉達正在“壟斷”AI産業,國内廠(chǎng)商準備好(hǎo)了(le)嗎?

業界觀點

“爲了(le)計(jì)算(suàn)和(hé)人類的未來(lái),我捐出世界上(shàng)第一台 DGX-1 。 ”

2016 年 8 月,英偉達創始人黃仁勳,帶着一台裝載了(le) 8 塊 P100 芯片的超級計(jì)算(suàn)機 DGX-1 ,來(lái)到(dào)了(le) OpenAI 的辦公大(dà)樓。

在現(xiàn)場人員到(dào)齊後,老(lǎo)黃拿出記号筆(bǐ),在 DGX-1 的機箱上(shàng)寫下(xià)這(zhè)句話(huà)。

與其一同前往的還有特斯拉和(hé) OpenAI 的創始人,埃隆馬斯克。

這(zhè)次 OpenAI 之行,老(lǎo)黃不爲别的,就是爲了(le)把這(zhè)台剛出爐的超算(suàn)送給 OpenAI ,給他(tā)們的人工(gōng)智能(néng)項目研究加一波速。

這(zhè)台 DGX-1 價值超過百萬,是英偉達超過 3000 名員工(gōng),花(huā)費三年時(shí)間打造。

這(zhè)台 DGX-1 ,能(néng)把 OpenAI 一年的訓練時(shí)間,壓縮到(dào)短短一個月。而這(zhè),是他(tā)對(duì)人工(gōng)智能(néng)未來(lái)的豪賭,加的一波注。七年之後,在前不久的 GTC 大(dà)會(huì)上(shàng),老(lǎo)黃穿着皮衣,拿着芯片,整個宣講不離 AI 。

似乎是在告訴各位, AI 的時(shí)代,我英偉達,就要稱王了(le),當年的豪賭,他(tā)赢了(le)!

這(zhè)麽說吧,在去年經曆一波礦難之後,不少人都以爲曾靠着礦潮狂賺一筆(bǐ)的英偉達,會(huì)在礦難之下(xià)市值暴跌,一蹶不振。

但(dàn)實際情況卻有點微妙。。。英偉達的股價在跌了(le)大(dà)半年之後,從(cóng)十月份開(kāi)始,一路上(shàng)漲,到(dào)現(xiàn)在,整個英偉達市值已經漲回到(dào)了(le) 6500 億美(měi)元,是 AMD 的 4 倍,英特爾的 6 倍。

瞧瞧,這(zhè)還是當年那個求着各位買顯卡的老(lǎo)黃嘛?

而讓英偉達的股價瘋漲的,那便是他(tā)們從(cóng)十多年前就開(kāi)始押注的 AI 計(jì)算(suàn)。

給大(dà)家一個數據,從(cóng) 15 年後,英偉達的 GPU 在超算(suàn)中心的市場份額就一路上(shàng)漲,這(zhè)幾年穩居 90% 左右。

在獨立 GPU 市場上(shàng),英偉達的市場占有率也(yě)一度超過 80% 。

另外(wài),包括 YouTube 、Cat Finder 、 AlphaGo 、 GPT-3 、 GPT-4 在内, AI 曆史上(shàng)那些(xiē)叫得出名的玩(wán)意,幾乎都是在英偉達的硬件上(shàng)整出來(lái)的。

英偉達的硬件,仿佛就是新時(shí)代的内燃機,載着 AI 時(shí)代不斷前進。

差友們可能(néng)會(huì)有點疑問,爲什(shén)麽在 AI 爆發的時(shí)代,好(hǎo)像就隻有老(lǎo)黃有好(hǎo)處,其它的顯卡生産商們的顯卡不能(néng)訓練 AI 嘛?能(néng)訓練,但(dàn)隻能(néng)訓練一點點。

爲啥?這(zhè)就不得不提到(dào)英偉達從(cóng) 2006 年就開(kāi)始着手開(kāi)發一個東西—— CUDA ( 統一計(jì)算(suàn)設備架構 )。

差評君簡單解釋一下(xià)它是幹嘛的,當你(nǐ)想要計(jì)算(suàn)一些(xiē)比較龐大(dà)的運算(suàn)問題時(shí),通過 CUDA 編程,你(nǐ)就能(néng)充分利用(yòng) GPU 的并行處理(lǐ)能(néng)力,從(cóng)而大(dà)幅提升計(jì)算(suàn)性能(néng)。

差評君說一個聽來(lái)的比喻。

CPU 就好(hǎo)比是個數學教授, GPU 就是 100 個小(xiǎo)學生,放(fàng)一道(dào)高(gāo)數題下(xià)來(lái)那 100 個小(xiǎo)學生可能(néng)會(huì)懵逼;但(dàn)是放(fàng) 100 道(dào)四則口算(suàn)題下(xià)來(lái),那 100 個小(xiǎo)學生同時(shí)做肯定比數學教授快(kuài)多了(le)。

深度學習就是上(shàng)面的例子中那 100 道(dào)口算(suàn)題,那個讓 GPU 處理(lǐ)器并行運算(suàn)的 “ 工(gōng)具 ” 就叫 CUDA 。

一般來(lái)說,使用(yòng) CUDA 和(hé)不使用(yòng) CUDA ,兩者在計(jì)算(suàn)速度上(shàng)往往有數倍到(dào)數十倍的差距。

既然 CUDA 這(zhè)麽有用(yòng),爲什(shén)麽其它的 GPU 廠(chǎng)商不去搞個競品呢(ne)?不是不去搞啊,而是他(tā)們真的沒想到(dào)!

在早期, GPU 的作(zuò)用(yòng)隻是爲了(le)加速圖形渲染,各大(dà)廠(chǎng)商們認爲它就是一個圖形專用(yòng)計(jì)算(suàn)芯片,并沒有想到(dào)把 GPU 用(yòng)在其它通用(yòng)計(jì)算(suàn)方面。至于拿來(lái)做深度學習?以那個年代的 AI 能(néng)力,一是沒有太大(dà)的必要,二是也(yě)沒有人覺得它有用(yòng)。

英偉達深度學習團隊的布萊恩在聊到(dào) CUDA 時(shí)這(zhè)麽說道(dào):

“ 在 CUDA 推出十年以來(lái),整個華爾街一直在問英偉達,爲什(shén)麽你(nǐ)們做了(le)這(zhè)項投入,卻沒有人使用(yòng)它?他(tā)們對(duì)我們的市值估值爲 0 美(měi)元。 ”

不過說沒人用(yòng)也(yě)是過于嚴重了(le)。

其實早在 2012 年,多倫多大(dà)學的 Alex Krizhevsky 就在 ImageNet 計(jì)算(suàn)機視(shì)覺挑戰賽中,利用(yòng) GPU 驅動的深度學習擊敗了(le)其它對(duì)手,當時(shí)他(tā)們使用(yòng)的顯卡是 GTX580 。

在這(zhè)之後又經過了(le) 4 年,那些(xiē)搞深度學習的人才突然意識到(dào), GPU 的這(zhè)種設計(jì)結構方式,在訓練 AI 的速度上(shàng),真的是 CPU 不能(néng)比的。而擁有了(le) CUDA 原生支持的英偉達 GPU ,更是首要之選。

到(dào)現(xiàn)在,資本們已經看(kàn)到(dào)了(le) AI 的重要之處,爲什(shén)麽大(dà)家都還在卷 AI 模型,而不去卷老(lǎo)黃的市場呢(ne)?

原因在于,它們已經很(hěn)難再拿到(dào) AI 加速芯片的入場券了(le)。在人工(gōng)智能(néng)産業上(shàng),整個深度學習的框架已經是老(lǎo)黃的形狀了(le)。

AI 發展的數十年間,英偉達通過對(duì) CUDA 開(kāi)發和(hé)社區(qū)的持續投入, CUDA 和(hé)各類 AI 框架深度綁定。

當今使用(yòng)排行靠前的各類 AI 框架,就沒有不支持 CUDA 的,也(yě)就是說你(nǐ)想要讓你(nǐ)的深度學習跑的快(kuài)?買張支持 CUDA 的高(gāo)性能(néng)卡是最好(hǎo)的選擇,說人話(huà)就是——買 N 卡吧。

當然,在 CUDA 大(dà)力發展期間,也(yě)有其它公司在嘗試着打破英偉達這(zhè)種接近壟斷的局面。

2008 蘋果就提過出 OpenCL 規範,這(zhè)是一個統一的開(kāi)放(fàng) API ,旨在爲各種不同的 GPU 型号提供一個規範,用(yòng)以開(kāi)發類似 CUDA 的通用(yòng)計(jì)算(suàn)軟件框架。

但(dàn)是,通用(yòng)就意味着不一定好(hǎo)用(yòng)。

因爲各大(dà)廠(chǎng)商 GPU 的型号繁而複雜(zá),爲了(le)适應各種硬件,驅動版本也(yě)多如牛毛,質量參差不齊。而且缺少對(duì)應的廠(chǎng)商進行針對(duì)性的優化,所以,無論是哪一個版本的 OpenCL ,在同等算(suàn)力下(xià),都比不過使用(yòng) CUDA 的速度。

而且恰恰是因爲 OpenCL 的通用(yòng)性,想要開(kāi)發支持 OpenCL 的框架,要比開(kāi)發CUDA 的複雜(zá)不少。原因還是同一個,缺少官方的支持,看(kàn)看(kàn)英偉達對(duì)CUDA開(kāi)發的工(gōng)具支持吧,CUDA Toolkit,NVIDIA GPU Computing SDK以及NSight等等。

OpenCL這(zhè)邊,就略顯寒酸了(le)。。。

這(zhè)就導緻如今能(néng)支持 OpenCL 的深度學習框架寥寥無幾。

舉個很(hěn)簡單的例子,當下(xià)最火的框架 PyTorch ,就連官方都沒有專門(mén)對(duì)OpenCL進行支持,還得靠着第三方開(kāi)源項目才能(néng)用(yòng)。

那同爲顯卡供應商的 AMD ,在面對(duì)老(lǎo)黃如日中天的 CUDA 時(shí),除了(le) OpenCL ,有沒有自(zì)己的解決辦法呢(ne)?

方法确實是有,但(dàn)效果也(yě)确實不咋的。2016 年 AMD 發布了(le)全新的開(kāi)放(fàng)計(jì)算(suàn)平台—— ROCm ,對(duì)标的就是英偉達的 CUDA ,最關鍵的一點是,它還在源碼級别上(shàng)對(duì) CUDA 程序進行支持。

你(nǐ)看(kàn),就算(suàn)是老(lǎo)黃的死對(duì)頭 AMD ,想的也(yě)不是另起爐竈,而是降低(dī)自(zì)己适配 CUDA 的門(mén)檻。。。

但(dàn)是,時(shí)至今日, ROCm 依然還是隻支持 Linux 平台,可能(néng)也(yě)是用(yòng)的人太少了(le),有點擺爛的味道(dào),畢竟,既然你(nǐ)支持 CUDA ,那我爲什(shén)麽要費盡心力去給你(nǐ)的 ROCm 專門(mén)編寫一套支持框架呢(ne)?

同年,谷歌也(yě)有了(le)行動,但(dàn)畢竟不是芯片制造商,谷歌隻是推出了(le)自(zì)己的 TPU 平台,專門(mén)針對(duì)自(zì)家的 TensorFlow 框架進行優化,當然原生支持的最好(hǎo)的也(yě)隻有 TensorFlow 了(le)。

至于英特爾那邊,也(yě)推出了(le)一個 OneAPI ,對(duì)标老(lǎo)黃的 CUDA ,不過由于起步較晚,現(xiàn)在還處于發展生态的環節,未來(lái)會(huì)怎樣還不太好(hǎo)說。

所以靠着先發優勢還有原生支持,導緻現(xiàn)在的深度學習,基本上(shàng)離不開(kāi)英偉達的 GPU 和(hé)他(tā)的 CUDA 。

最近大(dà)火的 ChatGPT ,就用(yòng)了(le)老(lǎo)黃的 HGX 主闆和(hé) A100 芯片,而老(lǎo)黃對(duì)此也(yě)是很(hěn)有自(zì)信的說道(dào):

“ 現(xiàn)在唯一可以實際處理(lǐ) ChatGPT 的 GPU ,那就隻有我們家的 HGX A100 。 ”

沒錯,沒有其它可用(yòng)的了(le),這(zhè)就是老(lǎo)黃的有恃無恐。

而随着 OpenAI 對(duì)大(dà)模型 AI 的成功驗證,各家巨頭對(duì)大(dà)模型 AI 的紛紛入局,英偉達的卡已經立馬成了(le)搶手貨。

所以如今的 AI 創業公司,出現(xiàn)了(le)一件很(hěn)有意思的現(xiàn)象,在他(tā)們的項目報(bào)告上(shàng),往往會(huì)搭上(shàng)一句我們擁有多少塊英偉達的 A100 。

當大(dà)家在 AI 行業紛紛投資淘金(jīn)時(shí),英偉達就這(zhè)樣靠着給大(dà)家賣水(shuǐ)——提供 AI 加速卡,大(dà)賺特賺,關鍵還在于,隻有它賣的水(shuǐ)能(néng)解渴。

因爲它的硬件以及工(gōng)具集,已經能(néng)影響到(dào)整個 AI 産業的戰局和(hé)發展速度了(le)。

更可怕的是,英偉達的優勢已經形成了(le)一種壁壘,這(zhè)壁壘厚到(dào)就連全球第二大(dà) GPU 廠(chǎng)商 AMD 都沒有辦法擊穿。

所以在 AI 大(dà)浪滔天的現(xiàn)在,能(néng)整出屬于自(zì)己的 AI 大(dà)模型固然重要,但(dàn)差評君卻覺得,啥時(shí)候能(néng)有自(zì)己的英偉達和(hé) CUDA 也(yě)同樣不可小(xiǎo)觑。

當然,這(zhè)條路也(yě)更難。

最後,差評君覺得在未來(lái),我們需要抓緊突破的,絕對(duì)不隻是對(duì)人工(gōng)智能(néng)大(dà)模型相關的研究,更爲重要的是整個計(jì)算(suàn)芯片的設計(jì),制造,以及 AI 生态的建設。

新的工(gōng)業革命已經到(dào)來(lái), AI 技術的發展不僅加速了(le)人類生産力的發展,也(yě)加速了(le)那些(xiē)落後産能(néng)的淘汰,現(xiàn)在各行各業都處在變革的前夕。

強者越強,弱者無用(yòng)。雖然這(zhè)句話(huà)很(hěn)殘酷,但(dàn)在AI 領域,如果不奮力追上(shàng),可能(néng)真的已經不需要 “ 弱者 ” 了(le)。

網站(zhàn)建設開(kāi)發|APP設計(jì)開(kāi)發|小(xiǎo)程序建設開(kāi)發
下(xià)一篇:傳台積電代工(gōng)報(bào)價凍漲 提出“加量回饋方案”
上(shàng)一篇:抖音(yīn)深度布局個人小(xiǎo)店(diàn),巨頭加碼貨架電商