訂閱
糾錯
加入自媒體

ChatGPT背后的算力博弈,中國企業(yè)亟待打破美國桎梏

2023-04-27 11:28
鋅財經
關注

作者|孫鵬越

編輯|大   風

如今AIGC市場一片鮮花著棉烈火烹油,不論是ChatGPT、AUTOGPT,或者國內的文心一言,市場亂烘烘你方唱罷我登場,不斷登上熱搜。 華西證券預測,全球AI軟件市場規(guī)模將在2025年達到1260億美元,2021年到2025年復合增長率為41.02%。 ChatGPT繁榮的背后,是堪稱天文數(shù)字的算力支持。 據測算,AI訓練服務器方面,單個大語言模型訓練驅動AI訓練服務器需求約2億美元;AI推理服務器方面,如ChatGPT在初期便可帶動推理服務器需求約45億美元。 一時間,ChatGPT們層出不窮,而它們背后的AI服務器賽道也開始隨之水漲船高。 

算力決定ChatGPT 

算力作為大模型的核心引擎,它的計算公式很簡單:有多少枚GPU芯片就能產生多大的算力,高端GPU芯片的數(shù)量,能直接影響算力的大小。 ChatGPT所需要的算力并不是固定的,反而是逐次遞增。

ChatGPT越聰明,背后的代價是所需算力越來越多。 據媒體推測,GPT-3訓練成本預計在500萬美元/次,GPT-3模型需花費訓練成本約140萬美元,Google的PaLM模型需花費訓練成本約1120萬美元。 

據微軟高管透露,為ChatGPT提供算力支持的AI超級計算機,是微軟在2019年投資10億美元建造的一臺大型頂尖超級計算機,配備了數(shù)萬個英偉達A100 GPU,還配備了60多個數(shù)據中心總共部署了幾十萬個英偉達GPU輔助。 

為了滿足與日俱增的ChatGPT算力需求,微軟宣布將推出基于英偉達最新旗艦芯片H100 GPU和英偉達Quantum-2 InfiniBand網絡互連技術,推出Azure可大規(guī)模擴展的AI虛擬機系列,以顯著加速AI模型的開發(fā)。 看上去,ChatGPT的背后就是滿篇的英偉達、英偉達和英偉達。 

英偉達

 實際上,英偉達作為硬件霸主,不僅在消費級市場占據大部分市場,也是AI服務器芯片領域的頭號選擇。 

物以稀為貴,目前英偉達的旗艦芯片H100,在一周時間漲價近7萬元人民幣,售價普遍高達30萬元左右;次旗艦A100芯片在短短三個月多時間里,從6萬元一路漲至9萬元,漲幅超過50%。 不僅漲價買不到,甚至美國還禁止英偉達賣芯片。

在去年8月,美國政府發(fā)布出口管制政策,禁止英偉達將A100、H100兩款芯片售往中國。 為了不丟掉中國市場,又符合美國出口管制,英偉達隨后推出“性能閹割版”A800、H800芯片。

但這兩款芯片同樣被供不應求的市場一搶而空,價格也隨之水漲船高。

 以百度阿里騰訊為首,國內大部分互聯(lián)網公司都已經宣布進軍大模型。市場統(tǒng)計,從ChatGPT之后,中國年內即將推出的大模型數(shù)量已超10個。 如果想要達到ChatGPT的水準,至少需要3000枚A100芯片,以9萬/枚的價格來算就是2.7億人民幣才能完成一個大模型部署;10個大模型就需要3萬枚A100芯片,27億人民幣。 

加上后期訓練成本,所需要的芯片更是天文數(shù)字。但按照目前英偉達的交貨時間來看,想要買到足夠的芯片,可不是一件容易的事情。 恍惚間,礦卡時代又再次來臨。 

再次坐在風口的英偉達

 在前些年虛擬貨幣火熱的時候,作為挖礦必備的顯卡提供商,英偉達幾年時間大賺特賺了48億美元。

如今又靠著ChatGPT活出第二世,讓歷史再次重演。 面對市場需求激增,借AI浪潮翻身的英偉達很雞賊的推出“算力租賃”服務。 

3月21日,2023年GTC大會上,英偉達創(chuàng)始人兼首席執(zhí)行官黃仁勛推出NVIDIA DGX Cloud™,可以為企業(yè)提供訓練生成式AI高級模型所需的基礎設施和軟件。

DGX Cloud每個實例配有8個H100或A100 80GB GPU,企業(yè)可以“云租賃”的形式按月租用DGX Cloud集群,價格為每實例3.7萬美元/月起。 

英偉達真的沒有替代品嗎?為什么企業(yè)寧愿選擇租賃,也不選擇其他GPU芯片商? 

來源:網絡 

IDC數(shù)據顯示,國內GPU服務器在2021年占國內服務器市場規(guī)模的比例超過88.4%,使用英偉達的產品占比超80%。 AI大模型所需要的芯片在處理信息的精細度和算力速度要求更高,在超算領域,雙精度浮點計算能力FP64是進行高算力計算的硬性指標。

而英偉達的H100、A100是目前唯一具備這些能力的芯片。 美國卡脖子的并不只有英偉達芯片的售賣,從技術、設備、材料都限制中國企業(yè)的研發(fā)。但在美國的重重限制下,中國企業(yè)仍然頂著壓力跑出幾匹黑馬。 

根據IDC最新發(fā)布的《中國加速計算市場(2021年下半年)跟蹤報告》,2021年全年中國AI服務器市場規(guī)模達350.3億元,同比增長68.6%。 

在企業(yè)級GPU芯片領域,中國廠商壁仞科技在2022年推出“BR100”芯片、天數(shù)智芯推出了“智鎧100”芯片、寒武紀推出了“思元270”芯片。 

其中壁仞科技稱,BR100擁有全球最高算力,峰值算力達到了市場在售旗艦產品的三倍以上,16位浮點算力達到1000T以上、8位定點算力達到2000T以上,單芯片峰值算力達到PFLOPS級別。 

雖然數(shù)據良好,但缺少至關重要的處理FP64的能力,依然無法完全取代英偉達H100、A100倆兄弟。 并且,英偉達使用的CUDA平臺早已成為應用最為廣泛的AI開發(fā)生態(tài)系統(tǒng),只支持英偉達的Tesla架構GPU,在現(xiàn)階段根本無法用國產芯片取代。 

雖然中國芯片廠商正在對GPU芯片領域奮起直追,但技術差距和美國卡脖子仍是關鍵性問題,還需要一段時間的努力。 

不止AI服務器 

借著大模型東風一路上揚的不止AI服務器和GPU芯片,還有儲存器市場。 ChatGPT的運行條件包括訓練數(shù)據、模型算法和高算力,其中高算力的底層基礎設施是完成對海量數(shù)據、訓練的基礎。 

最顯而易見的特點就是ChatGPT經歷數(shù)次迭代之后,參數(shù)量從1.17億增加到1750億,近乎兩千倍的增長,也給計算存儲帶來極大的挑戰(zhàn)。 AI新時代開啟,預計全球數(shù)據生成、儲存、處理量將呈等比級數(shù)增長,存儲器將顯著受益。

而計算存儲是ChatGPT的重要基石,隨著阿里、百度等科技巨頭類ChatGPT項目入局,整體計算存儲市場需求將進一步快速提升。 

文心一言 隨著AIGC持續(xù)火熱,北京、上海、廣州等數(shù)字經濟發(fā)達地區(qū)也出臺了政策推進智算中心建設。

比如,北京市提出“新建一批計算型數(shù)據中心和人工智能算力中心,到2023年,培育成為人工智能算力樞紐”;上海市提出“布局建設一批具有高性能、高吞吐的人工智能算力中心,推動公共算力服務平臺建設”等。 

而各行各業(yè)都將面臨著ChatGPT的洗禮,在迎新一輪人工智能的浪潮下,和AI相關的行業(yè)將會迎來廣闊的市場空間。 而中國企業(yè)也勢必會沖破美國掣肘,打破不公平的桎梏。

       原文標題 : ChatGPT背后的算力博弈,中國企業(yè)亟待打破美國桎梏

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號