相比多年以前的Alpha Go大戰(zhàn)世界圍棋冠軍,AI在消費互聯(lián)網(wǎng)席卷滲透,ChatGPT的出圈更能代表AI邁向縱深發(fā)展,標志著人工智能大模型和超級應用起航的新節(jié)點" />
訂閱
糾錯
加入自媒體

ChatGPT之外,中文大模型開局即卷

來源 | 產(chǎn)業(yè)科技

大洋彼岸的AIGC熱浪襲來,國內(nèi)資本和AI玩家燥熱一片。

相比多年以前的Alpha Go大戰(zhàn)世界圍棋冠軍,AI在消費互聯(lián)網(wǎng)席卷滲透,ChatGPT的出圈更能代表AI邁向縱深發(fā)展,標志著人工智能大模型和超級應用起航的新節(jié)點。 

由于中國在互聯(lián)網(wǎng)數(shù)據(jù)上具備優(yōu)勢,AI場景開發(fā)及應用并不落后于歐美。與以往的copy模式不同,國內(nèi)互聯(lián)網(wǎng)巨頭在面臨AIGC浪潮時,憑借多年的人才和技術儲備,已經(jīng)從跟隨的角色變?yōu)橹鲃觿?chuàng)新,甚至在中文語境中超越國際選手。 

因此,一幅圍繞AIGC和AI大模型的內(nèi)卷鏡像也在國內(nèi)呈現(xiàn)。各家互聯(lián)網(wǎng)公司掌門人親自掛帥,你方唱罷我登場,都不愿舍棄在OpenAI掀起的大模型風口中分一杯羹。 

云的時代,向來以快制勝,快不僅僅代表對新應用和新功能更加敏捷機動,更彰顯企業(yè)對市場趨勢的前瞻性布局。大模型時代更甚,先知先覺者更快一步,后來者便是跟隨。 

一如百度和阿里。 

3月16日,百度發(fā)布文心一言,打響中文大模型第一槍;二十余天后,阿里董事局主席張勇才在阿里云峰會上正式發(fā)布通義千問。百度文心大模型早在2019年就已推出,而阿里通義大模型是阿里達摩院于2022年9月發(fā)布。 

不只是產(chǎn)品層面的落后,在AI戰(zhàn)略層面,阿里同樣學步百度。通義千問發(fā)布后,阿里首提“云智一體”理念,并將其作為阿里云集團下一個戰(zhàn)略方向。其實,“云智一體”并非新概念。 

三年前,百度智能云在戰(zhàn)略發(fā)布中提出了“云智一體”理念,通過云計算和人工智能融合創(chuàng)新,把算力、框架、模型,場景應用打造成標準化產(chǎn)品,進而降低企業(yè)獲取和使用人工智能的門檻。 

阿里乃至更多云計算企業(yè),此時將目光投向“云智一體”,做百度的追隨者,恰恰證明AI應用能力是云計算產(chǎn)業(yè)基礎設施成熟后的核心能力。這種能力更在于“智”的水平,即在智能基礎設施之上的通用型AI產(chǎn)品能力。 

AIGC開局即卷,抄作業(yè)的依然會有。但AI賽道和云智一體本是一場科技馬拉松,比拼的是投入和耐力,只有軟硬底子皆強,才能真正成為產(chǎn)業(yè)所需的AI內(nèi)核。 

從大廠卷起

若將AIGC的主體分類,可大致分為ChatGPT和其他,其中ChatGPT背后站著芯片巨頭英偉達和國際大廠微軟,與其他AIGC玩家沒有可比性。但以大廠視角來看,確有先后優(yōu)劣之分。 

國內(nèi),百度在ChatGPT之后,率先推出了自己的AIGC產(chǎn)品文心一言。在市場看來,文心一言問世的意義要比和ChatGPT作比較大得多,雖然尚存差距和不足,但它打開了與百度智能云聯(lián)動的想象空間,并向外界展示中國科技和世界同步的能力。 

一個細節(jié)是,李彥宏在文心一言發(fā)布會上至少說了三遍“文心一言還不完美”。在他看來,創(chuàng)業(yè)公司完全不用擔心市場是不是足夠大,只有出來之后才有機會更快地去迭代,去提升。 

對于如何定位文心一言,李彥宏稱文心一言是全世界唯一一個由大廠推出的生成式AI應用。的確,彼時微軟只是調(diào)用ChatGPT接口,國際大廠谷歌、Facebook也沒推出成型的類ChatGPT產(chǎn)品,而亞馬遜近期才發(fā)布自己的大語言模型。 

國內(nèi)的玩家更不用說,自百度之后紛紛學步,先是阿里悄悄啟動企業(yè)用戶定向內(nèi)測,后是360、商湯科技、騰訊、京東、華為、科大訊飛磨刀霍霍。 

既是大廠自己推出的AIGC,與ChatGPT有何不同呢?從基因來看,大廠基于自身對業(yè)務的理解和技術模型沉淀,在AIGC價值創(chuàng)新層面,更注重場景穿透和服務能力,也就是各位掌門人口中的“產(chǎn)業(yè)能力”。 

更細微的視角是,文心一言由中文大模型生成,具備獨特的中文語義理解能力。根據(jù)使用者反饋,文心一言獨特的中文語義理解,相比ChatGPT等國際產(chǎn)品,更適配中國用戶。如在語義問題表達,分析和答案歸集層面,匹配度更高。 

同處中文大模型賽道,阿里的通義千問與百度的文心一言誰更強,也成為市場關注的焦點。首先在功能層面,文心一言有文學創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理推算、中文理解、多模態(tài)生成能力等,而通義千問的功能有創(chuàng)作、回答問題、撰寫代碼、表達觀點等。 

橫向比較,文心一言的功能更加豐富。盡管通義千問還搭配效率類、生活類、娛樂類的定制模塊,但相比之下,文心一言的場景擴展能力更突出。 

文心一言還與百度智能云聯(lián)動,所推出的企業(yè)服務板塊涵蓋企業(yè)辦公場景、金融服務場景、政務服務場景、商旅服務場景及電商直播場景等。場景內(nèi)測顯示,文心一言企業(yè)服務功能能有效提升產(chǎn)業(yè)端服務效率,強化服務體驗。 

其次,評判大模型的優(yōu)劣根本落腳點在于服務匹配的精準度和邏輯分析的嚴謹性。以此來看,文心一言也強于通義千問。 

據(jù)媒體公開測評,被問及“小明的父母生了五個孩子,前四個孩子分別叫大牛、二牛、三牛和四牛,第五個孩子叫什么名字?”文心一言回答第五個孩子叫小明,而通義千問則回答第五個孩子叫小牛。 

在創(chuàng)作能力上,讓文心一言和通義千問為紅樓夢前八十回續(xù)寫結局,文心一言給出了一個想象的可能結局,把賈寶玉和林黛玉愛情故事變成了一個充滿希望和勇氣的故事。而通義千問直接表示無法續(xù)寫結局。 

更驚訝的是,問及通義千問何時誕生時,通義千問竟然給出了 “2023年9月2日正式誕生”的答案。這些問題并非時事熱點,剔除了訓練參數(shù)滯后的限制,但通義千問的表現(xiàn)讓人失望。 

差異的根源在模型參數(shù)和復雜度上。對于大模型而言,模型參數(shù)規(guī)模越大,模型結構設計越復雜,所承載的邏輯分析預測能力越強,給出的答案自然更精準。據(jù)了解,在GPT-3階段,OpenAI為了使模型性能更接近人類,就使用了45TB的數(shù)據(jù)和近1萬億個單詞對其進行訓練,大約是1351萬本牛津詞典。 

百度文心一言大模型起步較早,2019年已經(jīng)推出文心大模型ERNIE1.0版本,2021年基于文心大模型發(fā)布全球首個百億參數(shù)的對話大模型PLATO-XL。如今,百度推出更新的ERNIE3.0 Zeus,已經(jīng)擁有千億級參數(shù)。 

數(shù)據(jù)顯示,文心一言的訓練數(shù)據(jù)包括萬億級網(wǎng)頁數(shù)據(jù)、數(shù)十億搜索數(shù)據(jù)和圖片數(shù)據(jù)、百億級的語音日均調(diào)用數(shù)據(jù)、超5000億事實的知識圖譜。萬億級數(shù)據(jù)加上海量用戶頻繁調(diào)用使用,文心一言的學習能力進一步強化,模型泛化和遷移能力決定了其在中文語言處理上更具優(yōu)勢。 

數(shù)據(jù)背后,終極考驗AI大模型的底層能力是算法和算力。如果說數(shù)據(jù)和參數(shù)是大模型搭建的基礎,那么算法和算力決定了大模型性能有多強,能走多遠,這也會繼續(xù)拉大領跑者與學步者的差距,讓GPT玩家們卷到天際。

這一切都是被逼的。

大模型的終極角逐

AI大模型需要在海量數(shù)據(jù)的基礎上,通過AI深度學習算法,訓練出深度神經(jīng)網(wǎng)絡模型。從模型訓練到模型優(yōu)化再到應用擴展,都需要強大的算法和算力支撐。 

ChatGPT觸動AIGC產(chǎn)業(yè)爆發(fā),是AI領域數(shù)據(jù)、算法、算力多年沉淀精進的結果。AIGC之所以能夠站上潮頭,算法的突破是第一步。 

歷經(jīng)近十年迭代,AIGC的算法從第一代生成式對抗網(wǎng)絡GAN過渡到深度學習模型CLIP、神經(jīng)網(wǎng)絡架構Transforme,打破了傳統(tǒng)AI模型在文本圖片關聯(lián)、自然語言語義分析處理上的障礙。而后,Diffusion擴散模型向語音、圖畫、視頻等領域延伸,進一步強化AI的模仿和創(chuàng)造力。ChatGPT當前采用的就是Transformer算法架構。 

于國內(nèi)AI大模型玩家而言,得益于基礎數(shù)據(jù)和訓練參數(shù)優(yōu)勢,AI應用探索速度更快,場景滲透更深,互聯(lián)網(wǎng)巨頭已經(jīng)掌握了前沿的算法框架,算法支撐尚可。 

如文心大模型在既有的神經(jīng)網(wǎng)絡模型架構之上,還加入了知識圖譜,讓模型能夠通過先驗知識和歷史經(jīng)驗理解語義,更加精準地預測提問者的期待和目的。這在中文語境中優(yōu)勢更加明顯。 

算法之外,AI大模型最短缺的是算力。算力是提升模型性能的基本支撐,不只是AIGC領域,對于整個人工智能產(chǎn)業(yè)、產(chǎn)業(yè)數(shù)字化來講都至關重要,以至于有不少科學家呼吁算力與電氣化同等重要。 

黃仁勛既然能喊出ChatGPT是AI的iPhone時刻,ChatGPT背后的英偉達高端芯片支撐是關鍵。即便有芯片巨頭撐腰,ChatGPT發(fā)布數(shù)月版本幾經(jīng)迭代,仍然存在算力缺口,如ChatGPT付費版ChatGPT Plus暫停付費,OpenAI給出的解釋是需求量過大。 

AIGC的算力缺口到底有多大?當ChatGPT激起分布式大規(guī)模訓練浪潮后,摩爾定律限制被打破,算力需求被提升至指數(shù)級增長。券商報告顯示,訓練AI大模型對算力成本消耗量巨大。 

“GPT-3訓練一次成本約140萬美元,對于一些更大的LLM(大型語言模型),訓練成本介于200萬美元至1200萬美元之間。以ChatGPT在1月的獨立訪客平均數(shù)1300萬計算,其對應芯片需求為3萬多片英偉達A100 GPU,初始投入成本約為8億美元,每日電費在5萬美元左右。” 

隨著ChatGPT的版本迭代,GPT-4及4+以上版本對算力消耗顯著增加,輸入成本增加了50%以上,輸出成本增加200%以上。因此,為了應付成本和算力缺口,ChatGPT不得不降低用戶訪問次數(shù),乃至暫停測試項目。 

ChatGPT帶來的算力恐慌也在國內(nèi)顯現(xiàn)。一方面受地緣政治影響,美國禁止高端芯片設備和人工智能芯片對華出口,直接影響英偉達和AMD等芯片廠商對國內(nèi)高端芯片需求的供應。即使供應不受限,進口芯片的成本、個性化性能需求和信創(chuàng)安全性也是壓力。 

另一方面,IDC預測,未來三年新生產(chǎn)的數(shù)據(jù)量將超過過去三十年綜合,未來五年國內(nèi)智算規(guī)模的復合增長率超50%。從電商到直播,從金融到政務,從企服到醫(yī)療等,數(shù)字化轉型提速對算力的需求也會呈現(xiàn)爆發(fā)式增長,云計算企業(yè)軍備競賽空前緊張。 

可以說,目前AI算力缺口根本無法統(tǒng)計,從二級市場中芯片算力概念領漲,也能看出國內(nèi)算力的緊缺。隨著AIGC市場需求上升,比拼算力是大模型企業(yè)突圍的立足之本,而算力主要技術載體芯片又是關鍵中的關鍵。 

芯片的制造過程非常復雜,核心分為設計、制造過程,其中設計包含EDA、芯片IP授權、FPGA(萬能芯片),制造技術要求高、流程多,往往以全球化、產(chǎn)業(yè)鏈形式呈現(xiàn)。 

具體來看,芯片制造包含晶圓、光刻、離子注入、刻蝕、切割封裝、量測等環(huán)節(jié),每個環(huán)節(jié)涉及到不同設備,而且不僅技術要求高,投入成本也非常高。以光刻為例,目前國內(nèi)直接做光刻機的公司幾乎沒有,一臺光刻機需要10萬個以上的零部件,價格在10億元以上。 

市場認為,一萬枚英偉達A100高端芯片是做好AI大模型的算力門檻,但缺芯恰是中國大模型企業(yè)普遍面臨的難題。

先發(fā)者覺醒

AIGC產(chǎn)品能力的優(yōu)劣,源于大模型企業(yè)在核心技術儲備上的強弱。從大廠的AI技術基座來看,領跑者的飛輪效應和非線性增長能力凸顯,破局之勢出現(xiàn)。 

以中文大模型百度為例,文心一言背后,可見昆侖芯高端芯片、飛漿深度學習框架、文心預訓練大模型技術基座。 

終極算力PK層面,百度芯片自研起步于2010年,是國內(nèi)最早布局AI加速領域的芯片企業(yè)。彼時造芯還屬于百度的高度保密項目,起初從FPGA架構研發(fā)AI芯片,起點較高,雖然沒有完全自研,但對芯片的技術探索領先其他大廠。 

2018年7月,百度發(fā)布自研芯片“昆侖芯”,2020年量產(chǎn)并應用于AIGC、搜索推薦、自動駕駛、智能終端等板塊。 

2021年,昆侖芯宣布獨立運營,百度芯片首席架構師歐陽劍出任CEO。昆侖芯完成獨立融資后,首輪估值達130億元,中國國產(chǎn)芯片超級獨角獸自此誕生。 

作為大廠造芯項目,百度芯片的算力邏輯始于復雜場景的處理運算需求。上至百度智能云、無人駕駛,下到搜索基本盤和小度智能終端,百度自研芯片都已經(jīng)開始跑起來。 

支撐文心大模型的昆侖芯在綜合算力和成本方面,甚至優(yōu)于芯片廠商的高端芯片。盡管文心一言相較ChatGPT發(fā)布較晚,訓練量和模型優(yōu)化尚且不足,但自主可控的算力資源為模型迭代打下基礎。 

公開資料顯示,昆侖芯2代AI芯片采取7nm工藝打造,這種技術規(guī)格在業(yè)界處于較高水平,單位體積所能承載的集體管更多,性能更強。昆侖芯的算力可以達到128 TFLOPS@FP16。 

為了適應云智一體的算力需求,百度近年來還加緊布局云計算中心,目前擁有陽泉、徐水、定興三個云計算中心,算力規(guī)模在國內(nèi)大廠前列。 

2023年3月,百度完成了陽泉智算中心升級,算力規(guī)模達4 EFLOPS,是目前亞洲最大單體智算中心。對比國內(nèi)整體算力規(guī)模,2022年國內(nèi)服務器規(guī)模在2000萬臺左右,算力規(guī)模超150 EFLOPS。 

充足的算力為AI大模型訓練及產(chǎn)業(yè)增智開辟空間,對于百度、阿里,乃至AI后發(fā)選手騰訊、京東等大廠而言,面向產(chǎn)業(yè)的AIGC大模型輸出才是最大的蛋糕。正如阿里張勇所言,面向智能化時代,所有行業(yè)都值得重新做一遍。 

大模型本為產(chǎn)業(yè)而生,是云智一體的產(chǎn)物。從產(chǎn)品功能擴展看,大模型采取了更為原始和非標的數(shù)據(jù),基于深度學習算法組織自監(jiān)督學習,在海量數(shù)據(jù)訓練的基礎上,實現(xiàn)智能表達和運算推測。 

AI大模型技術應用非常廣,包括語音技術、圖像識別處理、自然語言處理及大數(shù)據(jù)分析預測等。在通用AI大模型的基礎上,產(chǎn)業(yè)場景開發(fā)者只需要根據(jù)場景需求微調(diào)模型,再采用少量數(shù)據(jù)進行二次訓練,就能滿足垂直場景下的AI能力調(diào)用。 

現(xiàn)階段,具備大模型能力的大廠都已經(jīng)開始借助大模型的易延展能力,把AIGC接入到產(chǎn)業(yè)。如微軟將GPT-4整合到旗下的Bing搜索、office辦公套件和聊天產(chǎn)品中;阿里計劃將旗下所有產(chǎn)品都接入通義千問;百度除了布局百度系產(chǎn)品,把文心一言的戰(zhàn)略重點落向了企業(yè)服務,強化云智一體的智能化水平,面向多場景輸出大模型能力。 

目前AI大模型更多集中在C端能力上的優(yōu)化,未來大模型+產(chǎn)業(yè)模型的雙模型驅動,會加速向產(chǎn)業(yè)數(shù)字化滲透,企業(yè)經(jīng)營效率和生產(chǎn)力解放也會達到質(zhì)的飛躍。 

這一變化,領跑者最先看到。

       原文標題 : ChatGPT之外,中文大模型開局即卷

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號