訂閱
糾錯
加入自媒體

AI手機,活成產(chǎn)業(yè)“搖錢樹”

早幾年出現(xiàn)的折疊屏沒能拯救頹勢的手機市場,直接證據(jù)就是去年全球出貨量依舊拉胯,同比下滑3.2%至11.7億部,為近十年來最低。

好在Q4出現(xiàn)了些許回暖,全球和中國市場分別有8.5%和1.2%的同比增幅,尤其是后者,在連續(xù)同比下降10個季度后首次轉(zhuǎn)正。

很難說這其中沒有AI的功勞。

2023下半年起,以谷歌、三星、OPPO為代表的廠商將大模型內(nèi)置于智能手機中,完成從云端AI向終端AI的轉(zhuǎn)變,AI手機浪潮正式開啟。

IDC更是預(yù)測,2024年全球新一代AI手機出貨量將達1.7億部,占智能手機總出貨量的近15%。

于是,AI就成了比折疊屏更有效的“救命稻草”,但在產(chǎn)業(yè)鏈眼里,TA更像是一顆“搖錢樹”。

1

端側(cè)AI能省錢

高通曾在去年9月出過一份報告,標(biāo)題言簡意賅——混合AI是AI的未來。

這份報告的核心是高通借大模型云端推理的“宕機”現(xiàn)象,再次向市場強調(diào)終端和云端協(xié)同工作的混合AI才是真正的首選。

所謂混合AI,是在以云為中心的場景下,終端將根據(jù)自身能力,在可能的情況下從云端分擔(dān)AI工作負(fù)載;而在其他場景下,計算將主要以終端為中心,必要時向云端分流任務(wù)。

高通的邏輯是,類比傳統(tǒng)計算從大型主機和瘦客戶端演變?yōu)楫?dāng)前云端和PC、智能手機等邊緣終端相結(jié)合的模式,生成式AI也將形成云端和終端結(jié)合的形式。

但這份報告的真正意圖,是高通提出的兩個趨勢:

AI算力將由現(xiàn)在的云端集中部署逐漸轉(zhuǎn)變?yōu)樵贫伺c終端靈活分配;大模型將逐漸向終端滲透。

事實上,在高通拿出這份報告前,它的那些合作伙伴早就這么干了,而之所以跑的快,不僅是對未來趨勢的準(zhǔn)確預(yù)判,更重要的是省錢。

算法交易公司Deep Trading的創(chuàng)始人Yam Peleg曾算過一筆賬,8K版本的ChatGPT云端推理成本為0.0049美分/千token(128個A100 GPU)。以全球1.8億日活躍用戶、每人每天100千token推理需求測算,ChatGPT4在云端進行推理的成本約為88.2萬美元/天。

如果換到用戶量更大的智能手機上呢?

按照vivo副總裁周圍公布的數(shù)據(jù),vivo大模型單次對話成本約為0.012-0.015元/次,當(dāng)前vivo全國用戶數(shù)約為3億。以2.5億日活用戶(假設(shè)的未來滲透率天花板)、每人每天10次對話需求測算,vivo大模型每天云端推理的成本就要3000萬-3750萬人民幣。

假設(shè)以50%分流率計算,將一半的推理分流至端側(cè)進行,那么vivo每年將節(jié)約55-68億人民幣的云端運算成本。

看在錢的份上,不搞端側(cè)AI都不行。只是,手機廠商雖然目標(biāo)高度一致,但在解決大模型手機內(nèi)存瓶頸的問題上,卻出現(xiàn)了分歧。

2

三條路線

眾所周知,大型語言模型的泛化能力及通用性取決于其參數(shù)量,如GPT-4擁有16個專家模型,共包含1.8萬億個參數(shù)。大多數(shù)大模型都在具有強大服務(wù)器硬件支持的云端運營,若直接部署于終端設(shè)備,則需要設(shè)備擁有足夠大的內(nèi)存。

哪怕參數(shù)量較小的主流AI大模型也有70億或130億參數(shù),分別需要約14GB和20GB的內(nèi)存。例如有70億參數(shù)的小型LLaMA,其FP16版本大小為14GB,遠(yuǎn)超當(dāng)前手機的內(nèi)存承載能力。

為了解決這個難題,當(dāng)前主要有三種技術(shù)路線:一是直接拔高終端內(nèi)存,二是壓縮大模型體積,三是優(yōu)化內(nèi)存調(diào)用邏輯。

三條路線分別對應(yīng)著三個陣營,以微軟、聯(lián)想、OPPO為代表的勢力致力于大模型壓縮路線,蘋果擬通過優(yōu)化閃存交互和內(nèi)存管理邏輯來解決內(nèi)存壁壘,希望通過直接拔高終端內(nèi)存以突破瓶頸的3DDram技術(shù),代表則是內(nèi)存廠商。

首先來看規(guī);疃嗟拇竽P蛪嚎s,主要包括量化、剪枝及蒸餾等幾種方案。

大模型壓縮翻譯過來其實就是在不影響性能的前提下縮減模型的資源占用。比如通過INT4量化技術(shù)支持,AquilaChat2-34B僅需接近7B級別模型的GPU資源消耗,即可提供超過Llama2-70B模型的性能,同時內(nèi)存占用大幅降低70%,而綜合性能指標(biāo)僅降低了0.7%。

再比如屬于剪枝方案的微軟SliceGPT技術(shù),實驗數(shù)據(jù)顯示,該技術(shù)可以為LLAMA-2 70B、OPT 66B和Phi-2模型去除多達25%的模型參數(shù)(包括嵌入),同時分別保持密集模型99%、99%和90%的零樣本任務(wù)性能。

其次是優(yōu)化內(nèi)存管理。如前文所分析,70億參數(shù)的模型僅加載參數(shù)就需要超過14GB的內(nèi)存,這超出了大多數(shù)智能手機的能力。

蘋果提出將模型參數(shù)存儲在至少比DRAM大一個數(shù)量級的閃存上,然后在推理過程中直接且巧妙地從閃存中加載所需的參數(shù)。

具體而言,蘋果構(gòu)建了一個以閃存為基礎(chǔ)的推理成本模型,并使用窗口化(Windowing)以及行列捆綁(Row-Column Bundling)兩項關(guān)鍵技術(shù),來最小化數(shù)據(jù)傳輸并最大化閃存吞吐量。

更具體的技術(shù)實現(xiàn)步驟這里就不做贅述,總之蘋果的閃存方法實現(xiàn)了可以運行比設(shè)備DRAM容量大兩倍的模型,并在CPU和GPU上分別比傳統(tǒng)方法提速4-5倍和20-25倍。

美光CEO此前的說法是,AI手機的內(nèi)存容量預(yù)計將比當(dāng)今非AI旗艦手機高出50%到100%。除了壓縮和優(yōu)化,還有一個看似是笨辦法的辦法就是直接拔高終端內(nèi)存,也就是3D Dram(垂直存儲器)技術(shù)。

3D Dram是一種利用垂直堆疊方式,將存儲單元置于一個二維陣列中,通過垂直疊加顯著提高容量的技術(shù)。相當(dāng)于蓋起了復(fù)式,降低平面面積占用的同時,增加單位面積內(nèi)的存儲容量,從而實現(xiàn)容量的最大化。

根據(jù)Neo Semiconductor的估計,3D X-DRAM技術(shù)可以跨230層實現(xiàn) 128Gb的密度,是當(dāng)前DRAM密度的八倍。NEO提出每十年容量增加8倍的目標(biāo),目標(biāo)是在2030年至2035年間實現(xiàn)1Tb容量,比目前DRAM核心容量增加64倍。

3

誰能受益?

雖然路線不同,但在可行性的前提,各個陣營都能達到一定程度上的預(yù)期效果。

比如芯片廠,無論是高通還是聯(lián)發(fā)科,都在推行端側(cè)AI下的大模型壓縮,目的自然是為了讓下一代芯片能夠支撐起手機廠商嵌入大模型的需求。只要完成了這個需求,它們就能是率先吃到紅利的一方。

復(fù)盤4G到5G的迭代過程,高通就是靠著特殊供需關(guān)系,直接將手機廠商的芯片采購成本翻了一倍。

以三星為例,GalaxyS20 Ultra(12G+256G)物料成本中,驍龍865 SoC的整體成本超過150美元,比2019年上半年不包含X50基帶的驍龍855 4G移動平臺貴1倍左右。

芯片廠對手機廠商又有絕對的議價權(quán),供需失衡下價格掌控能力更強的一方,是很樂意把支持端側(cè)AI的SoC價格打上去的。

在SoC之外,還有一個零部件能在這波AI升級中受益,但可能很多人想不到。

在三星S24系列的拆機結(jié)果中,人們發(fā)現(xiàn)不僅石墨散熱片有額外增加,連平均散熱板面積也被提升了,算下來S24、S24+、S24 Ultra分別大了1.5、1.6、1.9倍。

最后測算下來,S24 Ultra里增加的散熱材料,相較上一代5G手機每部多出來11元。若考慮高性能、高價格的石墨烯滲透率提高帶來的價值增量,還能再增加3塊錢。

還有一個零部件,是類似SoC的內(nèi)存。

根據(jù)前文所述,在大模型體積壓縮、優(yōu)化內(nèi)存調(diào)用邏輯、3DDram技術(shù)發(fā)展等三路線共同作用下,當(dāng)前16/24GB內(nèi)存已具備運行端側(cè)大模型的條件,且未來內(nèi)存容量仍有跨越式提升的空間,容量已不再是桎梏,提升帶寬以適應(yīng)復(fù)雜AI任務(wù)是更為迫切的需求。

JEDEC固態(tài)技術(shù)協(xié)會已經(jīng)正式完成了LPDDR 6內(nèi)存標(biāo)準(zhǔn)的定稿,預(yù)計將會在2024年第三季度正式發(fā)布,目前LPDDR5X內(nèi)存的主流帶寬為8533Mbps,而LPDDR6帶寬可以達到12.8Gbps,比LPDDR5X高出了54%,LPDDR6X更是擁有17Gbps的帶寬。

受益于AI手機對高帶寬內(nèi)存的需求,預(yù)計LPDDR5/LPDDR5X/LPDDR6將持續(xù)供不應(yīng)求。三星和海力士申請LPDDR6 RAM認(rèn)證后,將會率先量產(chǎn)LPDDR6內(nèi)存,同芯片廠一樣,供需關(guān)系也決定了LPDDR6的漲價。

4

尾聲

作為下游的手機廠,在這場技術(shù)迭代革命里是要爭取主動的。

AI催生的換機潮確實會帶來一波量價齊升,但參考上一輪迭代,僅靠組裝而生的手機廠商無法獲得大規(guī)模溢利。

也就是說,想要吃到更大的紅利,尤其在軟硬件成本高企的情況下,就必須具備自研能力,比如最重要的大模型和芯片。

當(dāng)然在今天的環(huán)境下,高企的大模型訓(xùn)練成本和供需錯配的高性能AI推理芯片,都對手機廠商提出了嚴(yán)峻挑戰(zhàn)。但同時具備這兩項自研能力的,就有了成本可控及供應(yīng)穩(wěn)定的一體化優(yōu)勢。

而其它不具備或不完全具備的廠商,也不是一定會被淘汰。拿捏不了上游,可以轉(zhuǎn)身去拿捏下游。

智能手機的下游,就是移動互聯(lián)網(wǎng)了。

高度智能化的AI手機應(yīng)擺脫臃腫、繁多的APP,垂直整合端側(cè)應(yīng)用,深層次聯(lián)通各個獨立的孤島,用戶一個指令可以調(diào)動多個APP自動解決需求,提供一站式服務(wù)。

因此,高度智能化的手機必須由其自身來集成各類數(shù)據(jù)、權(quán)限、應(yīng)用,而單個應(yīng)用無法這一點,所以天然占據(jù)了各項功能入口的手機廠商,就有了取代部分App開發(fā)商的可能,進一步瓜分流量及變現(xiàn)。

以智能修圖、錄音摘要功能為例,運行端側(cè)大模型的AI手機將部分或全部取代孤立的修圖類(如美圖秀秀)、錄音類App(如訊飛聽見),此類功能將集成于手機的操作系統(tǒng)中,完全內(nèi)置于攝像、通話功能中。

對上述App來說,這一切已經(jīng)發(fā)生了,而未來還會有更多App被集成、替代。

免責(zé)聲明:本文基于已公開的資料信息或受訪人提供的信息撰寫,但解碼Decode及文章作者不保證該等信息資料的完整性、準(zhǔn)確性。在任何情況下,本文中的信息或所表述的意見均不構(gòu)成對任何人的投資建議。

       原文標(biāo)題 : AI手機,活成產(chǎn)業(yè)“搖錢樹”

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號