訂閱
糾錯
加入自媒體

OpenAI o1開辟“慢思考”,國產(chǎn)AI早已集結在CoE“組團”先出發(fā)

2024-09-19 09:13
腦極體
關注

圖片

OpenAI o1發(fā)布之后,復雜邏輯推理能力驚艷業(yè)界,數(shù)理能力達到博士水平。比如此前一直困擾LLMs的“9.9和9.11誰更大”問題,就在o1時代得到了解決。

于是有了一種說法:這一輪AI浪潮,中國越追趕越落后,跟OpenAI的差距越來越大。

圖片

現(xiàn)實情況真的如此嗎?我們不必急著下結論,不妨一起來思考三個問題:

近年來以大模型為主的通往AGI之路,究竟是怎么發(fā)展的?

中國AI在世界一流技術路線上到底發(fā)展到哪一步了?

以及面對o1,國產(chǎn)AI能應對嗎、怎么應對?

圖片

毋庸置疑,OpenAI此前一直稱得上是AI技術創(chuàng)新的“火車頭”。從ChatGPT至今,OpenAI用一個又一個模型證明了,通往AGI的三個技術方向:

1.GPT路線。從ChatGPT到GPT 4o,這一路線的核心是用模型對token流進行統(tǒng)計建模的通用技術,token可以是文本、圖像、音頻、動作選擇、分子結構等。最新的4o就是多模態(tài)融合的代表。有業(yè)內專家表示,這一路線更貼切的名字可能是“Autoregressive(自回歸)Transformer”之類的,

2. Sora路線。Sora和GPTs一樣,都使用了Transformer架構,為什么單獨作為一支呢?因為展現(xiàn)了一種對現(xiàn)實世界復雜現(xiàn)象的建模能力。圖靈獎得主、Meta公司首席科學家楊立昆(Yann LeCun)認為,Sora可能是擺脫了人類專家所謂的一些知識干預后,更接近世界本源的,更準確的一種建模方式。

3. o1路線。GPTs也好,Sora也好,都是概率模型,以損失推理效率為代價,因此理論上永遠會出現(xiàn)偏差,具體表現(xiàn)為“幻覺”、不可靠性。怎么讓模型具備真正的邏輯推理能力呢?o1路線通過Inference 的方法,基于強化學習(RL)能力,使用CoT思維鏈將復雜問題拆解,并讓多個子模型來協(xié)作解決,相當于復雜Prompt的自動化,極大地提高了模型的推理能力,確實在LLMs難以搞定的數(shù)理問題和復雜任務上有很好的表現(xiàn)。

圖片

不難看到,兩年以來OpenAI引領的三個方向,只要目標明確,中國AI都是可以攻下的。目前,國產(chǎn)類GPT和類Sora模型,無論是底層架構、具體技術、落地產(chǎn)品,其實并不遜色于OpenAI的模型,很快就縮小了技術代差。

這也說明了一件事,每一次OpenAI明確了方向,結果并不是“越追趕越落后”,反而可以讓中國AI聚焦并集中資源,進行有效研發(fā),進一步縮小差距。

具體到o1,我們認為也將延續(xù)上述走向,國產(chǎn)AI很快會完成突破。那么,目前業(yè)界準備得怎么樣了呢?

圖片

“在通往AGI的路上,已經(jīng)沒有任何阻礙”,這句話來形容o1的意義,并不夸張。如此跨越式的突破,國產(chǎn)AI真的做好準備了嗎?我們深入技術本質,去追根溯源。

OpenAI聯(lián)合創(chuàng)始人、科學家Greg Brockman,在博客中剖析了o1的底層邏輯。他寫道:OpenAI o1是我們第一個通過強化學習訓練的模型,在回答問題之前會深入思考。模型進行系統(tǒng) I 思考,而思維鏈則解鎖了系統(tǒng) II 思考,可以產(chǎn)生極其令人印象深刻的結果。

所謂系統(tǒng) II 思考,指的是人腦依賴邏輯和理性分析,進行的慢速復雜推理?梢耘c負責快速直覺決策的系統(tǒng) I 相互配合,來實現(xiàn)更好的模型性能。

360集團創(chuàng)始人周鴻祎則表示,OpenAI o1遵循的可能是“雙系統(tǒng)理論 Dual Process Theory”,核心在于兩種系統(tǒng)并非獨立而是協(xié)同運作。由此推測,其內部構建的更加智能的模型或許是 GPT和o系列結合思維鏈的融合系統(tǒng),前者用于“快思考”,后者實現(xiàn)“慢思考”。而CoE(Collaboration-of-Experts,專家協(xié)同)架構則集合了數(shù)量更多的大模型和專家模型,是通過思維鏈和“多系統(tǒng)協(xié)同”的方式實現(xiàn)“快思考”和“慢思考”。

熟悉國內AI的讀者可能發(fā)現(xiàn)了,“慢思考”這個說法怎么這么眼熟呢?

沒錯,如何提升機器的認知智能是AI界長盛不衰的話題,而“慢思考”這個創(chuàng)意也并非OpenAI獨創(chuàng)。早在今年7月底舉辦的ISC.AI2024大會上,周鴻祎就提過,360將“用基于智能體的框架打造慢思考系統(tǒng),從而增強大模型的慢思考能力,把多個大模型組合起來解決業(yè)務問題”。

圖片

所以,大家可以放心的是,在技術創(chuàng)新高度依賴全球智力碰撞的今天,沒有一種技術思路是可以被壟斷的,甚至中國AI界提出“慢思考”更早。

當然,大家可能擔心的是,理念先進是一回事,是否具有相應的工程能力,打造出一個基于系統(tǒng)II思考的模型又是另一回事。具體到產(chǎn)品上,國產(chǎn)AI是否已經(jīng)做好打造類o1模型的準備呢?我認為,三個條件已經(jīng)具備了:

1. 路線一致。模型的底層框架,是長期積累、厚積薄發(fā)的結果,國內360就和o1的技術架構保持著一致性。360首創(chuàng)的CoE架構8月1日正式發(fā)布,所謂CoE,就是Collaboration-of-Experts,專家協(xié)同,讓多個模型分工協(xié)作、并行工作,執(zhí)行多步推理。CoE架構與o1的理念一致、方法類似,卻比o1發(fā)布的時間更早,足以證明國產(chǎn)AI在技術方向上并沒有落后,早已開始探索。

2. 產(chǎn)品落地。目前o1仍是preview預覽版本,用戶體驗的實際效果與官方用例有差距,而且使用也受到限制,o1-mini對ChatGPT Plus用戶的每周限制為50個提示詞。技術再好,用不到也是“期貨”。這一點上,國產(chǎn)AI的產(chǎn)品化優(yōu)勢就體現(xiàn)出來了,比如CoE架構已經(jīng)在360AI搜索中落地應用,讓AI搜索在面對不確定或復雜輸入時表現(xiàn)出更好的穩(wěn)定性,輸出更準確、更具有時效性和權威性的內容。基于CoE架構的360AI搜索,也超越Perplexity AI,快速成長為全球最大的AI原生搜索引擎,并且還在以月增速113%的極高速度成長。

圖片

此外,360AI瀏覽器的AI助手,也可以非常直觀地讓用戶體會到模型競技場、多模型協(xié)作等功能。由于CoE架構已經(jīng)接入了百度、騰訊、阿里巴巴、智譜AI、Minimax、月之暗面等 16 家國內主流大模型廠商合作打造的 54 款大模型產(chǎn)品,用戶可以任意選擇3款大模型,進行多模型協(xié)作,以此達成比單個大模型回答問題好得多的效果。第一個做專家,對提問進行第一輪回答;第二個做反思者,對專家的回答進行糾錯和補充;第三個做總結者,對前兩輪回答進行優(yōu)化總結。在很多的實測例子中,第一個專家模型即使回答錯誤,反思模型和總結模型都能夠在后續(xù)的協(xié)作過程中修正,與人類在做出重要決策的思維活動很像。

圖片

3.能力領先。可能還會有人問,國產(chǎn)大模型在數(shù)據(jù)、算法、算力上和Open AI都還有差距,這是實際情況,CoE“人多力量大”真的能趕上o1嗎?這一點,我們可以用實測來檢驗一下。

用業(yè)內著名的復雜邏輯推理題,比如假期調休題、9.9和9.11比大小等問題,同時詢問GPT-4o、o1-preview、360AI瀏覽器,會發(fā)現(xiàn)360的多模型協(xié)作,可以集各家所長,確實能起到“組團”打怪的效果。比如問“我爺爺?shù)男值艿膬鹤拥睦掀诺拿妹玫膬鹤,是我的什?rdquo;,360多模型和O1-preview都答對了,而4o 答錯。眾人拾柴火焰高,多模型協(xié)作力量大的優(yōu)勢又一次得到了驗證。

總的來說,國產(chǎn)AI通過CoE架構進行協(xié)同,表現(xiàn)確實大多優(yōu)于4o,與o1互有勝負。目前只是起點,CoE這個路線被驗證可行,未來隨著思維鏈、慢思考、協(xié)作模式帶來模型推理能力的大幅提升,國產(chǎn)混合模型的能力也可能逐漸媲美o1。

所以,他強由他強,清風拂山岡。OpenAI o1的確拆除了AGI路上的阻礙,但國產(chǎn)AI也并沒有臨淵羨魚,而是早已織好了網(wǎng),集結在CoE這一路線。

圖片

難道國產(chǎn)AI永遠都只能跟在OpenAI身后亦步亦趨,做一個追隨者嗎?

當然不是。中美AI的場景不同、產(chǎn)業(yè)稟賦不同、技術落地土壤不同,也造就了各自的優(yōu)勢所在。

誠然,OpenAI每一次都是新方向的開拓者、領頭人,但也可以發(fā)現(xiàn),Sora、o1都帶有“期貨”色彩,至少仍然難以被規(guī);褂。其中既有產(chǎn)品成熟度的問題,也有成本高、企業(yè)落地難度大的挑戰(zhàn)。比如有AI創(chuàng)業(yè)公司用o1解決實際業(yè)務問題時,發(fā)現(xiàn)Token數(shù)極大,成本極高,幾乎無法在現(xiàn)有業(yè)務中長期使用。有的創(chuàng)業(yè)公司為了平衡成本,甚至會放棄使用最新版本的模型。

圖片

這一點來看,o1也給了國產(chǎn)AI在自身優(yōu)勢上更進一步的機會,主要體現(xiàn)在:

1.基座模型的價值再次被肯定。此前頭部通用大模型廠商都多少進入到了“卷不動”的迷茫期,o1讓市場再次看到了基座模型的邏輯推理能力對于業(yè)務的價值是最關鍵的,是這一輪AI浪潮的核心,不容有失。這對于發(fā)力基座模型的廠商來說,是一個很好的消息,產(chǎn)業(yè)界和社會各界的信心進一步增強,有利于國產(chǎn)通用大模型繼續(xù)提高領先性。

2.技術產(chǎn)品化的優(yōu)勢被放大。相比Sora視頻生成、4o語音交互,o1的產(chǎn)品化路徑更不清晰,如何回收成本將是OpenAI的一大挑戰(zhàn)。這一點上,更重視大模型產(chǎn)品化、應用化的國產(chǎn)AI,或許會為類o1模型更快找到落地途徑。

以CoE架構的產(chǎn)品化為例,落地產(chǎn)品360AI搜索,已經(jīng)實現(xiàn)了商業(yè)閉環(huán),商業(yè)化收入已經(jīng)覆蓋了對應的推理成本。這是因為,此前CoE模型就很重視在加快推理速度的同時,降低API接口和Token的使用成本。

3. AI創(chuàng)新與智能經(jīng)濟的加速。“比起AGI更重視ROI”,國產(chǎn)AI的務實特點,一度被認為技術信仰不如OpenAI強大。但遠大的AGI目標,是靠一個個行業(yè)的AI化支撐起來的,這也是這一輪AI浪潮不會再次化為泡沫的根本。那么,千行百業(yè)智能化就不得不談ROI,因為企業(yè)引入AI都是有成本的,從這一點上,國產(chǎn)AI走得更扎實。今年國產(chǎn)大模型紛紛“提效降費”,中小AI企業(yè)和開發(fā)者的Token使用成本和創(chuàng)新成本都在下降。

在此基礎上,隨著CoE等類o1模型的升級,讓AI深入行業(yè)、解決具體業(yè)務問題有了更大的價值,RL+CoT進一步降低了Prompt提示工程的門檻,這為中國智能經(jīng)濟的增長,又打開了一個新的周期。

總結一下,通往AGI和智能時代的道路沒有捷徑,中國AI要一步一個腳印去丈量。兩年、三條路證明了360等中國AI的先鋒隊已經(jīng)在新的技術路線上組隊出發(fā)。

凡走過的,必留下足跡;凡努力過的,必將收獲。從LLM到CoE,中國AI絕不會缺席這一輪技術浪潮。

圖片

       原文標題 : OpenAI o1開辟“慢思考”,國產(chǎn)AI早已集結在CoE“組團”先出發(fā)

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號