訂閱
糾錯
加入自媒體

GPT將死!Meta發(fā)布“類人”模型,能夠理解世界

全世界現(xiàn)在正陷入一場AI的狂歡。每天都有大模型誕生,給人一種AI即將統(tǒng)治世界的錯覺。

AI確實正在經(jīng)歷有史以來最快的發(fā)展時期,但是有人卻覺得這一切都是表象。

在前不久結(jié)束的智源“AI春晚”大會上,深度學習巨頭之一、Meta首席科學家Yann LeCun(楊立昆)語出驚人:現(xiàn)有的GPT模型活不過5年!

他言辭犀利地對目前類GPT模型發(fā)出批評,根據(jù)概率生成自回歸的大模型,根本無法破除幻覺難題。在輸入文本增大的時候,錯誤的幾率也會成指數(shù)增加。

LeCun不認為現(xiàn)階段的大模型可以最終通向AGI(通用人工智能),所以他提出了自己的構(gòu)想——“世界模型”。

現(xiàn)在,他的構(gòu)想有了初步的實現(xiàn)。Meta剛剛宣布推出一種“類人”模型,聲稱可以理解世界。

GPT不好使,“世界模型”才是未來

Yann LeCun對于 AI 發(fā)展所持的態(tài)度是深度學習三巨頭里最為樂觀的。此前在馬斯克提出“人工智能給人類文明帶來了潛在風險”時,LeCun 曾公開反駁,認為人工智能遠未發(fā)展到給人類構(gòu)成威脅的程度。

AI 的能力距離人類與動物的能力,還有差距——差距主要體現(xiàn)在邏輯推理和規(guī)劃,大模型目前只能“本能反應”。

基于這個立場,LeCun一直在探索如何讓模型“讀懂世界,理解世界”。為此,他創(chuàng)建了可以實現(xiàn)類人推理的世界模型。

LeCun提到,人類和動物能夠通過觀察,簡單的交互,以及無監(jiān)督的方式學習世界知識,因此可以假設,這里面蘊含的潛在能力構(gòu)成了常識的基礎。

世界模型需要融合不同的學科的觀點,包括但不限于認知科學、系統(tǒng)神經(jīng)科學、最優(yōu)控制、強化學習以及 "傳統(tǒng) "人工智能。

作為Meta的首席科學家,LeCun帶領(lǐng)一個團隊專注研究他的世界模型。直到今天,Meta宣布將向研究人員提供一種新型“類人”人工智能模型組件——I-JEPA(圖像聯(lián)合嵌入預測架構(gòu))。

官方介紹,I-JEPA可以利用對世界的背景知識來填補圖像中缺失的部分,而不是像其他生成式人工智能模型那樣,只根據(jù)附近的像素進行推斷。

有關(guān)注過AI圖像生成的人會發(fā)現(xiàn),剛開始讓AI作圖,畫面一旦出現(xiàn)人物,就會有多一根手指,手部扭曲等問題。這是由于現(xiàn)階段的AI模型會過于關(guān)注不相干的細節(jié),而不是捕捉更高級的可預測的概念。

I-JEPA可以解決這一點,I-JEPA試圖通過捕捉這個世界的常識的背景知識,并將其編碼為以后可以訪問的數(shù)字表示,從而模仿這種學習方式,讓其擁有LeCun一直夢想的“理解世界”的能力。

AGI將是最終歸宿

Yann LeCun一直將推動AI走向AGI作為畢生的目標;谒麡(gòu)想建立的I-JEPA展示了架構(gòu)在學習現(xiàn)成圖像表征方面的潛力,而且還不需通過人工制作的知識作為額外的輔助。

I-JEPA可以自我監(jiān)督,不需要人類。Meta AI的團隊表示,I-JEPA可以直接從圖像或聲音等未標記的數(shù)據(jù)中學習,擺脫人工組裝的標記數(shù)據(jù)。

在較高的層次上,JEPA旨在通過相同輸入的其他部分的表示來預測輸入部分(如圖像或文本)的表示。因為它不涉及將圖像的多個視圖/增強表示折疊到單個點,所以希望JEPA能夠避免與另一種廣泛使用的稱為基于不變性的預訓練的方法相關(guān)的偏差和問題。

Meta表示,I-JEPA在多個計算機視覺基準測試中表現(xiàn)出非常強大的性能,它學到的表示也可以用于其他應用,而無需進行大量的微調(diào)。I-JEPA學習的表示也可以用于許多不同的應用程序,而不需要進行大量的微調(diào)。

開源,將是I-JEPA未來得到更大發(fā)展的必由之路。Meta的研究團隊表示,期待著將JEPA方法擴展到其他領(lǐng)域,如圖像-文本配對數(shù)據(jù)和視頻數(shù)據(jù)。

Meta CEO扎克伯格表示,與其他研究者分享 Meta 公司開發(fā)的模型可以幫助該公司促進創(chuàng)新、發(fā)現(xiàn)安全漏洞和降低成本。

他今年 4 月對投資者說:“對我們來說,如果行業(yè)對我們正在使用的基本工具進行標準化,那么我們就可以從他人的改進中受益!

Yann LeCun此前也指出,“獲勝的平臺將是開放平臺”,并稱谷歌和OpenAI越來越封閉是一個錯誤的決定。

對于質(zhì)疑,LeCun稱,“你無法阻止人們制造有害信息,但你可以切斷這類信息的傳播。”

目前,訓練代碼和模型已經(jīng)開源。相關(guān)論文將在下周舉辦的人工智能頂級盛會CVPR 2023上宣讀討論。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點。刊用本站稿件,務經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號