訂閱
糾錯
加入自媒體

斯坦福團隊抄襲國產(chǎn)AI開源模型

01

近日,斯坦福大學AI團隊主導(dǎo)的Llama3-V開源模型被證實套殼抄襲國內(nèi)清華與面壁智能的開源模型“小鋼炮”MiniCPM-Llama3-V 2.5一事,在網(wǎng)絡(luò)上引發(fā)熱議。

巧合的是,最先發(fā)現(xiàn)抄襲的,是星空君一起玩AI的朋友,大家先是在群里義憤填膺的批判,然后朋友把相關(guān)資料發(fā)到推特發(fā)酵,最終引起了斯坦福團隊在hugging face刪庫跑路。

在最新進展中,斯坦福Llama3-V團隊的兩位作者Siddharth Sharma和 Aksh Garg在社交平臺上就這一學術(shù)不端行為向面壁MiniCPM團隊正式道歉,并表示會將Llama3-V模型悉數(shù)撤下。

6月3日,面壁智能CEO李大海與聯(lián)合創(chuàng)始人劉知遠先后發(fā)文,回應(yīng)開源模型被斯坦福大學AI團隊抄襲一事,稱“深表遺憾”:一方面感慨這是一種受到國際團隊認可的方式,另一方面呼吁大家共建開放、合作、有信任的社區(qū)環(huán)境。“我們希望團隊的好工作被更多人關(guān)注與認可,但不是以這種方式。”

其實這從側(cè)面反映出中國AI團隊的影響力。

很長一段時間,因為圈外人難以理解的原因,中國的AI團隊背負著“抄襲”、“套殼”的惡名,甚至很多人說“國外一開源,國內(nèi)就自研”。

ChatGPT剛剛發(fā)布的時候,國產(chǎn)的AI因為采用了較多的國外訓(xùn)練集,使用的時候存在著把用戶的中文翻譯成英文再和大模型交互的情況,被惡毒的攻擊為套殼。

后來,當谷歌的大模型發(fā)布的時候,人們發(fā)現(xiàn)幾乎存在著一模一樣的問題,才有一部分人明白問題的根源。

在生成式AI方面,美國的團隊走的確實比較快,但并不代表中國一無是處。

如果你研究近年來AI相關(guān)的論文,會發(fā)現(xiàn)大量的中國團隊和華人散落其中。

如果把世界AI形容成十斗,美國占八斗,中國占一斗,世界其他國家分一斗。

實事求是的講,這樣的實力并不算差。中國在這次AI革命中,沒有落伍,不僅跟上了,還斷崖式領(lǐng)先第三名。

在ChatGPT推出不到一年的時候,中國的生成式AI迅速普及,除了百度的文心一言外,像Kimi、通義千問、ChatGLM都取得了不錯的效果,用戶反饋比較積極。

通義千問和ChatGLM都將最新進行了開源,深受廣大AI愛好者的喜歡。

MiniCPM-Llama3-V 2.5 不是一個很知名的模型,被斯坦福的大學生拿去套殼。這件事有點無厘頭,但也證明了用開源模型套殼這種行為實際上是行不通的,有無數(shù)種方式可以驗證大模型是否自研。

當然了,也沒必要把這件事扣到斯坦福大學頭上,這只是一個團隊部分成員的學術(shù)不端行為,不用上綱上線。

結(jié)論是給中國的AI大模型開發(fā)者們一個遲到的正名:他們沒有靠套殼開源來實現(xiàn)自研。

02

斯坦福的團隊抄襲中國團隊的AI開源大模型事件后不久,快手放出了文生視頻大模型:可靈。

從前期內(nèi)測用戶的體驗來看,可靈幾乎和Sora是同一級別,某些細節(jié)還優(yōu)于Sora。

難能可貴的是,可靈已經(jīng)開始大規(guī)模內(nèi)測,而發(fā)布了小半年的Sora依然還只是PPT狀態(tài)。

我一直說,中國的AI的確比美國落后,但并沒有代差,且穩(wěn)居第二名,遙遙領(lǐng)先第三名。

當可以落地的商業(yè)模式跑通的時候,中國的AI場景不會比美國少,甚至可能還更多一些。

因為中國的自媒體行業(yè)高度發(fā)達,使用AI工具創(chuàng)作圖文、視頻素材,已經(jīng)開始普及。

有拿到內(nèi)測賬號的朋友,用之前Sora發(fā)布的提示詞交給可靈生成視頻,發(fā)現(xiàn)效果非常驚人。

從技術(shù)路線講,現(xiàn)在AI技術(shù)沒有太高深的技術(shù)壁壘。

OpenAI固然niubility,但他們的先發(fā)優(yōu)勢非常小。ChatGPT的3.5版本領(lǐng)先了接近一年,4.0頂多領(lǐng)先了半年,現(xiàn)在已經(jīng)被各開源大模型追趕了上來。

像中國的Kimi、通義千問、ChatGLM等大模型,近期的實測效果已經(jīng)不比ChatGPT4.0差。

一方面,大模型(哪怕閉源)的主體技術(shù)路線是公開的,一些獨特的訓(xùn)練技巧,通過高強度大范圍的使用,也是可以推測出來的,在此基礎(chǔ)上進行優(yōu)化,大模型就可以“奮起直追”;另一方面,大模型行業(yè)的人才流動非常頻繁,也促進了技術(shù)的傳播。

OpenAI共有770名員工,ChatGPT團隊不足百人,博士、碩士、本科各占三分之一。

隨著追趕的加速,也許一個不留神,就有大模型實現(xiàn)對ChatGPT的“彎道超車”。

像傳統(tǒng)工業(yè)時代動輒領(lǐng)先十數(shù)年、數(shù)十年的技術(shù),在AI時代是不存在的。

由于字節(jié)、小紅書之前過于招搖,大家?guī)缀跬浟丝焓值拇嬖凇?/p>

這類短視頻企業(yè)最大的優(yōu)勢就是有海量的音視頻素材,可以方便的進行訓(xùn)練,而我堅持認為AI大模型本身沒有什么高深的科技,無非就是大力出奇跡。

事實證明也是如此。ChatGPT3.5一炮走紅的時候,人們發(fā)現(xiàn)原來居然可以搞一萬張顯卡來訓(xùn)練,放在其他公司這只能是想想。但模式一旦跑通,各大佬紛紛下場搶購顯卡。

比較搞笑的是,可靈迅速在推特火了起來,但快手相關(guān)的APP并沒有純英文版,很多老外在推特上咨詢?nèi)绾巫、申請?nèi)測資格。

這也讓中國的AI技術(shù)反向輸出了一把。

星空君的申請只等待了一天就順利通過,請欣賞星空君用可靈制作的視頻:

提示詞:一艘巨大的火箭從山谷里緩緩起飛,漫山遍野的桃花。

提示詞:一個披肩發(fā)女孩站在閃耀的銀河下。

提示詞:宇航員走出太空船,面臨一個冰天雪地的星球。

提示詞:一直正在大海邊彈吉他的大熊貓。

03

6月7日凌晨0點,阿里云通義千問深夜發(fā)布技術(shù)博文,推出全球性能最強的開源模型Qwen2-72B,性能超過美國最強的開源模型Llama3-70B。

兩小時后,全球最大開源社區(qū)Hugging Face的聯(lián)合創(chuàng)始人兼首席執(zhí)行官克萊門特·德朗格宣布,Qwen2-72B沖上HuggingFace 開源大模型榜單Open LLM Leaderboard第一名,全球排名最高。

相比2月推出的通義千問Qwen1.5,Qwen2實現(xiàn)了整體性能的代際飛躍。通義千問Qwen2系列模型大幅提升了代碼、數(shù)學、推理、指令遵循、多語言理解等能力。

通義千問團隊在技術(shù)博客中披露,Qwen2系列包含5個尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,其中Qwen2-57B-A14B為混合專家模型(MoE)。

Qwen2所有尺寸模型都使用了GQA(分組查詢注意力)機制,以便讓用戶體驗到GQA帶來的推理加速和顯存占用降低的優(yōu)勢。

阿里在AI方面布局非常廣闊,星空君甚至認為在AI創(chuàng)新領(lǐng)域,阿里要比OpenAI更有錢景:阿里的AI研發(fā)是直接對接商業(yè)模式的,OpenAI的核心技術(shù),在阿里這里幾乎都是開源的!

就像導(dǎo)航軟件,未來極有可能出現(xiàn)OpenAI的核心技術(shù)想要拿來賣錢,卻發(fā)現(xiàn)阿里出的都是免費的。

比如星空正在用EasyPhoto開源組件(EasyPhoto團隊也是阿里注資的)幫朋友訓(xùn)練的AI繪畫模型,代碼里用到的modelscope是阿里的魔搭社區(qū),阿里的很多AI領(lǐng)域的工作,已經(jīng)成為開源界的標準之一。魔搭社區(qū)也是國內(nèi)最活躍的AI開源社區(qū),大部分開源模型都能在這里交流。

正在用ChatGLM開源模型做財經(jīng)數(shù)據(jù)訓(xùn)練的星空君表示,之前的工作白費了,后面切到Qwen2。

冷/熱知識,國內(nèi)不能直接訪問HuggingFace.co,可以通過鏡像hf-mirror.com 訪問。

說起開源,感謝馬斯克,哦,不,馬云開源!

       原文標題 : 斯坦福團隊抄襲國產(chǎn)AI開源模型

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號