訂閱
糾錯
加入自媒體

爆“卷”的AI視頻,大廠向左,創(chuàng)企向右

文|白 鴿

編|王一粟

“生成的人物一轉(zhuǎn)身就變成老外,怎么解決呢?”

“沒有辦法,10s中動作大的,人物一致性有問題,只能抽卡,多刷幾個,選擇一個變化不大的。”

在一個以Ruanway學(xué)院為主題的群中,不斷有各種針對AI視頻生成的問題產(chǎn)生,而群內(nèi)有AI視頻生成使用經(jīng)驗的,則也在積極分享自己的使用方法論,并解答相關(guān)問題。

這樣的AI視頻生成相關(guān)的群聊并不在少數(shù),且每個群都相當活躍,大部分用戶對AI視頻生成工具都保持了相當高的興趣,并在各種平臺上分享自己基于AI視頻生成工具所創(chuàng)造出的視頻內(nèi)容。

國內(nèi)用戶積極對AI視頻生成工具探索和使用的背后,是今年2月份Sora的發(fā)布,作為行業(yè)發(fā)展風向標,徹底引爆了國內(nèi)AI視頻大模型生成賽道。

3月字節(jié)跳動旗下剪映Dreamina(即夢)開放內(nèi)測;4月,AI企業(yè)生數(shù)科技發(fā)布號稱首個國產(chǎn)自研視頻生成大模型Vidu;6月,快手可靈AI正式開放內(nèi)測。

7月,商湯推出最新AI視頻模型 Vimi,阿里達摩院也發(fā)布AI視頻創(chuàng)作平臺“尋光”,愛詩科技則發(fā)布PixVerse V2,快手可靈宣布基礎(chǔ)模型再次升級,并全面開放內(nèi)測,而智譜AI也宣布AI生成視頻模型清影(Ying)正式上線智譜清言。

同時,這些AI視頻大模型生成工具大部分都已經(jīng)向公眾開放使用。7月30日,生數(shù)科技的AI視頻大模型Vidu也正式面向全球公眾開放使用。

歷經(jīng)大半年,國內(nèi)大模型賽道終于進入Sora時刻。從AI跳舞、火柴人,到5秒~16秒的高質(zhì)量視頻生成,AI視頻大模型的生成能力整體都邁入了下一個階段。

不過,相比于至今仍未開放的Sora,中國的AI視頻大模型已然開啟加速模式。在技術(shù)能力不斷迭代升級的同時,還在持續(xù)進行技術(shù)應(yīng)用和商業(yè)化落地探索。

事實上,相比于ChatGPT等聊天機器人,AI視頻生成大模型作為一個具有工具屬性的產(chǎn)品,天然就具備商業(yè)化變現(xiàn)能力,現(xiàn)階段開放給公眾使用的AI視頻生成工具也皆采用付費模式。

如智譜清影上線的定價策略是:首發(fā)測試期間,所有用戶均可免費使用;付費5元,解鎖一天(24小時)的高速通道權(quán)益,付費199元,解鎖一年的付費高速通道權(quán)益。

不過,當前AI視頻生成賽道的商業(yè)化仍處于非常早期階段。

“說實話,我們也不知道未來商業(yè)策略會是什么樣,或什么形式最好,目前所謂的收費策略更多是一種早期嘗試,試試看市場和用戶反饋,后面會及時調(diào)整。”智譜AI CEO張鵬如此說道。

AIGC智能創(chuàng)意平臺筷子科技創(chuàng)始人兼CEO陳萬鋒也表示:“目前C端用戶基于AI視頻大模型平臺開發(fā)出的視頻應(yīng)用指向型不強,這些平臺也并不知道C端用戶將會如何使用這些視頻。”

從技術(shù)的迭代更新,到探尋技術(shù)的應(yīng)用和商業(yè)化變現(xiàn),國內(nèi)AI視頻生成賽道玩家們無疑是在加足馬力狂奔。但從當前行業(yè)現(xiàn)狀來說,卻也仍存在諸多挑戰(zhàn)。

AI視頻軍備競賽,都在“卷”什么

用AI生成視頻,并不是新物種,只不過此前AI視頻生成的時長一直卡在2s-4s,且整體視頻生成效果體驗并不足夠令人驚艷。

Sora一發(fā)布,則直接展示了其生成的1分鐘視頻,且其視頻所展示的畫面效果驚人,就算在視頻動態(tài)運動情況下,隨著空間的移動和旋轉(zhuǎn),視頻中出現(xiàn)的人物和物體也會保持場景一致性移動。

Sora展示的視頻內(nèi)容

這可以說震驚了整個AI屆。Sora背后的技術(shù)架構(gòu),也被業(yè)界所了解并跟進。

此前AI視頻生成的技術(shù)路線主要有2大類:

一類是Diffusion Model(擴散模型技術(shù)路線),主要玩家包括Runway、Pika Labs等。

一類是基于Transformer架構(gòu)的大語言模型生成視頻技術(shù)路線。

去年12月底,谷歌發(fā)布了基于大語言模型的生成式AI視頻模型VideoPoet,這在當時被視為生成視頻領(lǐng)域中,擴散模型之外的另外一種解法和出路。

Diffusion Model將一張圖片通過引入噪聲使其變成原始馬賽克,在通過引入“神經(jīng)網(wǎng)絡(luò)”,如基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的UNet結(jié)構(gòu),從某個時間點的畫面,減去預(yù)測的噪音,得到的就是最原始沒有噪音的畫面,也就是最終生成的畫面。

大語言模型則是通過視頻數(shù)據(jù)來對大模型進行訓(xùn)練,使其能夠理解視頻數(shù)據(jù)中的基本Token詞匯以及所對應(yīng)的視頻畫面。當用戶給予指令詞之后,其就能夠根據(jù)學(xué)習(xí)到的Token詞匯生成對應(yīng)的視頻內(nèi)容。

兩種技術(shù)路線都存在各自的優(yōu)劣勢,單一模型所生成的視頻在時長和畫面效果上,都難以實現(xiàn)根本性突破。Sora則選擇了將擴散模型和Transformer模型結(jié)合的技術(shù)架構(gòu)體系-DiT(Diffusion + Transformer )架構(gòu)。

有業(yè)內(nèi)觀點認為,Sora是將Diffusion擴散模型中的U-Net架構(gòu)替換成了Transformer架構(gòu)。

兩者的結(jié)合效果,一個AI從業(yè)者形象的解釋為:擴散模型就像是一個雕塑過程,將石料上不應(yīng)該存在的部分去掉,創(chuàng)造出雕塑作品。而Transformer通過自注意力機制,理解時間線之間的關(guān)聯(lián),則讓這尊雕塑從石座上走了下來。

AIGC創(chuàng)業(yè)者洋芋醬AIgen(藝名)也認為:“視頻是一幀一幀的圖像,采用UNet結(jié)構(gòu)的邏輯是按照生產(chǎn)圖像的方式做視頻,AI每生成一張圖像都是隨機的,所以整個畫面看起來很閃。而用視頻訓(xùn)練的AI,其產(chǎn)出的畫面就相對穩(wěn)定,不會狂閃,具有合理的連續(xù)的幀。”

因此,Sora發(fā)布之后,DiT技術(shù)架構(gòu)也成AI視頻玩家的主流技術(shù)架構(gòu),并將其視為通往AGI的關(guān)鍵技術(shù)。

目前,市面上主流AI視頻工具在生成4秒-10s左右的視頻片段。

生數(shù)科技此次Vidu開放文生視頻、圖生視頻兩個功能,提供4s和8s兩種時長選擇,分辨率最高達1080P。在速度上,生成一段4秒片段的實測推理速度只需30秒。

愛詩科技的PixVerse V2,可支持生成單個時長8s的片段,且支持一鍵生成1-5段連續(xù)的視頻內(nèi)容,片段之間也會自動保持主體形象、畫面風格和場景元素的一致性。

智譜AI的智譜清影可生成6秒的視頻,時間只要30秒左右,清晰度可達1440x960(3:2)。

快手可靈生成的視頻時長在5s,但其有將視頻時長延長的功能,可以將視頻時長延長至10s,但在生成視頻的速度上,卻相對較慢,往往需要2-3分鐘時間。

從技術(shù)的積累上來看,雖然都在布局DiT架構(gòu),但國內(nèi)AI視頻生成企業(yè)還處于追趕階段,AI視頻生成的時長和效果,尚未達到Sora的水平。

張鵬也坦言:“Sora的演示效果不錯,我們還是一個初步的階段性成果,達不到像Sora演示出來那么好、那么長的視頻。我們從來都很坦誠承認與OpenAI、和世界頂級水平之間的差距。”

但國產(chǎn)大模型也在堅持用自己的方式追趕OpenAI,比如“怎么把視頻生成算力成本降下來,響應(yīng)速度提升上去,我們在追求技術(shù)高度的同時,也同步追求技術(shù)的可普及性和成本。”張鵬說。

無疑,技術(shù)上國內(nèi)AI視頻大模型賽道玩家還在追趕,但在應(yīng)用和商業(yè)化上卻已然走在前列。

圖生視頻成主流,不穩(wěn)定、一致性仍是問題

在技術(shù)架構(gòu)升級之后,現(xiàn)如今的AI視頻生成的視頻效果與時長,已經(jīng)與年初有了本質(zhì)的區(qū)別。

當前,各AI視頻大模型產(chǎn)品主要提供2大核心能力,一個是文生視頻,一個是圖生視頻。兩個核心功能的工作流并不一致,文生視頻可通過一句指令生成一個想要的視頻。

而圖生視頻的工作流更為復(fù)雜,要先用文字指令詞通過Midjourney或Stable Diffusion等工具生成自己想要的圖片,再基于圖片通過AI視頻生成工具生成視頻內(nèi)容。

于普通的業(yè)務(wù)愛好者而言,想要體驗AI視頻生成效果,文生視頻功能已經(jīng)夠用。

但對于想要基于此進行視頻內(nèi)容商業(yè)化交付的從業(yè)者而言,“基本上,沒有人用文生視頻。”星賢文化創(chuàng)始人、AI原創(chuàng)玄幻IP《山海奇鏡》制作人陳坤對光錐智能說道。

對此,陳坤解釋到,文生視頻無法保持前后內(nèi)容的一致性。就單個鏡頭來說,文生視頻可以滿足要求,會很好看,很驚喜,但卻無法保證下一個鏡頭與前一個鏡頭的一致性。畢竟AI技術(shù)尚不能通過一段文字描述就能夠讓人物和空間美學(xué)保持一致性。

“為了保持作品風格的一致性或者人物的一致性,必須用圖生視頻控制住畫面里的內(nèi)容。”洋芋醬AIgen也如此說道。

去年12月,陳坤帶領(lǐng)團隊利用 PixVerse 制作《山海奇鏡之劈波斬浪》的4K分辨率預(yù)告片。

圖片來自:《劈波斬浪》

今年7月13日,陳坤基于快手可靈大模型重新打磨的《山海奇鏡之劈波斬浪》正式上線快手平臺,19日單日播放量達到了2026.7萬,上線十天累計播放量達到了5164.9萬,后續(xù)榮登德塔文短劇指數(shù)榜第一。

在陳坤看來:“半年前,AI影視很難用生動的表演表現(xiàn)復(fù)雜敘事,很多的動作場面也需要通過蒙太奇的剪輯來實現(xiàn),在制作過程中,由于3—4秒的單個鏡頭時長限制(在當時就是這個時長),整個片子的節(jié)奏感會受到影響。”

“就AI影視賽道來看,可靈的能力確實很厲害,既有文生視頻,也有圖生視頻,且其畫面中的動作幅度展示都很不錯。”陳坤如此說道,“不過,每家AI視頻生成工具都有自己的特點,比如Runway,它的Gen3鏡頭偏電影感,盡管之前只有文生視頻功能,但很多創(chuàng)作者也很喜歡用,F(xiàn)在它也推出了圖生視頻功能”

作為一個資深玩家,洋芋醬AIgen也認為:“目前最好用的是可靈、luma 和Runway。”另一位影視從業(yè)者琪琪(化名)則表示,Sora的整體效果應(yīng)該最好,但其并未開放。

不過,在實際的體驗過程中,雖然現(xiàn)階段相比于半年前在視頻時長和效果上有了質(zhì)的飛躍,但仍存在畫面人物變形、畫面不穩(wěn)定以及前后不一致性等問題。

總結(jié)下來,從業(yè)者在使用AI視頻時,主要有5大痛點:包括人物一致性,場景一致性,人物表演,動作交互,運動幅度等。

“由于大模型技術(shù)并不完善,在視頻生成過程中畫面不可避免的產(chǎn)生畸變。”陳坤稱。

對此,行業(yè)從業(yè)者就會通過不停“抽卡”(讓AI不斷自主隨機生成相關(guān)畫面)的方式,最終得到一個相對滿意的效果畫面。

“即便我們用可靈,在一個火神和水神打架的鏡頭上,還‘抽卡’不下100次,但也并未抽到我特別滿意的鏡頭,后來實際用的畫面其實也是帶了一定畸變的。”陳坤說道。

從現(xiàn)階段的技術(shù)手段來看,短期內(nèi)可能無法解決這一問題。張鵬認為:“最簡單的可控,就是我說什么模型做什么,而想要實現(xiàn)這一可控,強烈依賴于模型能不能夠理解這個內(nèi)容,而這也是多模態(tài)大模型發(fā)展的初衷。”

用發(fā)展中的技術(shù)去解決發(fā)展中的問題,將是AI視頻大模型未來發(fā)展迭代升級的關(guān)鍵。“內(nèi)容生成,尤其是視頻內(nèi)容生成,絕大部分情況下還是由‘人用語言描述’的方式來控制。從自然語言到視頻生成,這才是真正的可控,更高層面的可控,這是技術(shù)層面的事情。”張鵬如此說道。

現(xiàn)階段AI視頻大模型技術(shù)仍處于比較早期階段,并未有任何一家AI視頻生成工具爬到了山頂。而在各家攀登山頂?shù)倪^程中,生態(tài)體系的建設(shè)以及商業(yè)化變現(xiàn)也成為關(guān)鍵。

黃金賽道的起點

“技術(shù)應(yīng)用到行業(yè)的速度,遠慢于技術(shù)自身的發(fā)展。”陳萬鋒如此說道,“AI技術(shù)發(fā)展很快,但滲透到產(chǎn)業(yè)中,產(chǎn)生價值的速度可能要慢十倍。”

純技術(shù)路線發(fā)展的角度來看,從單模態(tài),到多模態(tài),最終的目標是達成AGI。但將AI進行產(chǎn)業(yè)化落地應(yīng)用,與技術(shù)升級迭代是兩碼事。

現(xiàn)階段,國內(nèi)眾多大模型公司的技術(shù)追趕已經(jīng)過了一個階段,將會把更多的精力聚焦在落地和應(yīng)用上,通過與場景的結(jié)合,數(shù)據(jù)的反饋,再推進底層技術(shù)迭代升級。

而相比于ChatGPT這種聊天機器工具,AI視頻生成則是大模型技術(shù)商業(yè)化落地的黃金賽道。

之所以說其是黃金賽道,主要基于兩個方面:

一個是作為AI視頻生成工具,其天然具有收費優(yōu)勢。

目前大多數(shù)AI視頻生成工具,面向C端用戶采用的是會員體系。以可靈為例,其目前會員共分為黃金、鉑金、鉆石三個類別,優(yōu)惠后三檔月卡的價格分別為33元、133元和333元,對應(yīng)分別獲得660、3000 、8000“靈感值”,可生成約66個、300個或800個標準視頻。

面向B端企業(yè)級用戶,則可以支持通過調(diào)用API的方式進行收費。如智譜AI,其除了會員制收費方式外,還在開放平臺開放了API,收入一定的費用。

另外一個方面,AI視頻生成工具讓創(chuàng)作者和消費者之間的界限變得模糊,尤其是快手和抖音平臺上,這些視頻博主屬于C端消費者,但其又可以基于AI視頻工具進行視頻創(chuàng)作,變成B端視頻生產(chǎn)方。光錐智能認為,“大C小B的消費者是很重要的,甚至可能是最重要的,ToB和ToC的界限越來越模糊。”

不過,從商業(yè)化生態(tài)角度來講,大廠和創(chuàng)企在變現(xiàn)的思路上也并不一致。

像抖音、快手這種已經(jīng)行業(yè)頭部視頻平臺,其可以依托自身海量的用戶,通過提供AI視頻生成工具,讓用戶通過這一工具創(chuàng)作相關(guān)內(nèi)容,豐富自己視頻生態(tài)體系。

“大廠不需要賣工具,而是通過用戶進行商業(yè)化變現(xiàn)。”陳萬鋒如此說道,“C端為應(yīng)用付費模式(對創(chuàng)業(yè)公司來講)在國內(nèi)并不現(xiàn)實,未來或許只有巨頭才有機會,因為其用戶數(shù)量龐大。”

與此同時,對于現(xiàn)階段各平臺采取的會員制收費方式,陳坤堅定地對光錐智能表示:“我不看好這個會員制,現(xiàn)在即便再便宜,也只對真正能夠商業(yè)化閉環(huán)的創(chuàng)作者有效。如果不是一個商業(yè)化閉環(huán)的創(chuàng)作者,后續(xù)的付費率和付費意愿都不會很高。”

陳坤對此解釋道,一方面C端收取的會員制費用相對于大廠研發(fā)九牛一毛,都不夠大模型訓(xùn)練一次。另一方面,一旦AI視頻大模型技術(shù)達到天花板,這些巨頭一定會進行價格戰(zhàn),目的就是為了搶奪用戶數(shù)量,“大廠最終一定會選擇用戶數(shù)量,而不是去賺這些錢。”

因此,于大模型創(chuàng)企來說,如果單純的是賣工具,“在中國只能ToB不能ToC。”陳坤如此說道,“而只有面向企業(yè)端,才是能夠商業(yè)化變現(xiàn)的唯一方式。”

而企業(yè)端愿意為其付費的原因,則在于其能夠?qū)崿F(xiàn)視頻的商業(yè)化交付,產(chǎn)生營收,能夠支持其對應(yīng)的成本支出。

比如陳坤通過AI短劇進行商業(yè)變現(xiàn),洋芋醬AIgen則會根據(jù)客戶的視頻內(nèi)容需求,為客戶制作AI視頻內(nèi)容,“最高一個月能接8單客戶需求,平均每個月有3-4單。”

而筷子科技,是通過AI視頻的生產(chǎn)工作流和短視頻平臺的投放結(jié)合,來賺品牌的應(yīng)用工具及服務(wù)的錢。

基于此,不難看出,在AI視頻的商業(yè)化中,C端還是巨頭會更成功,創(chuàng)業(yè)者的機會則在B端。面向未來,快手視覺生成與互動中心負責人萬鵬飛也表示,隨著大模型技術(shù)能力的提升,視頻創(chuàng)作者和消費者的界限逐漸模糊,促進視頻平臺生態(tài)繁榮。

       原文標題 : 爆“卷”的AI視頻,大廠向左,創(chuàng)企向右

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號