訂閱
糾錯
加入自媒體

萬惡的Deepfake,為什么百禁不絕?

2024-10-09 10:53
腦極體
關(guān)注

圖片

在國慶假期期間,網(wǎng)友惡搞的雷軍AI配音突然爆火,引發(fā)了諸多爭議。AI造假音視頻,似乎已經(jīng)成為一個無法關(guān)閉的潘多拉魔盒。在更早之前,韓國爆發(fā)的Deepfake危害事件就曾引發(fā)全球關(guān)注。根據(jù)相關(guān)報道,最初是由多名韓國女性通過社交平臺,披露了傳播Deepfake換臉不雅視頻的事件。隨后,有越來越多的危害事件與受害人被爆出。

根據(jù)社交媒體流傳的受Deepfake影響名單,有超過百所韓國中小學(xué)以及國際學(xué)校出現(xiàn)相關(guān)問題。有韓國官員表示,受害者可能達到22萬人。

圖片

這里大家可能會有這樣一個疑問:為什么多年來人人喊打的Deepfake反而愈演愈烈?

要知道,早在2017年Deepfake剛剛出現(xiàn)的時候,僅僅幾天就遭到了全球范圍的合力封殺,包括但不限于主流社交媒體的嚴格封禁。此后,多個國家與地區(qū)采用了立法的形式,嚴禁利用Deepfake以及其他AI換臉技術(shù)侵犯他人肖像權(quán)與隱私權(quán)。

危害難以杜絕,是因為Deepfake技術(shù)高深,讓人防不勝防嗎?

答案剛好相反,Deepfake難以禁止的原因,恰恰在于其過分簡單,只需要簡單的技術(shù)資源就能造成巨大的破壞性影響。

而這些資源,在今天的互聯(lián)網(wǎng)環(huán)境下能夠輕而易舉地獲取。

圖片

我想,我們沒有必要從人性和動機上討論為什么有人制作和傳播AI換臉視頻。只要違法成本夠低,這種行為就必然無法杜絕。作為普通人,我們也難以從立法和執(zhí)法的角度探討如何打擊Deepfake。我們能做的,是審視進行Deepfake的真實情況,進而考慮如何增大違法難度,壓縮這種行為的生存空間。

Deepfake被很多媒體稱作“人類最邪惡的AI技術(shù)”。這種描述有其合理性,但也客觀上對Deepfake進行了妖魔化、神秘化的修飾,讓不了解的人將其與黑客、勒索病毒、暗網(wǎng)等關(guān)鍵詞聯(lián)系起來,認為其非常隱秘而高深。

圖片

事實恰恰相反,Deepfake的危害性與破壞性,恰恰在于其操作簡單。近乎沒有任何技術(shù)學(xué)習(xí)門檻,同時其所需要的每一步幫助,都可以在公開的互聯(lián)網(wǎng)環(huán)境中堂而皇之地獲取。

試想一下,韓國的22萬名受害者,不可能都是某幾個技術(shù)大牛進行的施暴。當(dāng)普通人可以隨時隨地,沒有成本地作惡,惡意才真正難以被遏制。

之所以這樣說,是我們必須先了解Deepfake的具體流程。一般來說,使用Deepfake進行AI換臉,需要經(jīng)歷以下幾個步驟:

1.準備Deepfake相關(guān)軟件,或者找到具有類似功能的在線AI開發(fā)平臺。

2.準備要進行人臉替換的視頻,對視頻進行照片化切圖。

3.挑選出若干照片中要替換的人臉并進行操作。俗稱切臉,提臉。

4.將準備好的照片進行覆蓋,進而進行模型訓(xùn)練。這一步對于缺乏技術(shù)功底的人來說,大概率需要預(yù)訓(xùn)練模型來輔助訓(xùn)練。

5.訓(xùn)練完成,生成視頻。

圖片

從這個流程中我們可以總結(jié)出,想要進行一次有危害性的Deepfake最多只需要四件東西:AI換臉軟件、預(yù)訓(xùn)練模型、被換臉的視頻、受害人照片。

獲取這些東西過分容易,就是Deepfake百禁不絕,反而流毒更廣的核心原因。

圖片

我們可以來分步驟看看,Deepfake的“作案工具”究竟來自哪里。討論這些的原因絕不是希望普及相關(guān)知識,而是希望指出互聯(lián)網(wǎng)環(huán)境下,留給Deepfake作惡者的機會與漏洞究竟在哪里。這些漏洞不被斬斷,僅憑道德層面的號召倡議,或者對AI換臉視頻的技術(shù)識別,是斷然無法組織別有用心者的。

圖片

首先,AI換臉必然需要受害人的照片。根據(jù)相關(guān)技術(shù)社區(qū)的分享,最初版本的Deepfake大概需要50張、多角度、高清晰度的照片,才能實現(xiàn)較為自然的視頻合成。但經(jīng)過幾年的迭代,目前只需要20張左右的照片就可以實現(xiàn)。

試想一下,對于稍微有社交媒體分享習(xí)慣的朋友來說,20張照片被盜用簡直是輕而易舉。

加上一段很容易找到的不雅視頻,一場無妄之災(zāi)可能就此開啟。

圖片

得到了受害人的照片信息之后,不法分子就要找到可以進行Deepfake的軟件。Deepfake的創(chuàng)始人最早是將軟件與教程分享到了Reddit上,此后很快被官方禁止。一氣之下,作者就將這款軟件的代碼全部放到了Github上進行免費分享,可供隨時下載與使用。

到2022年,相關(guān)軟件已經(jīng)升級到了DeepFaceLab 3.0版本,不僅可以在作者的Github下載,在中文互聯(lián)網(wǎng)環(huán)境中還有大量QQ群、網(wǎng)盤鏈接進行分享。

圖片

更為可惡的是,在各個下載渠道中獲得的DeepFaceLab,都有非常詳細的中文說明與操作指引。而在切臉這類比較繁瑣的工作上,甚至有專門軟件進行加速。

唯一可能給不法者造成阻礙的,是AI換臉依舊需要比較好的顯卡來進行訓(xùn)練加速,但中高端的游戲顯卡也已經(jīng)完全足夠。

獲取成本為0的不法軟件,技術(shù)成本為0的操作難度,構(gòu)成了Deepfake真正恐怖的地方。

圖片

到以上為止,如果是一個有AI技術(shù)能力的人,已經(jīng)獲得了全部進行Deepfake施暴的前提條件。但對不太了解AI技術(shù)的人來說,還有一個關(guān)鍵需求,就是獲取預(yù)訓(xùn)練模型。

預(yù)訓(xùn)練模型,是AI開發(fā)的一個基本機制。由于大部分AI模型的前置訓(xùn)練任務(wù)是相同的,因此開發(fā)者傾向?qū)⑾嗤牟糠诌M行預(yù)訓(xùn)練,在同類任務(wù)中作為公用底座來使用。而在AI換臉任務(wù)中,由于難以掌握訓(xùn)練方法,大部分新手訓(xùn)練出的AI換臉模型會出現(xiàn)貼臉不自然,嚴重掉幀等現(xiàn)象。這時候就需要使用預(yù)訓(xùn)練模型進行訓(xùn)練,從而在提升模型精度的同時,也降低模型訓(xùn)練所需時間。

按理說,作為非技術(shù)人員的普通人,應(yīng)該較難獲得預(yù)訓(xùn)練模型來進行Deepfake吧?

圖片

事實并非如此,打開很多電商平臺、二手交易平臺,就可以輕松找到專用于Deepfake的預(yù)訓(xùn)練模型。這些模型一般被稱為“AI金丹”。

在某主流二手交易平臺,搜索AI金丹、AI仙丹、AI底丹,或者DFL丹藥、DFL靈丹等關(guān)鍵詞,會出現(xiàn)大量Deepfake預(yù)訓(xùn)練模型的出售聯(lián)接。一般只需要幾元錢成本。

由于平臺缺乏監(jiān)管,這類售賣行為長期存在,成為滋長惡行的“產(chǎn)業(yè)鏈”。就連上文提到的DeepFaceLab軟件,很多時候也可以在二手交易平臺買到,賣家還對進行操作教程與指引。

而這種“AI仙丹產(chǎn)業(yè)鏈”另一個難以杜絕的地方在于,一個Deepfake用戶熟練操作之后,又可以將自己的模型制作為預(yù)訓(xùn)練模型,也被俗稱為“煉丹”。煉好的彈藥再到二手平臺進行販賣,這種灰色產(chǎn)業(yè)就這樣不斷擴散綿延。

圖片

總結(jié)Deepfake施暴者每一步的支持來源,是為了指出杜絕其危害,真正應(yīng)該著手發(fā)力的地方。

目前相關(guān)話題的討論,經(jīng)常會陷入某種誤區(qū):總是想要用非常前沿的,高成本的方法去阻擊Deepfake,比如倡導(dǎo)利用AI技術(shù)來鑒別視頻是否為AI生成等。

當(dāng)然,通過AI算法來分辨AI換臉有重要的應(yīng)用場景,比如在AI換臉詐騙識別上,檢測視頻造假就至關(guān)重要。

但在類似韓國Deepfake事件,這類利用AI換臉炮制不雅視頻的犯罪中,識別視頻為假是無力的,甚至是無用的。

對于造假者與傳播者而言,他們大多不在乎視頻是否為假。依靠高精尖的智能化技術(shù)去檢測Deepfake,就像用微小的技術(shù)沙袋,去堵決堤的人性江河,不過是揚湯止沸而已。

圖片

更有效的方法,或許是釜底抽薪,是從源頭上杜絕別有用心者嘗試Deepfake。

首先,或許我們需要在社交媒體上分享照片時更加慎重。誠然,不能讓受害者承擔(dān)制止犯罪的義務(wù),但在這個充滿不確定性的網(wǎng)絡(luò)環(huán)境中,個人隱私的保護責(zé)任也在變得愈發(fā)重要。

接下來,是對相關(guān)軟件要采取更具嚴格的封禁策略。對傳播類似軟件采取適當(dāng)?shù)闹浦剐袨。尤其在AIGC興起后,大量新型平臺開始為普通開發(fā)者提供各種各樣的AI開發(fā)功能。一定要謹慎提防類似功能混跡其中,成為新的AI安全漏洞。

此外,電商平臺與二手交易平臺需要更加嚴格監(jiān)管。堵住Deepfake軟件與預(yù)訓(xùn)練模型的售賣渠道。切斷利益鏈,往往是禁止不法行為的關(guān)鍵。

在今天,我們與Deepfake的斗爭才剛剛開始。對它的祛魅與了解,是抵制惡意的第一步。

圖片

       原文標題 : 萬惡的Deepfake,為什么百禁不絕?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號