訂閱
糾錯
加入自媒體

從數(shù)據(jù)到生成式AI,是該重新思考風(fēng)險的時候了

OpenAI“宮斗”大戲即將塵埃落定。

自首席執(zhí)行官Sam Altman突然被董事會宣布遭解雇、董事長兼總裁Greg Brockman辭職;緊接著OpenAI員工以辭職威脅董事會要求Altman回歸;再到OpenAI董事會更換成員、Altman回歸OpenAI。

表面上看,這似乎是一場針對一家獨領(lǐng)風(fēng)騷的技術(shù)初創(chuàng)公司控制權(quán)的爭奪戰(zhàn),但從種種跡象來看,此次“宮斗”的導(dǎo)火索,更多應(yīng)源自對AI未來發(fā)展理念的分歧:一派扛著“加速主義”旗幟,希望AI在技術(shù)精英的帶領(lǐng)下加速前進改造世界;另一邊則是以利他主義理論為根基、力求讓AI在人類控制下發(fā)展的保守派別。

從創(chuàng)造栩栩如生的藝術(shù)到如同真人般的精度模仿人類語言,生成式AI正在改寫創(chuàng)新和自動化的規(guī)則。

AI大模型訓(xùn)練的高耗能、AI對語言情感和倫理道德的把握程度、AI對假消息和公眾輿論的操縱、生成式AI在人類創(chuàng)新創(chuàng)造中的角色……在生成式AI加速奔跑的今天,有些問題依然值得我們細(xì)細(xì)思考。

 AI大模型成下一個 安全新戰(zhàn)場

今年三月,三星電子剛剛在企業(yè)內(nèi)部引入ChatGPT服務(wù)不久,就發(fā)生了三起機密數(shù)據(jù)泄露事件。部分員工將涉及半導(dǎo)體生產(chǎn)的機密代碼與內(nèi)部會議信息輸入ChatGPT端口,導(dǎo)致這些敏感資料被上傳至美國服務(wù)器,極可能已經(jīng)泄漏。事件發(fā)生后,三星迅速采取措施約束員工使用ChatGPT的場景和行為,也引發(fā)了行業(yè)對于這類大模型技術(shù)帶來的數(shù)據(jù)隱私和安全問題的討論。

客觀而言,在互聯(lián)網(wǎng)時代,任何向云端上傳數(shù)據(jù)的行為都具有潛在的安全風(fēng)險。云計算剛剛興起的時代,就有很多企業(yè)擔(dān)憂敏感數(shù)據(jù)被云服務(wù)商泄露,拒絕將其上傳至云端。

時至今日,仍有大批企業(yè)在本地存儲隱私數(shù)據(jù)來增強安全性,云服務(wù)商仍然沒有完全贏得企業(yè)的信任。

而生成式AI的熱潮則令這一問題雪上加霜。一方面,由于大模型訓(xùn)練、運營所需的成本極為高昂,極少有企業(yè)能夠負(fù)擔(dān)巨大的投資而在本地建設(shè)自有大模型服務(wù)。

另一方面,由云服務(wù)商提供的大模型服務(wù)在訓(xùn)練和交互時需要海量數(shù)據(jù),尤其是特定領(lǐng)域的數(shù)據(jù)。大模型掌握的領(lǐng)域數(shù)據(jù)越多,特別是與企業(yè)研發(fā)、運營相關(guān)的數(shù)據(jù)越多,輸出的效果往往越令人滿意。

例如,企業(yè)開發(fā)人員使用AI代碼輔助生成工具時,一般需要上傳企業(yè)已有的代碼庫,使大模型給出更精準(zhǔn)的代碼預(yù)測結(jié)果;企業(yè)營銷人員將過往的營銷材料輸入大模型,就可以自動生成高質(zhì)量的營銷內(nèi)容,提升工作效率。

為此,企業(yè)和研究機構(gòu)往往會收集包括用戶生成內(nèi)容的文本、圖像等數(shù)據(jù),這些原始訓(xùn)練數(shù)據(jù)中可能含有用戶的敏感隱私信息。

如果數(shù)據(jù)采集不當(dāng)、存在偏見或標(biāo)簽錯誤、數(shù)據(jù)被投毒,都有可能導(dǎo)致大模型產(chǎn)生錯誤輸出、存在歧視或其他負(fù)面影響,同時數(shù)據(jù)在應(yīng)用的過程中,也要面臨數(shù)據(jù)泄露、隱私曝光等風(fēng)險,這既存在法律風(fēng)險,也會引發(fā)公眾對AI的信任危機。

另外,提供大模型服務(wù)的云廠商一般會同時服務(wù)眾多客戶,而大模型在獲得各個企業(yè)的數(shù)據(jù)后,如何將這些數(shù)據(jù)充分隔離在每個客戶的服務(wù)范圍之內(nèi),就成為了困擾云廠商與企業(yè)的一大難題。

一旦數(shù)據(jù)的隔離失敗,從甲客戶獲得的數(shù)據(jù)就可能被用在對乙客戶給出的交互回答中,造成數(shù)據(jù)泄露。

如果企業(yè)上傳的大量隱私機密數(shù)據(jù)未能得到充分保護,惡意攻擊者或者云廠商內(nèi)部的惡意人士就可能利用軟件漏洞或職權(quán)獲取這些信息,攫取不當(dāng)利益的同時,也對企業(yè)造成了無可估量的傷害。

考慮到大模型所需的訓(xùn)練和交互數(shù)據(jù)數(shù)量龐大,遠(yuǎn)遠(yuǎn)超過以往企業(yè)上傳到云端的規(guī)模,這種風(fēng)險相比過去也有數(shù)量級的增長。

目前,生成式AI已經(jīng)展現(xiàn)前所未有的智能化水平,由此將占據(jù)企業(yè)的IT關(guān)鍵位置,而就此重要性帶來的受攻擊頻度,也將使得生成式AI成為云計算、大數(shù)據(jù)、物聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)之后的一個全新的安全戰(zhàn)場。

與此同時,大模型技術(shù)也將會在多個方面幫助提升網(wǎng)絡(luò)安全運維效率,在更深層次改變網(wǎng)絡(luò)安全格局的基礎(chǔ)。

有些人士還認(rèn)為,生成式AI將進一步擴大貧困差距,加深數(shù)字鴻溝。生成式AI作為新興的AI技術(shù),需要基于大量的數(shù)據(jù)與巨大的計算能力,這就意味著生成式AI只能在技術(shù)先進的國家和地區(qū)普及開來,并被少數(shù)經(jīng)濟體所掌控。

數(shù)字貧困差距進一步擴大,科技弱勢地區(qū)的話語權(quán)被忽視,其潛在的風(fēng)險就是發(fā)達(dá)經(jīng)濟體的價值觀廣泛傳播,數(shù)字鴻溝也會不可逆地加深。

用技術(shù)對抗技術(shù)用魔法打敗魔法

隨著大模型時代的到來,其強大能力也為安全防護技術(shù)的變革提供了新的思路。“用AI的力量來對抗AI”已經(jīng)成為一個熱點方向。

事實上,對抗攻防思路并不是模型安全的專屬。早在上個十年,面對種種安全威脅,人工智能領(lǐng)域就逐步形成了“以攻測防——以攻促防——攻防一體化”的安全理念,通過模擬各類攻擊場景,不斷探索模型和系統(tǒng)的弱點,以此推動算法和工程端的防御能力加強。

只不過,以往安全防護主要依賴機器學(xué)習(xí)算法模型,這需要大量專業(yè)數(shù)據(jù)知識積累,且面臨知識盲區(qū)和小樣本冷啟動不及時的問題。利用大模型技術(shù),可以實現(xiàn)更智能化的安全防控。

當(dāng)前,生成式AI面臨的安全問題可以分為三級。初級問題是技術(shù)攻擊問題,也就是網(wǎng)絡(luò)攻擊、漏洞攻擊、數(shù)據(jù)攻擊問題,特別是提供給大模型不好的數(shù)據(jù)或污染它的訓(xùn)練數(shù)據(jù),可能會導(dǎo)致結(jié)果出錯。這類問題相對比較好解決。

比較難解決的是中級問題,主要涉及內(nèi)容安全。例如大模型可以成為人們很好的幫手,也能成為壞人的工具。它可以幫一個水平不怎么樣的黑客寫更好的攻擊代碼、詐騙郵件。

如何讓它的內(nèi)容更加可控?如何防止AI大模型不作惡?這已經(jīng)超越了技術(shù)范疇。盡管現(xiàn)在有人為大模型做了內(nèi)置的所謂“安全護欄”,但它很容易遭到注入攻擊或算法攻擊。

從高級問題來看,大模型可以把人類所有知識融會貫通,再來和人類做交流、做提示。但當(dāng)AI的能力超越人類后,還能不能甘于做人類的工具,這些技術(shù)帶來的挑戰(zhàn)最終還要靠技術(shù)來解決,技術(shù)自身會不斷進化,不能因為未來還沒有發(fā)生的問題就不發(fā)展相關(guān)技術(shù)。

從產(chǎn)業(yè)界現(xiàn)狀來看,AI安全與否如何評測,目前尚缺乏一套易用和標(biāo)準(zhǔn)化的評測工具和規(guī)則。

這也是大模型防御中能夠補充的另一方面,通過大模型技術(shù)學(xué)習(xí)風(fēng)險知識和標(biāo)準(zhǔn)規(guī)則來提升AI對于風(fēng)險的認(rèn)知理解能力,以實現(xiàn)用大模型對抗大模型來進行極速防御和快速冷啟動的目的。

面對大模型下的網(wǎng)絡(luò)安全挑戰(zhàn),需要企業(yè)、安全團隊和監(jiān)管機構(gòu)等共同努力來應(yīng)對。

首先,加強大模型的訓(xùn)練和管理。通過采用更加有效的數(shù)據(jù)增強和處理技術(shù),減少大模型的過擬合和梯度爆炸等問題,提高模型的魯棒性和可靠性。同時,對大模型的訓(xùn)練和管理也需要加強監(jiān)管和審計,確保數(shù)據(jù)的隱私和安全。

其次,研發(fā)新型安全防御技術(shù)。針對大模型的攻擊手段不斷變化和更新,需要研發(fā)新型的安全防御技術(shù)來應(yīng)對。例如,可以利用人工智能技術(shù)來檢測和防御惡意代碼和網(wǎng)絡(luò)釣魚攻擊等。

以文本安全為例,大模型可以基于安全標(biāo)準(zhǔn)規(guī)則、風(fēng)險領(lǐng)域知識和歷史風(fēng)險樣本進行訓(xùn)練,提升模型對于風(fēng)險標(biāo)準(zhǔn)和內(nèi)容的理解力,從而實現(xiàn)對風(fēng)險檢測能力的提升。

也采用大模型生成能力結(jié)合安全知識圖譜,來構(gòu)造攻擊樣本持續(xù)迭代優(yōu)化檢測模型。

第三,強化數(shù)據(jù)安全保護。除了要關(guān)注大模型在互聯(lián)網(wǎng)上的攻防對抗,大模型本身的安全和隱私問題同樣引發(fā)了擔(dān)憂。

針對大模型的訓(xùn)練和使用過程中可能存在的數(shù)據(jù)安全問題,需要采取一系列的隱私保護技術(shù)。例如,使用同態(tài)加密、差分隱私、安全多方計算、模型水印和指紋等多種技術(shù)來保護數(shù)據(jù)的隱私和安全。

第四,加強監(jiān)管和法律保護。技術(shù)立法往往落后于技術(shù)發(fā)展的步伐,缺少法規(guī)和條例的引導(dǎo)和規(guī)制,越來越多使用生成式AI的公司發(fā)現(xiàn)其系統(tǒng)運行的安全性受到很大挑戰(zhàn)。

面對大模型下的網(wǎng)絡(luò)安全挑戰(zhàn),也需要監(jiān)管機構(gòu)和法律機構(gòu)加強管理和監(jiān)管。例如,政府監(jiān)管機構(gòu)要通過政策立法對生成式AI的設(shè)計、演進進行有效引導(dǎo)、統(tǒng)籌管理。

制定的政策框架需要與各國的立法和監(jiān)管背景保持一致,并且要隨AI技術(shù)更迭而更新,不斷提高現(xiàn)有法規(guī)的適用度。在監(jiān)管的同時給予AI創(chuàng)新的自由度,協(xié)同創(chuàng)造出更高質(zhì)量的內(nèi)容。

生成式AI是非常復(fù)雜的問題,倫理、數(shù)據(jù)、訓(xùn)練等領(lǐng)域的復(fù)雜度都是前所未有的,是一個新領(lǐng)域,也是擺在所有人面前的一個命題。

從科技企業(yè)的發(fā)展史看,在新技術(shù)發(fā)展的前期,不同路線、理念的參與者往往能夠團結(jié)協(xié)作,共同為了科技普及而合作前進。

但當(dāng)科技普及已經(jīng)發(fā)生,關(guān)于商業(yè)化、實現(xiàn)路徑的種種理念差異,卻可能走上不同的道路。在AI普及和深度應(yīng)用的前夜里,或許,關(guān)于未來技術(shù)應(yīng)該如何普及、如何監(jiān)管的理念與路徑之爭,才剛剛拉開帷幕。

面對未來的安全發(fā)展趨勢和挑戰(zhàn),企業(yè)更應(yīng)該攜起手來,共同建立可度量的安全體系,為應(yīng)對智能化時代的攻防新趨勢,打造內(nèi)在自適應(yīng)的“安全免疫力”。

 相關(guān)閱讀

打造生成式AI應(yīng)用,什么才是關(guān)鍵?

生成式AI大模型,或?qū)⒑硠釉品⻊?wù)市場格局

當(dāng)云廠商主動擁抱生成式AI,會碰撞出什么樣的火花?

大模型會給操作系統(tǒng)帶來什么樣的想象?

大模型的中場戰(zhàn)事,深入垂直行業(yè)腹地

【科技云報道原創(chuàng)】

轉(zhuǎn)載請注明“科技云報道”并附本文鏈接

       原文標(biāo)題 : 從數(shù)據(jù)到生成式AI,是該重新思考風(fēng)險的時候了

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號