訂閱
糾錯
加入自媒體

ChatGPT應(yīng)用爆火,安全的大數(shù)據(jù)底座何處尋?

毫無疑問,AIGC正在給人類社會帶來一場深刻的變革。

而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數(shù)據(jù)支持。ChatGPT的“入侵”已經(jīng)引起了各行各業(yè)對內(nèi)容抄襲的擔(dān)憂,以及網(wǎng)絡(luò)數(shù)據(jù)安全意識的提高。雖然AI技術(shù)是中立的,但并不能成為規(guī)避責(zé)任與義務(wù)的理由。

最近,英國情報機(jī)構(gòu)——英國政府通訊總部(GCHQ)警告稱,ChatGPT和其他人工智能聊天機(jī)器人將是一個新的安全威脅。

盡管ChatGPT的概念出現(xiàn)沒有多久,但對網(wǎng)絡(luò)安全和數(shù)據(jù)安全帶來威脅的問題已經(jīng)成為業(yè)內(nèi)關(guān)注的焦點。對于目前還處于發(fā)展初期的ChatGPT,如此擔(dān)憂是否杞人憂天?

安全威脅或正在發(fā)生

去年年底,初創(chuàng)公司OpenAI推出ChatGPT,之后,其投資商微軟于今年推出了基于ChatGPT技術(shù)開發(fā)的聊天機(jī)器人“必應(yīng)聊天(Bing Chat)”。由于此類軟件能夠提供酷似人類的對話,目前這項服務(wù)已風(fēng)靡全球。

GCHQ的網(wǎng)絡(luò)安全部門指出,提供AI聊天機(jī)器人的公司可以看到用戶輸入的查詢內(nèi)容,就ChatGPT而言,其開發(fā)商OpenAI就能夠看到這些。

ChatGPT通過大量文本語料庫進(jìn)行訓(xùn)練,其深度學(xué)習(xí)能力很大程度上依賴于背后的數(shù)據(jù)。

出于對信息泄露的擔(dān)憂,目前已有多家公司和機(jī)構(gòu)發(fā)布“ChatGPT禁令”。

倫敦金融城律師事務(wù)所Mishcon de Reya禁止其律師將客戶數(shù)據(jù)輸入ChatGPT,因為擔(dān)心在法律上享有隱私特權(quán)的資料可能會遭泄露。

國際咨詢公司埃森哲警告其全球70萬名員工,出于類似的原因,不要使用ChatGPT,因為擔(dān)心客戶的機(jī)密數(shù)據(jù)最終會落入他人之手。英國電腦芯片公司Arm的母公司日本軟銀集團(tuán)同樣警告其員工,不要向人工智能聊天機(jī)器人輸入公司人員的身份信息或機(jī)密數(shù)據(jù)。

今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行。花旗集團(tuán)和高盛集團(tuán)緊隨其后,前者禁止員工在整個公司范圍內(nèi)訪問ChatGPT,后者則限制員工在交易大廳使用該產(chǎn)品。而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數(shù)據(jù),因為這些信息可能會被用作進(jìn)一步迭代的訓(xùn)練數(shù)據(jù)。

事實上,這些人工智能聊天機(jī)器人背后是大型語言模型(LLM),用戶的這些查詢內(nèi)容將會被存儲起來,并且會在未來某個時候被用于開發(fā)LLM服務(wù)或模型。

這就意味著,LLM提供商能夠讀取到相關(guān)查詢,并可能以某種方式將它們合并到未來的版本中。

盡管LLM運營商應(yīng)該采取措施保護(hù)數(shù)據(jù),但不能完全排除未經(jīng)授權(quán)訪問的可能性。因此,企業(yè)需要確保他們有嚴(yán)格的政策,提供技術(shù)性支持,來監(jiān)控LLM的使用,以最大限度地降低數(shù)據(jù)暴露的風(fēng)險。

另外,盡管ChatGPT本身尚不具備直接攻擊網(wǎng)絡(luò)安全和數(shù)據(jù)安全的能力,但是由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。

此外,攻擊者還可以使用自然語言來讓ChatGPT生成相應(yīng)的攻擊代碼、惡意軟件代碼、垃圾郵件等。因此,AI可以讓那些原本沒有能力發(fā)起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。

在自動化、AI、“攻擊即服務(wù)”等技術(shù)和模式加持下,網(wǎng)絡(luò)安全攻擊呈現(xiàn)出暴漲趨勢。在ChatGPT火爆之前,已發(fā)生了多次黑客使用AI技術(shù)進(jìn)行的網(wǎng)絡(luò)攻擊。事實上,人工智能被用戶調(diào)教“帶偏節(jié)奏”的案例并不鮮見,6年前,微軟推出智能聊天機(jī)器人Tay,上線時,Tay表現(xiàn)得彬彬有禮,但不到24小時,其就被不良用戶“帶壞”,出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見,只好被下線結(jié)束了短暫的生命。

另一方面,距離用戶更近的風(fēng)險是,用戶在使用ChatGPT等AI工具時,可能會不經(jīng)意間將私密數(shù)據(jù)輸入到云端模型,這些數(shù)據(jù)可能成為訓(xùn)練數(shù)據(jù),也可能成為提供給他人答案的一部分,從而導(dǎo)致數(shù)據(jù)泄露和合規(guī)風(fēng)險。

AI應(yīng)用要打好安全底座

ChatGPT作為大語言模型,其核心邏輯事實上是海量數(shù)據(jù)的收集、加工、處理和運算結(jié)果的輸出。總的來說,這幾個環(huán)節(jié)可能會在技術(shù)要素、組織管理、數(shù)字內(nèi)容三個方面伴生相關(guān)風(fēng)險。

雖然ChatGPT表示,存儲訓(xùn)練和運行模型所需的數(shù)據(jù)會嚴(yán)格遵守隱私和安全政策,但在未來可能出現(xiàn)網(wǎng)絡(luò)攻擊和數(shù)據(jù)爬取等現(xiàn)象,仍存在不可忽視的數(shù)據(jù)安全隱患。特別是涉及國家核心數(shù)據(jù)、地方和行業(yè)重要數(shù)據(jù)以及個人隱私數(shù)據(jù)的抓取、處理以及合成使用等過程,需平衡數(shù)據(jù)安全保護(hù)與流動共享。

除了數(shù)據(jù)與隱私泄露隱患外,AI技術(shù)還存在著數(shù)據(jù)偏見、虛假信息、模型的難解釋性等問題,可能會導(dǎo)致誤解和不信任。

風(fēng)口已至,AIGC浪潮奔涌而來,在前景向好的大背景下,關(guān)口前移,建立數(shù)據(jù)安全防護(hù)墻也至關(guān)重要。尤其是當(dāng)AI技術(shù)逐漸完善,它既能成為生產(chǎn)力進(jìn)步的有力抓手,又易淪為黑產(chǎn)犯罪的工具。奇安信威脅情報中心監(jiān)測數(shù)據(jù)顯示,2022年1月份-10月份,超過950億條的中國境內(nèi)機(jī)構(gòu)數(shù)據(jù)在海外被非法交易,其中有570多億條是個人信息。

因此,如何確保數(shù)據(jù)存儲、計算、流通過程中的安全問題,是數(shù)字經(jīng)濟(jì)發(fā)展的大前提。從整體看,應(yīng)該堅持頂層設(shè)計與產(chǎn)業(yè)發(fā)展齊頭并進(jìn),在《網(wǎng)絡(luò)安全法》的基礎(chǔ)上,要細(xì)化風(fēng)險與責(zé)任分析體系,確立安全問責(zé)機(jī)制。同時,監(jiān)管部門可開展常態(tài)化監(jiān)查工作,安全領(lǐng)域企業(yè)協(xié)同發(fā)力,構(gòu)建全流程數(shù)據(jù)安全保障體系。

對于數(shù)據(jù)合規(guī)和數(shù)據(jù)安全的問題,特別是在《數(shù)據(jù)安全法》推出后,數(shù)據(jù)隱私越來越重要。

如果在應(yīng)用AI技術(shù)的過程中無法保證數(shù)據(jù)安全和合規(guī),可能會給企業(yè)造成很大風(fēng)險。特別是中小企業(yè)對數(shù)據(jù)隱私安全方面的知識比較匱乏,不知道應(yīng)當(dāng)如何保護(hù)數(shù)據(jù)不會受到安全威脅。

數(shù)據(jù)安全合規(guī)并不是某個部門的事情,而是整個企業(yè)最為重要的事情。企業(yè)要對員工進(jìn)行培訓(xùn),讓他們意識到每個使用數(shù)據(jù)的人,都有義務(wù)保護(hù)數(shù)據(jù),包括IT人員、AI部門、數(shù)據(jù)工程師、開發(fā)人員、使用報表的人等,人和技術(shù)要結(jié)合在一起。

面對前述潛藏風(fēng)險,監(jiān)管方和相關(guān)企業(yè)如何從制度和技術(shù)層面加強(qiáng)AIGC領(lǐng)域的數(shù)據(jù)安全保護(hù)?

相較于直接針對用戶終端采取限制使用等監(jiān)管措施,明確要求AI技術(shù)研發(fā)企業(yè)遵循科技倫理原則會更具成效,因為這些企業(yè)能夠在技術(shù)層面限定用戶的使用范圍。

在制度層面,需要結(jié)合AIGC底層技術(shù)所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護(hù)制度。例如,可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權(quán)利屬性等方面對訓(xùn)練數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權(quán)利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進(jìn)行分級。在數(shù)據(jù)分類分級的基礎(chǔ)上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)與共享機(jī)制。

目光投向企業(yè),還需加快推動“隱私計算”技術(shù)在AIGC領(lǐng)域的應(yīng)用。

這類技術(shù)能夠讓多個數(shù)據(jù)擁有者在不暴露數(shù)據(jù)本身的前提下,通過共享SDK或者開放SDK權(quán)限的方式,在進(jìn)行數(shù)據(jù)的共享、互通、計算、建模,在確保AIGC能夠正常提供服務(wù)的同時,保證數(shù)據(jù)不泄露給其他參與方。

此外,全流程合規(guī)管理的重要性愈加凸顯。企業(yè)首先應(yīng)關(guān)注其所運用的數(shù)據(jù)資源是否符合法律法規(guī)要求,其次要確保算法和模型運作的全流程合規(guī),企業(yè)的創(chuàng)新研發(fā)還應(yīng)最大限度地滿足社會公眾的倫理期待。同時,企業(yè)應(yīng)制定內(nèi)部管理規(guī)范,設(shè)立相關(guān)的監(jiān)督部門,對AI技術(shù)應(yīng)用場景的各個環(huán)節(jié)進(jìn)行數(shù)據(jù)監(jiān)督,確保數(shù)據(jù)來源合法、處理合法、輸出合法,從而保障自身的合規(guī)性。

AI應(yīng)用的關(guān)鍵在于部署方式與成本間的考量,但必須注意的是,如果沒有做好安全合規(guī)、隱私保護(hù),對企業(yè)來說或?qū)⑻N含“更大風(fēng)險點”。

AI是把雙刃劍,用得好讓企業(yè)如虎添翼;用不好疏忽了安全、隱私和合規(guī),會給企業(yè)帶來更大損失。因此,在AI應(yīng)用前,需要構(gòu)筑更加穩(wěn)固的“數(shù)據(jù)底座”,正所謂,行穩(wěn)方能致遠(yuǎn)。

 相關(guān)閱讀

“火到爆炸”的ChatGPT,為何當(dāng)不了智能客服?

別怪ChatGPT,AI黑客攻擊早已開始

為何ChatGPT一出現(xiàn)讓巨頭們都坐不。

一文讀懂云工作負(fù)載安全平臺CWPP

拉響警報!2023年三大網(wǎng)絡(luò)安全威脅不容忽視

用戶信息泄露事件頻現(xiàn),數(shù)據(jù)安全建設(shè)該如何升級?

【科技云報道原創(chuàng)】

轉(zhuǎn)載請注明“科技云報道”并附本文鏈接

       原文標(biāo)題 : ChatGPT應(yīng)用爆火,安全的大數(shù)據(jù)底座何處尋?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號