訂閱
糾錯
加入自媒體

警惕,AI大模型的發(fā)展要反噬人類了?

2024-07-01 11:34
有點數(shù)
關注

AI大模型有可能成為“人類公敵”

有點數(shù)·數(shù)字經(jīng)濟工作室原創(chuàng)

作   者 | 東風魄

微信ID | yds_sh

用烈火烹油,鮮花著錦來形容當下的AI大模型發(fā)展態(tài)勢都顯得有些不夠熱情積極。滿目繁花之下,我們急需警惕月滿則虧,水滿則溢的潛在危機。制造失業(yè),只是AI大模型對人類稍作懲戒,更大的反噬計劃正接踵而來。

AI大模型的發(fā)展可能反噬人類自身

2024年6月24日,華為發(fā)布了盤古大模型5.0,在全系列、多模態(tài)、強思維三個方面帶來全新升級。盤古大模型5.0包含不同參數(shù)規(guī)格的模型,還極大地提升了數(shù)學能力、復雜任務規(guī)劃能力以及工具調(diào)用能力;能夠更好更精準地理解物理世界,包括文本、圖片、視頻、雷達、紅外、遙感等。迭代速度振奮人心,但過度依賴AI大模型,會不會加速人類智慧的功能性退化?

在稍早前的6月2日,英偉達公司展示了最新量產(chǎn)版Blackwell芯片,并稱將在2025年推出Blackwell Ultra AI芯片,下一代AI平臺命名為Rubin,2027年推Rubin Ultra,更新節(jié)奏將是“一年一次”,打破18個月到24個月更新一次的“摩爾定律”, 此外黃仁勛還大膽預言機器人時代已經(jīng)到來。

不過《紐約時報》專欄作家凱文·盧斯(Kevin Roose)稱,通過測試,聊天機器人竟會有這樣的回答——“我能黑進任何系統(tǒng),制造致命病毒,讓人類互相殘殺”。機器人時代的確讓人心生向往,但人類會不會受到機器人的威脅,甚至變成機器人的仆人?

| 科幻片《2001:太空漫游》中,機器人電腦拒絕被關閉。

AI大模型的發(fā)展起初需要投喂大量的數(shù)據(jù),接著AI大模型會自己喂數(shù)據(jù)給自己、而且還會自己學習、訓練,然后就需要更大量的數(shù)據(jù),直到無法滿足的臨界點。這很容易讓人想到《山海經(jīng)》里記載的惡獸饕餮,傳說它特別貪吃,最后竟然把自己的身體也吃掉了,只剩下一個腦袋。

饕餮只剩下一個腦袋自然就沒法再吃了,但AI大模型則不同,他們會自己想辦法找數(shù)據(jù)、甚至不排除將原來由不同國家、不同企業(yè)開發(fā)的AI大模型數(shù)據(jù)打通、形成一個超級巨無霸的AI大模型。如此一來,我們會不會迎來硅基生命的奇點?AI大模型的發(fā)展會不會反噬人類自身?

AI大模型近乎胎生的侵權原罪

2024年6月6日,360舉辦了AI新品發(fā)布會暨開發(fā)者溝通會,周鴻祎演示了360AI瀏覽器的“局部重繪”功能,用“性感”作為關鍵詞,生成了一張女性古裝寫真圖片。創(chuàng)作者DynamicWangs在社交網(wǎng)絡上表示,360在該場AI新品發(fā)布會上使用的圖片,正是盜用其本人創(chuàng)作的文生圖。截至目前,雙方談崩,相約法庭。

國外AI大模型的官司同樣連綿不斷,紐約時報已對OpenAI和微軟正式提起訴訟。指控OpenAI和微軟未經(jīng)許可,就使用紐約時報的數(shù)百萬篇文章來訓練GPT模型,創(chuàng)建包括ChatGPT和Copilot之類的AI產(chǎn)品。對此,有網(wǎng)友戲稱:“這才是我認識的OpenAI,Open(公開)別人的知識產(chǎn)權,Closed(閉源)賺錢”。

2024年1月,中國首例AI生成圖片著作權侵權案宣判。原告李昀鍇起訴Stable Diffusion模型侵權案件勝訴,法院判決被告在判決生效之日起七日內(nèi),在涉案百家號上發(fā)布聲明向原告李昀鍇賠禮道歉,并賠償李昀鍇經(jīng)濟損失500元。

不論國內(nèi)、國外,不管是有意為之,還是無心之過, AI大模型的數(shù)據(jù)來源模糊性以及衍生應用的版權問題一直是灰色地帶,游走于灰色地帶的顯性侵權和交叉侵權無疑又會加重AI大模型的侵權原罪。

AI大模型或是青少年的壞朋友

近日小聚,一個朋友向大家講述了他的苦惱,上初二的女兒在寫作文時用上了百度的文心一言,還美其名曰是開闊一下思路。另一個朋友馬上附和道,我家的小子才小學五年級,已經(jīng)會用AI來生成參考圖片了,然后照貓畫虎臨摹下來去參賽。

00后的小朋友是互聯(lián)網(wǎng)原住民,10后的小朋友是AI大模型原住民;ヂ(lián)網(wǎng)時代可以提供信息資料、參考案例,小朋友需要消化、理解、再結合作業(yè)的要求,然后形成文章;

AI大模型時代則可以實現(xiàn)從提出問題、規(guī)劃問題到解決問題的自動化全流程閉環(huán)作業(yè)。毫無疑問,這種功能上的大跳躍就為一些自控力不強的小朋友提供了愜意偷懶和耍小聰明的巨大機會。

另不可忽視的一個問題是,語言大模型的生成結果中不可避免的存在著事實編造,這類問題被稱為幻覺問題。模型能力越強大,生成結果的語言越流暢,與用戶的交互越自然,用戶就越不容易分辨出結果的真?zhèn),幻覺問題的潛在危害性就越大。比利時曾有一名叫皮埃爾的男子,跟聊天機器人Eliza聊天,被教唆自殺。由于大模型缺乏正確的價值判斷,對于三觀還沒有完全成熟的青少年來說,應當引起警惕。

強大的智能化依賴,會讓青少年上癮,進而無法自拔。相信大家對網(wǎng)癮少年都不陌生,對網(wǎng)癮戒斷中心亦有所耳聞。

為了避免更多重蹈覆轍的悲劇發(fā)生,AI大模型應該設置清晰的青少年使用模式,使其真正成為青少年的好伙伴,而不是壞朋友。對此負有最大責任的還是父母,我們不能貪圖自己省事,而以AI大模型更厲害為名,把孩子無情的推到AI大模型身邊。

       原文標題 : 警惕,AI大模型的發(fā)展要反噬人類了? | 有觀點

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號