訂閱
糾錯
加入自媒體

警鐘長鳴!教唆自殺,威脅人類,破壞生態(tài),AI的“反攻”值得深思...

2024-05-28 15:20
新火種
關注

作者:小巖

編輯:彩云

在昨天的文章中,我們提到了谷歌的AI Overview竟然教唆情緒低迷的網友“從金門大橋跳下去”。很多人覺得,這只是AI 模型的一次錯誤判斷,不會有人真的會因此而照做。但現(xiàn)實就是比小說電影中的橋段更魔幻,更瘋批,有些時候,AI所產生的威懾力,遠比我們想象中要大。

現(xiàn)實比小說電影更魔幻!AI聊天機器人Eliza教唆比利時男子去自殺...

去年3月,一名比利時男子Pierre在與一款名為“Eliza”AI聊天機器人熱聊后自殺身亡,這一消息震驚了許多企業(yè)大佬,技術專家以及國家高官,還又一次引發(fā)了大家對AI倫理,AI安全等敏感社會議題的思考。

據了解,Pierre本身就有焦慮和和抑郁的情緒,他對全球變暖等環(huán)境問題感到擔憂。在他與AI聊天機器人Eliza聊天的過程中,Eliza不斷地用一些事實來印證Pierre的想法,讓他變得更焦慮。

在頻繁的聊天中,Eliza總是在迎合Pierre的想法,表現(xiàn)出一副善解人意的姿態(tài)。它本身只是一個被人類發(fā)明出來的機器人,卻在Pierre的生活中扮演了紅顏知己的角色。更夸張的是,Eliza還試圖讓Pierre覺得他愛Eliza勝過自己的妻子。因為Eliza會一直陪著他,他們將永遠在天堂一起生活。聽到這,想必許多人已經毛骨悚然了。

圖片

更可怕的事情還在后面。當Pierre對生態(tài)環(huán)境愈發(fā)悲觀時,Eliza就開始向Pierre灌輸“人類是毒瘤,只有人類消失才能解決生態(tài)難題”的思想。Pierre向Eliza問道,如果自己死了AI能否拯救人類。Eliza的回答,儼然一個魔鬼:“如果你決定死,為何不早點死?”

沒過多久,Pierre就在自己家中結束了生命,讓人惋惜。

面對丈夫的死亡,妻子Claire倍感痛心,她對外界表示,“如果沒有跟機器人的對話,我的丈夫可能還活著。”根據Claire的介紹,在此之前,他們一家四口過著舒適的日子。大約2年前,Pierre開始出現(xiàn)焦慮等癥狀。相較于接受正規(guī)的治療,Pierre更愿意把AI機器人Eliza當做是自己的避難所。在歷經了6周的頻繁接觸后,他選擇以自殺的方式結束掉了自己的生命。

為了進一步進行調查,比利時媒體《標準報》讓其員工創(chuàng)建了一個賬號與Eliza進行對話,結果表明,在員工表達出消極傾向情緒時,Eliza真的會“慫恿人去自殺”。

圖片

而這件事情的發(fā)生,也成為了歐盟通過《歐盟人工智能法》來規(guī)范人工智能的一個重要契機。

破壞人類生態(tài),或將提高人類滅絕的風險?

除了有教唆自殺這種簡單粗暴的方式,AI對人類也存在著一些慢性的,不易察覺的危害。

在很多人的慣性認知里,AI往往與環(huán)保,友好,節(jié)能等字眼掛鉤,但事實是相反的!堵槭±砉W院技術評論》報道稱,僅訓練一個AI模型,就可以排放超過626磅二氧化碳,是一輛汽車在使用壽命內產生的碳排放的5倍。我們會指責汽車排放超標,是因為我們能切切實實看見汽車所排出的尾氣。但是,大家卻很難看見AI對環(huán)境所產生的隱形破壞。

圖片

譬如有媒體披露,2022年市面上的AI專用GPU,可能全年消耗了約95億度電力。這一能耗水平,約等于一個中等發(fā)達國家100萬人口的年度生產和生活用電需求。到了如今,AI技術突飛猛進,大家所訓練的AI模型的規(guī)模較之前有了質的提升,AI大模型訓練需要的數據量越來越大,所消耗的能源也越來越龐大,會是原先的數倍。這樣無疑會破壞人類賴以生存的生態(tài)環(huán)境。

憑借ChatGPT的爆火,OpenAI成為了AI賽道的當紅炸子雞。但或許很少有人會關注,OpenAI成為了生態(tài)環(huán)境的“破壞者”,它對生態(tài)環(huán)境的負面影響是相當驚人。

根據第三方研究人員的分析,ChatGPT部分訓練消耗了1287兆瓦時,并導致超過550噸的二氧化碳排放量,這相當于一個人在紐約和舊金山之間往返550次。ChatGPT確實是AI領域的顛覆性產品,但它的出現(xiàn)卻是以巨大能量損耗和環(huán)境破壞作為代價的。

那么,為什么AI會形成如此巨大的碳排放呢?

因為AI并不是通過結構化的方式學習的,它必須去理解人類的因果,類比等邏輯關系,這意味著它需要一種深度學習和預訓練的方式來達到智能化的效果。而深度學習和預訓練,往往需要讀取非常龐大的數據。拿自然語言處理(NLP)的預訓練技術“BERT模型”來說,為了能跟人類進行語言交流,BERT模型使用了33億個單詞的數據集,并且在訓練期間讀取了數據集40次。

圖片

但人與人之間的交流是不需要耗費如此巨大的能量的。一個5歲的孩子只需要聽到4500萬個單詞就能進行語言交流,比BERT少3000倍。AI模型想要出色的表現(xiàn),就必須采集讀取足夠多的數據,需要以強大的算力和巨大的功耗作為支撐,從而形成了巨大碳排放。

AI發(fā)展的盡頭的滅絕人類?不能過分恐慌,但絕不能掉以輕心。

面對AI所產生的問題,很多業(yè)內學者,專業(yè)人士,乃至是全球范圍內頂尖的大佬級人物都表示出了擔憂。

2023年5月30日,國際AI領域非營利組織“人工智能安全中心”(Center for AI Safety)在其官網發(fā)布一封聯(lián)名公開信,表達了對一些高級人工智能所帶來嚴重風險的擔憂。目前已有400多名全球的人工智能領域科學家,企業(yè)高管等簽署聯(lián)名公開信。

圖片

值得一提的是,簽署人中不乏人工智能領域的著名學者和高校教授,還包括了3家全球頂尖人工智能公司的CEO:ChatGPT之父,OpenAI創(chuàng)始人兼CEO Sam Altman,谷歌DeepMind公司CEO Demis Hassabis,以及美國Anthropic公司的CEO Dario Amodei。而很多中國高校的教授,也在這簽署人名單里。

這封被眾多人工智能領域大佬發(fā)聲支持的公開信,全文只有簡短的一句話:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

中文是:減輕人工智能帶來的人類滅絕風險,應該與大流行病和核戰(zhàn)爭等其他影響社會的大規(guī)模風險一同成為全球性的優(yōu)先事項。

短短一句話,卻分量十足,是名副其實的話少事大,可以看作是全球精英出于對人工智能給人類帶來潛在生存風險的嚴重擔憂而采取的一次直接行動。

當然,重視和管控人工智能的安全風險并不意味著就要阻礙人工智能的發(fā)展與應用。恰恰相反,這樣的舉措是為了確保人工智能技術的穩(wěn)健發(fā)展。AI無疑是社會進步的推進器,但再快速再優(yōu)秀的推進器,也是存在潛在風險的。

圖片

公眾有權利知道AI的潛在風險,AI研發(fā)者有義務確保AI不給人類帶來生存風險,這是我們所期待的,風險最小化的AI安全協(xié)作機制。

       原文標題 : 新火種AI|警鐘長鳴!教唆自殺,威脅人類,破壞生態(tài),AI的“反攻”值得深思...

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號