訂閱
糾錯
加入自媒體

人工智能發(fā)展迅猛,道德風險亦須留心

2019-10-30 16:32
AiChinaTech
關注

近年來,隨著人工智能技術在各行各業(yè)中得到廣泛應用,AI對人類社會的影響可謂是滲透到了方方面面。在這種背景下,國內(nèi)也誕生了眾多AI科技公司,比如專注于AI+視頻的極鏈科技、又比如說近日推出了城市級全棧式AI解決方案,還介紹了集全局管理能力為一體的城市物聯(lián)網(wǎng)操作系統(tǒng)的曠視科技等等。可以說,人工智能技術正在這顆星球上如火如荼的進行展開。

 人工智能發(fā)展迅猛,道德風險亦須留心

但與此同時,人工智能的推進其實也產(chǎn)生了不少問題。例如最近較為火爆的換臉技術產(chǎn)生的數(shù)據(jù)安全問題、大數(shù)據(jù)產(chǎn)生的“殺熟”問題、自動駕駛的安全責任問題、人臉識別產(chǎn)生的隱私問題等。路易斯維爾大學網(wǎng)絡安全實驗室的羅曼教授發(fā)表的《人工智能和網(wǎng)絡安全:人工智能的失敗》便列舉過十項重大的人工智能失敗案例。比如說特斯拉自動駕駛汽車造成人員傷亡、機器人傷人事件、保險公司利用臉書數(shù)據(jù)預測事故發(fā)生率涉嫌存在偏見等等。這些失敗案例可以歸結(jié)為人工智能系統(tǒng)在學習階段的錯誤,也可以歸結(jié)為人工智能技術的不確定性所帶來的道德風險。

人工智能產(chǎn)品除了符合自然規(guī)律這個物理性之外,還具有意向性,即人工智能產(chǎn)品也會體現(xiàn)人類的意志和愿望。隨著技術的發(fā)展,技術改變社會的作用增強,技術的發(fā)展可能會遠離人類的最初目的和控制。因此,正確而全面的認識人工智能的潛在道德風險,并對其進行規(guī)避顯得十分必要。

一、人工智能發(fā)展引發(fā)智能機器的道德主體地位的思考

人工智能離不開算法,而算法是由人類輸入的數(shù)據(jù),出了問題究竟由誰來負責呢?機器以及算法是否具備成為主題的資格和條件呢?人工智能是否具有道德主體地位呢?這些問題涉及對于道德主體地位的溯源,還涉及人類的道德推理能力是先天賦予還是后天學習的討論。根據(jù)人工智能的現(xiàn)有發(fā)展速度和規(guī)模,人工智能或許在未來能夠發(fā)展出具有自我意識的智能產(chǎn)品,這些人類制造出來的智能機器是否也該被賦予與人類同等的權(quán)利和地位呢?上述問題都涉及對人工智能產(chǎn)品的主體地位的思考,是我們所必須考慮的。

二、人工智能發(fā)展引發(fā)新理論問題

人工智能正在以更快的發(fā)展速度和水平融入人類社會的方方面面,甚至可以說半個多世紀的人工智能發(fā)展遠遠超過了過去幾百年的科技發(fā)展水平。而人工智能一旦獲得同人類相近的思維能力和推理能力,如何界定人工智能與人類的道德地位將面臨道德倫理挑戰(zhàn):人工智能的高效率和低失誤率在司法領域的使用,會給傳統(tǒng)司法審判帶來巨大的法律倫理挑戰(zhàn);人工智能手術機器人將給醫(yī)療衛(wèi)生領域帶來醫(yī)療倫理挑戰(zhàn)。面對如此多的倫理挑戰(zhàn),我們將如何發(fā)展或者改進現(xiàn)有的倫理理論體系,使之更好地適應人工智能的發(fā)展。既要人工智能更好地服務于人類,又要限制其負面效應,這是人工智能發(fā)展面臨的巨大挑戰(zhàn)。

三、人工智能引發(fā)新的社會安全和公平正義問題

人工智能的發(fā)展帶來信息安全風險。人工智能產(chǎn)品在很多領域已經(jīng)與人類形成了服務和被服務的關系,如手機語音助手、機動車的軌道偏離糾正等。當這些人工智能產(chǎn)品和人類進行交互時,如何保證使用者的信息安全,或者說使用者的信息一旦被上傳到遠程終端之后,又將如何保證信息安全,這是一個問題。而且人工智能機器人工作效率高、出錯率低、維護成本好、能保證工作的連續(xù)性,其在各領域的運用可能會造成對人類就業(yè)的沖擊。許多人的工作安全和穩(wěn)定會直接收到人工智能發(fā)展的影響,特別是那些不需要專業(yè)技術與專業(yè)能力的工作。這將導致勞動者失業(yè)率和未就業(yè)人口總量的提高,這些都不利于社會的穩(wěn)定和安全。

 人工智能發(fā)展迅猛,道德風險亦須留心

目前社會已經(jīng)逐步認識到了問題的嚴重性,也嘗試提出了解決方案:

首先,人工智能的道德風險是預置的,是人類在涉及人工智能之初就預先設置好的。人工智能涉及具有意向性,嵌入了人類的目的,也即道德。在具體的人工智能產(chǎn)品設計上就應該進行道德風險評估,對人工智能可能引起的道德風險有個準確的把握,這樣才能防范人工智能可能帶來的道德風險。

其次,人工智能需要以不傷害人類為前提。人工智能的設計不應僅僅局限于某一種狀態(tài),從設計者的設計理念到人工智能產(chǎn)品都應該規(guī)范與約束,才能保障人工智能發(fā)展不損害人類利益,不傷害人類。

 人工智能發(fā)展迅猛,道德風險亦須留心

最后,正義是一個社會健康發(fā)展的重要基石,是人類社會發(fā)展的價值追求。人工智能在設計、開發(fā)之初就應該關注社會的公平和正義。人工智能的設計不應擴大主體間權(quán)利與地位的差距,導致實質(zhì)上的不公平。例如,無人機的技術需要大量的成本,并非所有人都能享受該項技術成果,這就會導致一些落后國家和地區(qū)的公平性喪失;使用無人機送快遞會造成現(xiàn)有快遞人員的失業(yè),導致技術結(jié)果的不公平。簡而言之,人工智能的設計中要確保其設計目的是為了人類的整體利益而非個人。

綜上所述,人工智能技術使技術安全性及隱私保護等各方面的問題變得更加重要且緊迫,因此需要內(nèi)化技術設計、決策主體的責任意識;并且完善技術設計制度,并促成各類技術主體之間的合作。只有這樣,才能有效地規(guī)避人工智能道德風險,更好地促進人工智能的健康發(fā)展。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號