訂閱
糾錯
加入自媒體

偏見:人工智能輔助決策的隱患

2018-12-28 11:11
EAWorld
關注

“有人的地方,就有偏見,數據亦然!

在《Futurama》這部漫畫里,機器人法官風趣而勇敢,但是現實中,COMPAS算法卻很難讓人笑得出來。

譯注:

COMPAS全稱是Correctional Offender Management Profiling for Alternative Sanctions,以“替代性制裁為目標的懲教犯管理畫像”。簡單理解,就是對嫌疑人進行人工智能畫像,以量刑或者判斷是否假釋。類似于2002年上映的電影《少數派報告》,將犯罪的萌芽消滅于襁褓之中。但此處提出COMPAS是因為這一算法因數據集或者其他問題,會產生對有色人種或特殊族裔的偏見。

和我們看過的大多數科幻電影不同,人工智能給現代生活帶來的革命是潤物無聲的;擁有自主意識的機器人統治人類的場景還沒有出現,但人工智已經滲透到我們的生活之中,穩(wěn)步地侵入了以前人類獨有的決策領域。正因如此,你甚至可能沒有注意到你的生活中已經有太多方面受到算法的影響。

清晨醒來,你伸手拿起手機,翻翻微博或者抖音,此時,一個由算法創(chuàng)建的內容提要正在為你服務。然后你檢查了你的電子郵件,收件箱中只有重要的信息,因為所有可以忽略的內容都已經自動丟棄到垃圾郵件或促銷文件夾中。你戴上耳機,收聽網易云音樂上的一個新的播放列表,這是算法根據你以前所感興趣的音樂為你挑選的。繼續(xù)著上午的例行工作,你進入汽車,并使用百度地圖,看看今天路上堵不堵。

在半個小時的時間里,你所消費的內容、收聽的音樂以及你上班的路程都依賴于算法的預測建模,而不是你自己的大腦。

機器學習來了。人工智能來了。我們正處在信息革命的進程之中,在感嘆生逢其時的同時,必須警惕隨之而來的影響。讓機器告訴你通勤的時間、你應該聽的音樂以及你可能感興趣的內容,這些都是相對無害的例子。但是當你瀏覽你的微博新聞時,某個地方的一個算法正在決定某人的醫(yī)療診斷、假釋資格或者職業(yè)前景。

從表面上看,機器學習算法看起來是一種很有前景的解決方案,可以消弭人類的偏見,這一人性的弱點可能對數百萬人的生活產生負面影響。人們的初衷是,人工智能中的算法能夠在公平和高效等方面超越人類既有的水平。世界各地的公司、政府、組織和個人都在使用機器決策,支持這樣做的理由有很多:更可靠、更容易、更便宜、更節(jié)省時間等。然而,仍有一些問題需要注意。

偏見的一般定義

圖片來源:Getty Images

偏見可以被定義為在被認為不公平的情況下比其他人更受青睞的某些事物、人或群體。它通常是對某些理性決定或規(guī)范的偏離,可以從統計學、法律、道德的或實用主義的角度來理解。我們在日常生活中以及在人類社會尺度上都可以看到偏見的影子。通常情況下,偏見之間會相互強化。

例如,在回家的路上,你可能會選擇走一條不那么“陰暗”的街區(qū),為何會這樣?也許是因為這個地區(qū)是那些社會經濟地位較低的人的家園。雖然不是說這類人群一定更有可能參與犯罪活動,但你的偏見,無論是顯性的還是隱性的,都促使你選擇一條不同的路線。從更宏觀的視角看,警方也可能由于偏見從而加強對這些地區(qū)的巡邏,而這反過來又可能導致比富裕的社區(qū)更高的逮捕率,從而產生一種高犯罪率的假象,而無關那里實際發(fā)生的犯罪率有多大。這種惡性循環(huán)似乎只會加劇我們最初的偏見。

算法與機器學習

讓我們首先區(qū)分經典算法和機器學習算法。經典算法通常被描述為輸入輸出處理器。傳統的編程依賴于植根于邏輯的函數:如果x,那么y。經典算法是基于規(guī)則的,顯式的,生硬的。機器學習比這更復雜。機器學習算法不是通過預先設定的數據必須滿足的條件來做出決策,而是通過對決策領域中數百或數千個數據集的審計和統計分析來做出決定的。

例如,當招聘學習算法尋找理想的求職者時,培訓數據集可能會提供在企業(yè)中表現最好的候選人的200份簡歷,然后,算法在這些數據中尋找模式和相關性,這樣在評估一份新的簡歷的持有者能否成為理想的候選人的時候,算法的預測能力能夠更強。將決策交給機器學習算法對人類有許多好處,包括節(jié)省時間、金錢和精力。然而,當涉及到道德和責任的決定,界限就會變得模糊。因為我們無法確切地理解為什么一臺機器會做出這樣的決定(基于人工智能算法中的黑盒特性),所以當偏見發(fā)生時,我們并不總是能夠發(fā)現和回避。

機器學習的偏見

Mathwashing (盲目相信算法)

Mathwashing 是一個被創(chuàng)造出來的術語,用來代表社會對數學和算法的癡迷,以及一種心理傾向,即如果有數學或相關語義的參與(即使這些數值很武斷),就更容易相信某事物的真相。人類有一種傾向,認為數學的參與會自動使事物客觀化,因為數學對象似乎獨立于人類的思想。而數學這一存在本身就是基于人類的思想,數學這一體系及相關屬性,作為人類思維的產物而存在,這使得數學與其他衡量方法一樣容易受到人的主觀性的影響。

訓練數據“分類中的公平性”

機器學習算法是基于程序員選擇的數據集來訓練的。有了這些訓練數據,他們就能識別和利用統計數據中的模式、關聯和相關性。例如,通過數千張不同貓和狗的圖片,可以訓練出區(qū)分貓和狗的算法。這種分類任務相對簡單;將算法應用于基于人類的法庭判決比這錯綜復雜得多。例如,就刑事司法系統中的人工智能而言,協助法官作出是否給予罪犯假釋的決定,工程師可以將過去人類針對數千例案件所作出的判決輸入系統,但人工智能僅能就此了解到判決的結論。機器沒有能力感知到人類在做出這些判決時,是受何其多的變量的影響,而理性并不總是占據決策的主導地位。計算機科學家稱之為“選擇性標簽”。人類的偏見是在多年的社會融合、文化積累、媒體影響中學到的。算法中學習偏見的滲透過程與此類似:就像人類在誕生之初并無偏見,算法本身也是不存在偏見的,但是,如果給定了一個有缺陷的數據集,偏見將不可避免。

社會反思

人類教會了算法根據輸入信息和從信息中提取的模式來進行預測。鑒于人類存在著各種各樣的偏見,一個表征環(huán)境的數據集也同樣會表征這些偏見。從這個意義上說,算法就像鏡子:其學習模式反映了我們社會中存在的偏見,無論是顯性的還是隱性的。

微軟在2016年設計的人工智能聊天機器人,Tay

以Tay為例,它是微軟研發(fā)的聊天機器人。Tay的設計初衷是為了模擬一個十幾歲的女孩與Twitter用戶的互動內容,然而,在不到24小時的時間里,網友就見證(其實是推動,譯者注)了Tay的轉變,從表達“人類是超酷的”這樣的天真無邪的小女生到叫囂“希特勒是對的,我恨猶太人”這樣的狂熱分子,僅僅是憑借互聯網上的推特互動。微軟刪除了這些推文,并解釋說Tay在最初的測試階段采用的數據集主要是經過過濾的、非攻擊性的推文,因而并沒有出現任何問題。顯然,當Tay上線時,過濾過程不復存在。從好的方面講,這似乎表明了一種消除偏見的可能方法,即隨著算法的使用和與現實世界的接觸,應該對輸入的數據進行監(jiān)測和過濾。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號