AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法
在社交媒體的應用場景中,人工智能算法模型的偏差導致搜索結果或用戶體驗不佳常常出現(xiàn),甚至可以說是無法規(guī)避,如人們熟知的大數(shù)據殺熟等?梢灶A見,當AI應用到醫(yī)療保健、自動駕駛汽車、刑事司法或刑事處理等場景中時,更多關乎生命、公平、道德等的問題將會出現(xiàn)。此前,亞馬遜用AI招聘出現(xiàn)了性別歧視問題就是有力的證明。
在世界每一個角落部署AI,這可能導致持續(xù)的系統(tǒng)性歧視,為此MIT計算機科學人工智能實驗室(CSAIL)研究人員創(chuàng)造了一種減少AI偏差,同時又不降低預測結果準確性的方法。
據麻省理工學院教授DavidSontag所言,傳統(tǒng)方法可能建議將與多數(shù)人群相關的數(shù)據集隨機化,作為解決不同人群不平等結果的一種方法,但這種方會權衡較低的預測準確性,以實現(xiàn)所有人群的公平性,關鍵是從代表性不足的群體中挖掘更多數(shù)據。例如,研究人員發(fā)現(xiàn),在一個案例中,AI模型將女性標記為低收入,男性標記為高收入,這是有失客觀性的,因此他們通過將數(shù)據集中女性的代表性提高10倍,達到了將不準確結果的數(shù)量減少了40%的效果。
Sontag在一份聲明中給出這一設計的簡單解釋:“我們認為這是一個工具箱,可幫助機器學習工程師弄清楚他們的數(shù)據要問什么問題,以便診斷他們的系統(tǒng)為什么會做出不公平的預測!
他進一步解釋說:“在這項工作中,我們認為預測的公平性應該在數(shù)據的背景下進行評估,并且樣本量不足或未測量的預測變量引起的不公平性應該通過數(shù)據收集來解決,而不是通過約束模型來解決!
誠然,預測準確性的差異往往歸因于數(shù)據缺乏或不可測量的變量因素,因此該研究團隊建議在進行公平標準評論之前,對模型偏差,模型方差和結果噪聲進行AI模型分析。
對于這一研究的成本,Sontag表示,“這揭示并分離了數(shù)據收集不足和模型選擇對公平性的不利影響。為了追求公平,其成本也要納入到數(shù)據收集和模型開發(fā)的投資。但在某些十分重要的應用程序中,其好處往往超過成本!
在Sontag與其博士團隊一起撰寫的論文中,有這一方法的詳細解釋。據悉,該成果將于下個月在蒙特利爾的神經信息處理系統(tǒng)(NIPS)上公布。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-10.29立即報名>> 2024德州儀器嵌入式技術創(chuàng)新發(fā)展研討會
-
10月31日立即下載>> 【限時免費下載】TE暖通空調系統(tǒng)高效可靠的組件解決方案
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月14日立即報名>> 2024工程師系列—工業(yè)電子技術在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網產業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市