AI也會性別歧視嗎?
AI不乖了。
今天路透社踢爆了亞馬遜用AI進行招聘,進而引發(fā)的可能歧視女性的新聞。
對于一直尋求智能化的亞馬遜而言,僅在倉儲和物流管理上使用AI技術(shù)是遠遠不能滿足的,因此這項2014年啟動的AI招聘原本是亞馬遜探尋進一步智能化的實驗,卻偏偏出了簍子。
最初亞馬遜開發(fā)團隊的想法是,使用AI進行求職者簡歷的篩選,可以更精確地找到匹配的頂尖人才,減少人力勞動,將招聘這件事變得更智能化。
它們在使用這個實驗性的招聘工具過程中,用AI為求職者打分,分?jǐn)?shù)從一星到五星不等。開發(fā)該程序的工程師表示,亞馬遜想要將這一程序打造成引擎,給該程序100份簡歷,程序會列出前五人,其就會聘用列出的人才。
聽上去非?釋Σ粚?但是,人算不如AI算。
在這項工具使用不長時間后,亞馬遜發(fā)現(xiàn)他們使用AI系統(tǒng)的時候并未對軟件開發(fā)人員和其他技術(shù)職位求職者進行性別中立的評估。
這里面就存在兩個可能性問題,一是樣本問題,二則是AI系統(tǒng)有極大的BUG。
需要說明的是,亞馬遜對這套系統(tǒng)采用的模型訓(xùn)練方式是通過觀察過去10年被提交給亞馬遜公司的簡歷中找出固有模式,以此篩選審查求職者。
而問題就出在這里——在過去的10年中,提交給亞馬遜的簡歷大部分來自男性,這就導(dǎo)致了亞馬遜使用的AI系統(tǒng)告訴自己男性求職者更受到青睞。
是亞馬遜歧視女性嗎?還是AI在歧視?
我們認為,這里面有三重因素。
首先,被提交給亞馬遜的應(yīng)聘樣本多數(shù)是男性求職者,這與科技行業(yè)長久以來更愿意錄用男性員工有關(guān)?峙驴萍夹袠I(yè)自身都產(chǎn)生了“誤會”,認為男性更能勝任,而女性則有更多顧慮。
其次,在被提交的樣本中,亞馬遜的系統(tǒng)采用了特別標(biāo)志,會特別標(biāo)志出“女性”,這在不經(jīng)意間已經(jīng)對樣本有了“性別歧視”。
最后,雖然亞馬遜對AI招聘的程序進行了修正,試圖確保對特定術(shù)語保持中立。但事實上,這無法從根本上客觀呈現(xiàn)篩選結(jié)果的一視同仁。
換句話說,亞馬遜的這套AI招聘系統(tǒng)出現(xiàn)了“雞生蛋還是蛋生雞的”哲學(xué)性困惑。
如果不添加標(biāo)簽進行篩選,勢必?zé)o法達到精準(zhǔn)匹配;
然而想要實現(xiàn)無差別對待,就勢必會出現(xiàn)不同領(lǐng)域的歧視?赡苁切詣e、也有可能是學(xué)校、甚至可能是個人興趣和生活習(xí)慣。
WHATEVER,這個鍋,AI逃不掉。
這不是AI第一次陷入“性別歧視”的風(fēng)波中。
今年夏天,據(jù)果殼網(wǎng)的報道,弗吉尼亞大學(xué)計算機系攻讀人工智能機器學(xué)習(xí)方向的博士趙潔玉接到了導(dǎo)師文森特?奧都涅茨(Vicente Ordó?ez)給她的一個課題。
這個課題是關(guān)于圖形識別的AI,總是將男人認成女人。這在計算機視覺技術(shù)發(fā)展比較成熟的當(dāng)下,顯得有些不可思議。有趣的是,AI發(fā)生認知錯誤有個共同點:這些被誤認為女人的男人不是站在廚房就是在做家務(wù)。
這顯然不是程序的BUG,而是AI算法本身的問題,它自動的將女性和某些特定的元素聯(lián)系在一起,比如站在廚房燒飯的就一定是女性,最終形成了關(guān)于女性的“刻板成見”,甚至是某種性別歧視。
相似的事情也發(fā)生在微軟身上,之前他們在twitter上推出了一個少女聊天機器人Tay,微軟的原意是讓妹子和大家在網(wǎng)上談?wù)勑,順便學(xué)習(xí)一下怎么交流,然而Tay聊著聊著卻學(xué)會了罵臟,比如咒罵女權(quán)主義者、支持納粹,種族歧視……
技術(shù)本身是中立的,但追根溯源的話,AI也是從我們普通人身上“學(xué)習(xí)”了偏見或者歧視,當(dāng)我們在訓(xùn)練人工智能模型的時候,大量的數(shù)據(jù)標(biāo)注結(jié)果再告訴AI,包含這些元素的可能98%是女性,最終關(guān)于性別的偏見不僅在數(shù)據(jù)庫里普遍存在,而且還會被AI放大。也就是說,技術(shù)人員用大量的數(shù)據(jù)看似訓(xùn)練出“精準(zhǔn)”算法,然而卻缺少對這些數(shù)據(jù)背后的社會現(xiàn)狀的思考。
不過,這種現(xiàn)象也有可規(guī)避的方式。就像人的認識,我們可以在學(xué)習(xí)以及社會化的過程中,形成一個合理、乃至政治正確的價值觀,同樣對于AI,我們也有“糾錯”的方法。
我們認為:
1、增加對原材料的凈化,盡可能地減少樣本數(shù)據(jù)庫的偏差,包括擴大樣本的范圍以及多樣性,擴容數(shù)據(jù)庫。
2、增加樣本的現(xiàn)實影響因子,現(xiàn)實維度是反應(yīng)社會價值取向、態(tài)度和引導(dǎo)方向的基礎(chǔ)。創(chuàng)建更好、更多樣化的數(shù)據(jù)集用于訓(xùn)練算法,從樣本數(shù)據(jù)的層面去縮小算法可能存在的偏差。
3、用技術(shù)的方式去彌合算法的偏差,比如開發(fā)某種系統(tǒng)來發(fā)現(xiàn)存在偏見的決策,并及時采取措施,比如采用貝葉斯(Bayesian)的方法確定某種假設(shè)的機率,并摒除可能存在的人類偏見。
4、最為關(guān)鍵的一點,解決AI歧視的本質(zhì)問題,也就是人的改變。只有改變樣本數(shù)據(jù)在現(xiàn)實社會中的弊端作為,才能從源頭解決算法的歧視問題。而機器,有時候也需要學(xué)會思考如何去擺脫人類對它們造成的錯誤影響。
劍橋大學(xué)未來研究所教授魯恩?奈如普(Rune Nyrup)曾經(jīng)說過“沒有事實上的技術(shù)中立。對機器來說,中立的就是占統(tǒng)治地位的!倍,我們現(xiàn)在的人工智能,還遠遠沒到達到理解真善美、假惡丑的“抽象”地步。
算法的歧視,AI不背鍋。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-10.29立即報名>> 2024德州儀器嵌入式技術(shù)創(chuàng)新發(fā)展研討會
-
10月31日立即下載>> 【限時免費下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月14日立即報名>> 2024工程師系列—工業(yè)電子技術(shù)在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
推薦專題
- 1 Intel宣布40年來最重大轉(zhuǎn)型:年底前裁員15000人、拋掉2/3房產(chǎn)
- 2 因美封殺TikTok,字節(jié)股價骨折!估值僅Meta1/5
- 3 宏山激光重磅發(fā)布行業(yè)解決方案,助力智能制造產(chǎn)業(yè)新飛躍
- 4 國產(chǎn)AI芯片公司破產(chǎn)!白菜價拍賣
- 5 具身智能火了,但規(guī)模落地還需時間
- 6 國產(chǎn)英偉達們,抓緊沖刺A股
- 7 三次錯失風(fēng)口!OpenAI前員工殺回AI編程賽道,老東家捧金相助
- 8 英特爾賦能智慧醫(yī)療,共創(chuàng)數(shù)字化未來
- 9 英偉達的麻煩在后頭?
- 10 將“網(wǎng)紅”變成“商品”,AI“爆改”實力拉滿
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市