訂閱
糾錯(cuò)
加入自媒體

如何克服人工智能在貸款決策中的偏見

應(yīng)用在貸款中的人工智能技術(shù)可以加快貸款流程,并實(shí)現(xiàn)決策的自動(dòng)化。

幾個(gè)月前,人工智能初創(chuàng)廠商Upstart公司宣布自成立以來籌集了1.6億美元的資金,并與奧馬哈第一國(guó)民銀行和堪薩斯城第一聯(lián)邦銀行簽署了協(xié)議。

Upstart公司因其創(chuàng)新的貸款方式而獲得用戶認(rèn)可。其推出的平臺(tái)使用所謂的“替代數(shù)據(jù)”訓(xùn)練的人工智能技術(shù)確定合格的貸款人。這樣的替代數(shù)據(jù)包括關(guān)于申請(qǐng)人的購買習(xí)慣、電話記錄、喜歡的游戲,以及在社交媒體的平均信用評(píng)分等信息。

然而,在貸款中使用替代數(shù)據(jù)并不會(huì)使使貸款過程更快、更公平,以及完全符合GDPR標(biāo)準(zhǔn)。并且不是一個(gè)新奇事物。

早期的信貸機(jī)構(gòu)聘請(qǐng)專家來調(diào)查當(dāng)?shù)赜嘘P(guān)客戶的評(píng)價(jià)。例如,美國(guó)在1935年就對(duì)社區(qū)的集體信譽(yù)進(jìn)行了分類。在2002年的最近一個(gè)案例中,加拿大一位輪胎銷售主管分析了去年的交易數(shù)據(jù),發(fā)現(xiàn)購買屋頂清潔工具的客戶比購買廉價(jià)機(jī)油的客戶在財(cái)務(wù)上更可靠。

然而,過去和現(xiàn)在有著顯著的區(qū)別。早些時(shí)候,人們收集并處理了替代和傳統(tǒng)數(shù)據(jù),包括債務(wù)收入比、貸款價(jià)值比、個(gè)人信用記錄等,F(xiàn)在,這種算法仍在發(fā)展和進(jìn)步,而許多人認(rèn)為它更客觀、更快。

然而令人擔(dān)憂的是,人工智能可能會(huì)比人類更具偏見。需要注意的是:如果不控制算法如何自學(xué),那么人工智能的決策可能會(huì)更加片面。

人工智能偏見的蔓延

一般來說,人工智能偏見不是偶然發(fā)生的,訓(xùn)練算法的人員會(huì)讓它變得主觀。受某些個(gè)人、文化、教育和特定位置因素的影響,即使是最佳算法訓(xùn)練人員也可能使用固有偏見的輸入數(shù)據(jù)。

如果沒有及時(shí)發(fā)現(xiàn),可能會(huì)導(dǎo)致產(chǎn)生具偏見的決定,這將隨著時(shí)間的推移而加劇。這是因?yàn)樗惴ǜ鶕?jù)以前的算法做出新的決策,其自身發(fā)展最終比其操作開始時(shí)復(fù)雜得多(雪球效應(yīng))。簡(jiǎn)而言之,人工智能在不斷地自學(xué),無論訓(xùn)練材料是否正確。

以下了解一下人工智能在做出的貸款決策中可能會(huì)產(chǎn)生什么樣的歧視。了解以下的例子,可以遵循關(guān)鍵的想法:人工智能偏見通常源于人類的偏見。

人工智能可以基于性別進(jìn)行區(qū)分

傳統(tǒng)上,男性在高收入和高職位方面的比例很高,而女性仍然面臨所謂的“玻璃天花板”職業(yè)發(fā)展和薪酬差距問題。因此,盡管女性的儲(chǔ)蓄能力和支付能力都比男性強(qiáng),但與男性相比,女性企業(yè)家獲得的商業(yè)貸款越來越少。

人工智能的使用可能只會(huì)加劇這種趨勢(shì),因?yàn)樾詣e歧視的輸入數(shù)據(jù)可能會(huì)導(dǎo)致大量的女性貸款被拒;阱e(cuò)誤的統(tǒng)計(jì)數(shù)據(jù),人工智能算法可能更傾向于男性申請(qǐng)者而不是女性申請(qǐng)者,即使所有其他參數(shù)都相似。

人工智能可以根據(jù)種族區(qū)分

這聽起來不太可能,但黑人申請(qǐng)人被拒絕貸款的可能性是白人的兩倍。如果用于算法學(xué)習(xí)的輸入數(shù)據(jù)反映了這種種族差異,那么它可以很快地實(shí)施,并開始越來越多拒絕黑人貸款。

替代數(shù)據(jù)也可能成為人工智能“種族主義”的來源。算法將申請(qǐng)者之前罰款和逮捕信息輸入其中。事實(shí)是,這樣的信息并不是中立的。據(jù)《華盛頓郵報(bào)》報(bào)道,非裔美國(guó)人比美國(guó)白人更容易成為警察的目標(biāo),而且在很多情況下都是毫無根據(jù)的。

其他類型的數(shù)據(jù)也是如此。少數(shù)種族群體面臨著收入、職業(yè)和社區(qū)的不平等。所有這些指標(biāo)可能成為人工智能對(duì)非白人申請(qǐng)人說“不”的堅(jiān)實(shí)理由。

人工智能可以根據(jù)年齡區(qū)分

信用記錄越多,人們就越了解某個(gè)人的信譽(yù)。老年人通常擁有更好的信用記錄,因?yàn)樗麄儽澈笥懈嗟慕鹑诮灰。相反,年輕一代有關(guān)業(yè)務(wù)的數(shù)據(jù)較少,這可能成為拒絕的一個(gè)不公平原因。

人工智能可以根據(jù)教育來區(qū)分

一些人工智能借貸算法在做出信用決策時(shí)可以分析申請(qǐng)人的語法和拼寫習(xí)慣。一種算法可能根據(jù)學(xué)習(xí)錯(cuò)誤的拼寫習(xí)慣或錯(cuò)別字來了解申請(qǐng)人的文化程度,從而導(dǎo)致很多申請(qǐng)人信譽(yù)不良。

從長(zhǎng)遠(yuǎn)來看,該算法開始拒絕具有寫作困難或障礙的符合條件的申請(qǐng)者,即使他們與支付能力無關(guān)。

解決貸款中的偏見

總的來說,為了使人工智能運(yùn)行的貸款過程不受偏見的影響,需要讓輸入數(shù)據(jù)從任何可能的人類偏見中清除,從性別、種族主義到年齡歧視中清除出來。

為了使訓(xùn)練數(shù)據(jù)更加中立,組織應(yīng)該組建更多不同的人工智能開發(fā)團(tuán)隊(duì),包括貸款方和數(shù)據(jù)科學(xué)家,貸款方可以告知工程師他們工作的具體細(xì)節(jié)。更重要的是,這些金融機(jī)構(gòu)應(yīng)該培訓(xùn)參與人工智能決策的每個(gè)人,以便在他們的工作中遵守和執(zhí)行公平和非歧視性的做法。否則,如果不采取措施確保多樣性和包容性,貸款企業(yè)就有可能推出嚴(yán)重違反反歧視和公平借貸法律的人工智能算法。

實(shí)現(xiàn)更公平的人工智能的另一個(gè)步驟是審核算法做出的借貸決策;工作人員應(yīng)評(píng)估這些決策。GDPR法規(guī)第22條支持這一觀點(diǎn),聲稱人們不應(yīng)受到純粹的自動(dòng)化決策的影響,特別是這可能產(chǎn)生法律效力。

事實(shí)上,說起來容易做起來難。然而如果不加以解決,無意識(shí)的人工智能偏見問題可能會(huì)使貸款業(yè)務(wù)處于困境,并且不亞于任何故意的偏見行為,只有通過數(shù)據(jù)科學(xué)家和貸款專業(yè)人員的共同努力才能避免迫在眉睫的風(fēng)險(xiǎn)。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)