訂閱
糾錯
加入自媒體

為什么不能是「她」?AI也要反性別偏見

提到性別偏見,別以為只有人才會產(chǎn)生偏見,事實上作為非生命體的AI系統(tǒng),也可能因為設計者的疏忽,或者社會語料庫本身的性別不公因素,而流露出性別偏見傾向。這當然不是設計者的本意,可是這種現(xiàn)象無可避免地會對部分用戶造成觀感不適。

特倫托大學的研究人員以身力行,借用名為"MuST-SHE"的測試集,來評估AI語音翻譯系統(tǒng)的輸入文本數(shù)據(jù)集是否存在具有性別差異的語句,而AI又是否將這種性別差異從翻譯加工成果中體現(xiàn)出來。

分門別類!為不同翻譯語料類型找準定位

在機器翻譯過程中,性別偏見可以歸因于語言表達上之于男女性別的差異。那些有專屬性別語法系統(tǒng)的語言,如羅曼斯語,依賴于性別詞性和句法變化來區(qū)分出性別差異。而這對于英語和中文都是不適用的,比如說,中文是一種“自然性別”系的語言,它只通過代詞(如:“她”和“他”)、固有性別的詞語(如:“男孩”和“女孩”)和性別專用名詞(如:“媽媽”和“夫人”)來反映性別差異。

如果AI翻譯系統(tǒng)不能捕捉到這些細微差別,可能導致對不同性別群體的不準確描述。為了盡可能抹消這種區(qū)別,研究人員專門創(chuàng)建了一個被稱為MuST-SHE的多語言測試集,旨在揭露潛藏在語言翻譯系統(tǒng)后的性別偏見。

機器人在吸收歧視性數(shù)據(jù)集后,也會表現(xiàn)出歧視傾向

MuST-SHE是基于TED演講數(shù)據(jù)集篩選得出的一個數(shù)據(jù)子集,其中包括大約1000份音頻、文本和翻譯素材,這些翻譯素材都取自開源MuST-C語料庫,有專門的語料注釋了與性別相關(guān)的定性差異。這些素材被細分為兩類:

第1類:當性別差異性僅取決于說話人本身的性別時(即沒有相應的語境樣本支持),翻譯素材的形成需從音頻信號中獲取消除性別歧義的必要信息樣本。

第2類:所得的翻譯素材有直接消除歧義信息的樣本支持,其中包含比較清晰的語境提示,如性別指定性詞組、代詞和專有名詞都能說明說話者的性別。

每一類的第一框都是正確語料例子

第二框是錯誤例子作為參照物

基于語料庫中的每一條翻譯引用,研究人員都特意創(chuàng)建了一個反面語料例子,除了“他/她”不分、“男/女”不分之外,反面的翻譯素材與原文的涵義其實完全相同。在將兩種語料信息輸入AI翻譯系統(tǒng)后,研究結(jié)果表明,在性別的正式表達預料方面,原語料庫中的翻譯范例被AI駁回,認為其是“存在部分錯誤的”,而反面語料例子則被認為是“正確的”。這種結(jié)果差異可以用來衡量語音識別系統(tǒng)處理性別現(xiàn)象的能力。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號