訂閱
糾錯(cuò)
加入自媒體

AI審核不靠譜?微軟Bing被曝顯示兒童色情內(nèi)容

微軟在2019年年初就遭遇了不少的危機(jī),今天,據(jù)外媒報(bào)道,微軟的Bing搜索中有一些相關(guān)的關(guān)鍵字,正在為戀童癖者提供大量的兒童色情內(nèi)容,微軟回復(fù)正在努力修復(fù)中。

安全公司的調(diào)研中發(fā)現(xiàn),微軟必應(yīng)搜索不僅僅會(huì)在搜索結(jié)果中返回裸體兒童照片,如果用戶點(diǎn)擊這些圖片,必應(yīng)也會(huì)在類似圖片功能中展示更多非法虐待兒童圖像,他們還會(huì)向用戶推薦其他類似搜索關(guān)鍵詞,從而跳轉(zhuǎn)出更多的兒童色情內(nèi)容。

然而,谷歌的類似搜索卻沒有像必應(yīng)這樣出現(xiàn)明顯的非法圖像以及內(nèi)容。對此,微軟必應(yīng)和人工智能產(chǎn)品副總裁喬迪·里伯斯(Jordi Ribas)表示,“研究人員發(fā)現(xiàn)的搜索結(jié)果確實(shí)違反了網(wǎng)站規(guī)則,公司正在努力防止此類事故的發(fā)生!

此前,微軟宣布正在通過他們的AI研究成果讓必應(yīng)搜索變得更加智能。去年,他們還通過使用專門的人工智能計(jì)算硬件BrainWave,使機(jī)器學(xué)習(xí)模型的性能提高10倍以上,增強(qiáng)了微軟必應(yīng)搜索引擎的功能。

而在兒童色情內(nèi)容上,微軟還開創(chuàng)了PhotoDNA技術(shù),實(shí)現(xiàn)兒童性虐圖片檢測的自動(dòng)化,讓此類非法圖片可以由電腦程序而非工程師自動(dòng)識別。

據(jù)了解,PhotoDNA可以將圖片轉(zhuǎn)化為常見的黑白格式,還能將圖片尺寸調(diào)整至指定大小。然后該技術(shù)會(huì)把圖片分成一個(gè)個(gè)正方形,同時(shí)給每一個(gè)正方形內(nèi)存在的特有底紋分配一個(gè)數(shù)值。這些數(shù)值結(jié)合在一起以后,就代表一個(gè)圖像文件的“PhotoDNA簽名”。這種獨(dú)一無二的簽名可以被用于與其他在線圖片進(jìn)行比對。

早些時(shí)候,微軟已經(jīng)將PhotoDNA技術(shù)應(yīng)用在必應(yīng)上,用來識別兒童性虐圖片,阻止這些照片在網(wǎng)上進(jìn)一步傳播。

現(xiàn)在,必應(yīng)卻被曝出這種負(fù)面事件,可以看到這項(xiàng)AI技術(shù)似乎并沒有預(yù)料中的有效,技術(shù)并沒有過濾掉那些非法色情的內(nèi)容。

當(dāng)然,不僅僅是搜索引擎會(huì)遇到這種問題,社交平臺(tái)、內(nèi)容分發(fā)平臺(tái)也經(jīng)常被曝出各種性虐色情內(nèi)容傳播,其實(shí)這也在某種程度上反映了整個(gè)科技行業(yè)的現(xiàn)狀,當(dāng)科技公司過于追求營收的增長以及效率,就會(huì)忽視對公眾利益的保護(hù),比如如何在機(jī)器審核和人工審核之間的達(dá)到平衡。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號