訂閱
糾錯(cuò)
加入自媒體

如何防止AI將你認(rèn)成“大猩猩”?光靠膚白可不行

各位是否還記得,兩年前谷歌將黑人認(rèn)成“大猩猩”這個(gè)烏龍事件?正因此次事件造成的不良影響,讓Google意識(shí)到:與其擔(dān)心AI傷人,更嚴(yán)重的是AI偏見問題。為了防止AI“胡來”,Google為其制定了七項(xiàng)“道德”準(zhǔn)則。

事情的原委是這樣的,2015年,一位名叫Jacky Alciné的黑人軟件開發(fā)人員在推特上透露,Google Photos使用的圖像分類器將一名黑人女性稱為“大猩猩”(Gorillas),引起了軒然大波。事發(fā)后,谷歌為此深表歉意,并著手處理這一漏洞。

不僅如此,谷歌還提出AI技術(shù)的開發(fā)道德準(zhǔn)則,并且成立了專門的機(jī)器學(xué)習(xí)道德部門,對(duì)公司的產(chǎn)品和服務(wù)進(jìn)行分析測(cè)試,提出改進(jìn)意見,盡可能避免AI偏見的產(chǎn)生。不光是Google,從IBM到Airbnb,每家公司都在努力確保自己的算法不會(huì)出現(xiàn)類似的偏差。

為此,今年6月,Google首席執(zhí)行官Sundar Pichai發(fā)布了公司的七項(xiàng)人工智能原則,指導(dǎo)谷歌在這些方面的工作和研究,包括確保Google員工不會(huì)制造或加強(qiáng)不公平的AI偏見,并表示AI技術(shù)的開發(fā)和使用將在未來許多年內(nèi)對(duì)社會(huì)產(chǎn)生重大影響:

對(duì)社會(huì)有益
  避免制造或增強(qiáng)不公平的偏見
  建造并測(cè)試其安全性
  對(duì)民眾負(fù)責(zé)
  融入隱私設(shè)計(jì)原則
  堅(jiān)持科學(xué)卓越的高標(biāo)準(zhǔn)
  為符合這些原則的用戶提供

除了那次不愉快的“大猩猩”事件外,哈佛大學(xué)的研究員Latanya Sweeney表示:谷歌搜索中存在種族歧視,當(dāng)搜索類似黑人名字時(shí),會(huì)比搜索類似白人名字更有可能出現(xiàn)與“被逮捕”相關(guān)的廣告。這些現(xiàn)象都是我們的部門成立的原因,不應(yīng)該讓我們的用戶看到這些,我們需要首先阻止這些偏見的產(chǎn)生。

實(shí)際上,對(duì)于AI偏見這件事,一份來自皮尤研究中心近期公布的研究結(jié)果顯示:目前美國(guó)有58%的成年人認(rèn)為,人工智能的算法極其程序?qū)?huì)始終包含對(duì)人類的偏見,人工智能算出的結(jié)果不能保持中立的態(tài)度。從受調(diào)查者的年齡來看,50歲以上的受訪者中,有63%的人認(rèn)為算法不中立;18-29歲的受訪者中,也有48%的人認(rèn)為算法一定會(huì)存在偏見。

如此看來,大眾對(duì)AI偏見這件事存有共識(shí)。顯然,解決AI偏見光靠Google一家公司還遠(yuǎn)遠(yuǎn)不夠,需要有更多的公司加入其中。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)