訂閱
糾錯(cuò)
加入自媒體

到底該不該用人臉識(shí)別技術(shù)?IBM/亞馬遜/ACLU已經(jīng)吵得不可開交了

吉米戈麥斯是加州民主黨人,哈佛大學(xué)畢業(yè)生,也是少數(shù)在美國(guó)眾議院任職的西班牙裔立法者之一。

但在亞馬遜的面部識(shí)別系統(tǒng)里,他被識(shí)別為一個(gè)潛在的罪犯。

戈麥斯是28名美國(guó)國(guó)會(huì)議員中的一員,與被逮捕的人的照片完全匹配,這是去年美國(guó)公民自由聯(lián)盟對(duì)亞馬遜重新認(rèn)知計(jì)劃進(jìn)行測(cè)試的一部分。

亞馬遜被警方使用工具中將近有40%的虛假匹配,涉及有色人種。

這些發(fā)現(xiàn)被公民自由團(tuán)體,立法者甚至一些科技公司越來(lái)越多的關(guān)注,隨著技術(shù)變得更加主流,面部識(shí)別可能會(huì)傷害少數(shù)人種。iPhone和Android手機(jī)上已經(jīng)開始使用面部識(shí)別技術(shù)進(jìn)行解鎖,警察、零售商、機(jī)場(chǎng)和學(xué)校也在慢慢接觸它。但是研究表明,面部識(shí)別系統(tǒng)更難以識(shí)別女性和膚色較黑的人,這可能導(dǎo)致災(zāi)難性的誤報(bào)。

“這是一個(gè)例子,說(shuō)明技術(shù)在執(zhí)法領(lǐng)域的應(yīng)用如何對(duì)已經(jīng)過(guò)度監(jiān)管的社區(qū)造成有害后果,”北加州ACLU的技術(shù)和公民自由律師Jacob Snow說(shuō)。

面部識(shí)別有它的好處。馬里蘭州的警察利用這項(xiàng)技術(shù)在首都公報(bào)的大規(guī)模槍擊案中找出了一名嫌犯;在印度,它幫助警察在四天內(nèi)識(shí)別了近3000名失蹤兒童;Facebook使用該技術(shù)為視障人士識(shí)別照片中的人物;它已成為解鎖智能手機(jī)的便捷方式。

但這項(xiàng)技術(shù)并不完美,而且還有一些尷尬的失誤。谷歌照片曾將兩個(gè)黑人識(shí)別成大猩猩。在中國(guó),一位女士聲稱她的同事能夠使用Face ID 解鎖她的iPhone X。當(dāng)執(zhí)法機(jī)構(gòu)使用面部識(shí)別來(lái)識(shí)別犯罪嫌疑人或在抗議中揭露人們時(shí),被誤認(rèn)的風(fēng)險(xiǎn)就會(huì)增加。

“當(dāng)執(zhí)法部門使用這項(xiàng)技術(shù)確定某人是否因犯罪而被通緝時(shí),那就是完全不同的情況,”戈麥斯說(shuō),“錯(cuò)誤的身份有可能會(huì)導(dǎo)致執(zhí)法部門和那個(gè)人之間發(fā)生致命的互動(dòng)!

立法者對(duì)ACLU的調(diào)查結(jié)果并不感到震驚,并指出科技工作者通常更多地考慮如何使某些東西發(fā)揮作用,而不是關(guān)于他們構(gòu)建的工具如何影響少數(shù)人種。

科技公司通過(guò)改進(jìn)用于培訓(xùn)面部識(shí)別系統(tǒng)的數(shù)據(jù)來(lái)回應(yīng)批評(píng),但與民權(quán)活動(dòng)家一樣,他們也呼吁更多的政府監(jiān)管,以幫助保護(hù)技術(shù)不被濫用。喬治敦大學(xué)法學(xué)院的研究人員估計(jì),每?jī)擅绹?guó)成年人中就有一名被用于執(zhí)法人員使用的面部識(shí)別網(wǎng)絡(luò)。

亞馬遜不贊同ACLU研究,認(rèn)為組織在測(cè)試識(shí)別系統(tǒng)時(shí)使用了錯(cuò)誤的方法。

“機(jī)器學(xué)習(xí)是一個(gè)非常有價(jià)值的工具,可以幫助執(zhí)法機(jī)構(gòu),雖然可能存在誤判,我們不能因?yàn)樵O(shè)定了錯(cuò)誤的溫度導(dǎo)致烤焦了披薩而扔掉烤箱。”人工智能總經(jīng)理Matt Wood在亞馬遜網(wǎng)絡(luò)服務(wù)公司的一篇博文中辯解道。

識(shí)別問(wèn)題

與白人男性相比,面部識(shí)別服務(wù)可能更難以識(shí)別少數(shù)民族和女性,這有多種原因。

喬治城法學(xué)院隱私與技術(shù)中心的高級(jí)助理克萊爾加維說(shuō),科技工作者用來(lái)訓(xùn)練計(jì)算機(jī)識(shí)別面孔的公開照片可能包括比白人更多的白人。例如,如果一家公司使用名人數(shù)據(jù)庫(kù)中的照片,那么它就會(huì)傾向于白人,因?yàn)楹萌R塢的少數(shù)人種人數(shù)不足。

Garvie說(shuō),科技公司的工程師,大多是白人,也可能在不知不覺(jué)中設(shè)計(jì)面部識(shí)別系統(tǒng),以更好地識(shí)別某些種族。研究表明,人們更難以識(shí)別另一個(gè)種族的面孔,并且“跨種族偏見”可能會(huì)滲入人工智能。她還補(bǔ)充說(shuō),對(duì)于深色皮膚缺乏色彩對(duì)比的問(wèn)題,以及女性使用化妝品來(lái)掩蓋皺紋或頭發(fā)不同的問(wèn)題,都存在挑戰(zhàn)。

根據(jù)麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員進(jìn)行的一項(xiàng)研究,微軟,IBM和Face ++制作的面部識(shí)別系統(tǒng)很難確定像非洲裔美國(guó)人這樣的黑皮膚女性的性別。35%的黑皮膚女性的性別會(huì)被誤認(rèn)為是高加索人等1%的淺膚色男性。

麻省理工學(xué)院于1月份發(fā)布的另一項(xiàng)研究表明,亞馬遜的面部識(shí)別技術(shù)比微軟或IBM確定黑皮膚女性性別的工具更難。

1  2  下一頁(yè)>  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問(wèn)題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)