訂閱
糾錯
加入自媒體

到底該不該用人臉識別技術?IBM/亞馬遜/ACLU已經(jīng)吵得不可開交了

科技公司的作用

亞馬遜對麻省理工學院的研究結果提出了質(zhì)疑,一名女發(fā)言人指出,該研究稱這項研究“具有誤導性”。研究人員使用“面部分析”來識別面部特征,如性別或微笑,而不是面部識別,將人臉與照片或視頻中的相似面部相匹配。

“面部分析和面部識別在底層技術和用于訓練它們的數(shù)據(jù)方面完全不同,”伍德在一篇關于麻省理工學院研究的博客文章中說!皣L試使用面部分析來衡量面部識別的準確性是不明智的,因為它不是用于此目的的預期算法。”

這并不是說科技巨頭沒有考慮種族偏見。

微軟去年表示,它將識別女性和膚色較深的男性的錯誤率降低了20倍。

Facebook發(fā)言人使用面部識別技術在照片中標記用戶,該公司表示,該公司確保其使用的數(shù)據(jù)“平衡并反映出Facebook的用戶的多樣性”。谷歌指出了它發(fā)布的關于人工智能的原則,其中包括禁止“制造或加強不公平的偏見”。

為了推進面部識別的公平性和準確性研究,IBM于1月份為研究人員發(fā)布了一個名為Diversity in Faces的數(shù)據(jù)集,該數(shù)據(jù)集不僅僅關注膚色,年齡和性別。該數(shù)據(jù)包括100萬張人臉圖像,注釋有面部對稱,鼻子長度和前額高度等標簽。

“我們擁有所有這些關于多樣性意味著什么的主觀和松散概念,”IBM的首席科學家約翰史密斯說!耙虼耍琁BM創(chuàng)建此數(shù)據(jù)集的目的是深入研究如何真正衡量面孔多樣性的科學!

該公司收集了照片網(wǎng)站Flickr的圖片,本月受到一些攝影師,專家和活動家的批評,因為他們沒有通知人們他們的圖像被用來改善面部識別技術。作為回應,IBM表示嚴肅對待隱私,用戶可以選擇退出數(shù)據(jù)集。

亞馬遜表示,它使用反映多樣性的培訓數(shù)據(jù),并向客戶介紹最佳實踐。今年2月,它發(fā)布了一些指導方針,稱立法者在考慮監(jiān)管時應考慮到這一點。

亞馬遜全球公共政策副總裁邁克爾·龐克在一篇博客文章中說:“所有相關各方之間應該進行公開,誠實和認真的對話,以確保技術得到適當應用并不斷加強。”

需要明確的規(guī)則

即使科技公司努力提高其面部識別技術的準確性,人們對這些工具可用于歧視移民或少數(shù)民族的擔憂也不會消失。在某種程度上,這是因為人們?nèi)匀辉趥人生活中與偏見搏斗。

民權組織和專家認為,執(zhí)法部門和政府仍然可以利用這項技術來識別政治抗議者或追蹤移民,使他們的自由處于危險之中。

“完美準確的系統(tǒng)也成為一種非常強大的監(jiān)控工具,”加維說。

民權組織和科技公司呼吁政府介入。

“管理政府使用技術的唯一有效方法是政府主動管理這種用途,”微軟總裁布拉德史密斯在7月的一篇博客文章中寫道!叭绻藗儞娜绾卧谡麄社會中更廣泛地部署技術,那么規(guī)范這種廣泛使用的唯一方法就是讓政府這樣做!

美國公民自由聯(lián)盟呼吁立法者暫時禁止執(zhí)法部門使用面部識別技術。民權組織還致信亞馬遜,要求它停止向政府提供Rekognition。

一些立法者和科技公司,如亞馬遜,已經(jīng)要求評估面部識別技術的國家標準與技術研究所認可面部識別的種族偏見測試的行業(yè)標準和道德最佳實踐。

對于像戈麥斯這樣的立法者來說,這項工作才剛剛開始。

“我不反對亞馬遜,”他說。“但是當一種新技術會對公民的隱私、他們的公民自由產(chǎn)生深遠影響了,那么它一定是有問題的。”

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號