訂閱
糾錯
加入自媒體

關(guān)上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具

2019-12-18 14:47
來源: 粵訊

誕生之初,Deepfake是一項(xiàng)有趣的圖像處理技術(shù),僅僅帶來搞笑和娛樂視頻,但殊不知,潘多拉魔盒就此被打開,催生出 黑產(chǎn)、惡搞政客“操縱”民意,Deepfake正逐步進(jìn)化為一種新型“病毒”,人類倫理道德的“遮羞布”也被無情揭開。

關(guān)上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具

圖:Saturday Night Live中凱特·麥金農(nóng)換臉伊麗莎白·沃倫

面對因新技術(shù)而引發(fā)的公眾恐慌,相關(guān)監(jiān)管機(jī)構(gòu)也加快采取行動,出臺“打假”策略,旨在打擊Deepfake虛假音視頻,控制“造假病毒”的傳播。同時,國內(nèi)也迎來了“最嚴(yán)數(shù)據(jù)管理”的一年。

11月29日,中國國家網(wǎng)信辦也正式發(fā)布《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,指出自2020年1月1日起,AI造假視頻不得隨意發(fā)布。新規(guī)定中關(guān)于AI造假音視頻的規(guī)定主要有四條:“按照國家有關(guān)規(guī)定開展安全評估”、“以顯著方式予以標(biāo)識”非真實(shí)音頻信息、不得利用AI造假技術(shù)發(fā)布虛假新聞、部署AI造假音視頻鑒別技術(shù)和健全辟謠機(jī)制等。

新規(guī)中不難發(fā)現(xiàn),有效抑制Deepfake及類似造假需要“兩手抓”,除了利用法律法規(guī)嚴(yán)控“別有用心者”作惡,更要從源頭加強(qiáng)安全評估、鑒別技術(shù)等能力,借助技術(shù)手段提前布局,在檢測方面領(lǐng)先一步。

近日,來自清華大學(xué)的人工智能企業(yè)——RealAI正式發(fā)布了一款深度偽造視頻檢測工具,可一鍵實(shí)現(xiàn)對深度偽造(Deepfake)視頻的自動精準(zhǔn)識別。

一、 一鍵換臉到一鍵“打假”

RealAICEO田天表示,盡管需求達(dá)成一致,但目前大規(guī)模應(yīng)用的打假方法面臨諸多困難。

首先,Deepfake的開源技術(shù)讓AI換臉的使用門檻降低到手機(jī)美顏、P圖的水平,一鍵換臉帶來了“造謠”成本的降低、爆炸式的傳播?墒窃诜烙鶎,相應(yīng)標(biāo)準(zhǔn)化的檢測工具卻幾乎沒有,人工鑒別不僅專業(yè)性要求高,且效率低。所以,無論對于個人、平臺還是第三方機(jī)構(gòu)而言,打假辟謠的時間窗口很短,難度卻很高。

關(guān)上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具

圖:雷佳音(左)換臉郭德綱(右)

另外,更嚴(yán)重的問題在于,很多情況下,Deepfake“以假亂真”的程度極高,人眼難以察覺。加之其算法目前還無法建模分析,檢測技術(shù)的研究被嚴(yán)重影響,而造假方的適應(yīng)速度卻很快,新技術(shù)日益迭代。

RealAI基于第三代AI技術(shù)推出的深度偽造視頻檢測產(chǎn)品,通過采用“數(shù)據(jù)增廣”的方式,用偽造的視頻訓(xùn)練出一個新的模型,從而讓模型能夠更好識別出偽造痕跡,分辨出造假視頻,可謂“魔高一尺,道高一丈”。該產(chǎn)品支持圖像、視頻內(nèi)容鑒別,用戶基于API接口將待檢測的圖片、視頻上傳,一鍵即可反饋真?zhèn)巍?/p>

事實(shí)上,開展針對Deepfake的“打假”研究的團(tuán)隊(duì)早就存在,但相關(guān)的成果僅停留在算法層面,更多的是為學(xué)術(shù)研究提供使用,無法應(yīng)對真實(shí)環(huán)境下大范圍傳播的虛假內(nèi)容,所以,RealAI推出的這款標(biāo)準(zhǔn)化自動檢測工具可以說給規(guī);摹按蚣佟毙袆訋砹诵孪M。

二、檢測準(zhǔn)確率達(dá)99%,Deepfake“在劫難逃”

作為清華大學(xué)人工智能研究院核心孵化企業(yè),以及國內(nèi)首家安全可控人工智能系統(tǒng)提供商,RealAI在AI安全與攻防技術(shù)領(lǐng)域擁有業(yè)界領(lǐng)先優(yōu)勢。在今年剛結(jié)束的GeekPwn2019國際安全極客大賽中,其與清華大學(xué)聯(lián)合戰(zhàn)隊(duì)一舉獲得“CAAD CTF 圖像對抗樣本挑戰(zhàn)賽”以及“CAAD 隱身挑戰(zhàn)賽”兩項(xiàng)比賽的冠軍。

關(guān)上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具

深厚的技術(shù)積累也讓RealAI安全研究團(tuán)隊(duì)對“造假方”的攻擊原理有著更深刻的理解,能夠更有針對性地開發(fā)檢測工具。本次推出的深度偽造視頻檢測產(chǎn)品,將原本高難度的檢測過程大幅簡化,只需接入SDK即可一鍵實(shí)時檢測,調(diào)用簡單快捷。

關(guān)上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具


Deepfake視頻檢測產(chǎn)品流程圖

與目前市面上已有的檢測技術(shù)相比,RealAI的視頻檢測工具利用深度學(xué)習(xí)算法、大量數(shù)據(jù)集訓(xùn)練模型,能夠檢測出絕大多數(shù)AI換臉假視頻,準(zhǔn)確率達(dá)99%(內(nèi)部測試數(shù)據(jù)集上)。在面對算法的換臉效果越來越逼真的情況,RealAI的研發(fā)團(tuán)隊(duì)也集中研發(fā)新型的檢測算法,以迭代和更新RealAI的檢測算法庫。

更值得注意的是,該產(chǎn)品適用于復(fù)雜視頻內(nèi)容檢測,支持多種格式和多人臉檢測模式,1S識別,最高可支持10人以上同屏。

三、Deepfake的潘多拉魔盒終將被關(guān)上

隨著Deepfake技術(shù)被濫用,傳統(tǒng)意義上“真實(shí)”與“虛假”的界限被模糊,這對于社會生活的影響之大此前未被預(yù)想到,但如今技術(shù)作惡所帶來的負(fù)面影響正全面爆發(fā)。

比如,網(wǎng)絡(luò)上肆意傳播的視頻、圖片內(nèi)容,內(nèi)容平臺傳統(tǒng)的審核機(jī)制無法辨別Deepfake生成內(nèi)容,若采用人工審核,需要投入額外的時間、人力成本;特定對象被編造虛假信息在社交平臺上廣泛傳播,處于輿論中心的當(dāng)事人由于找不到能夠證實(shí)“謠言”是捏造的有效途徑,個人聲譽(yù)因此受損;案件調(diào)查、法庭辯論中涉及的視頻、圖像等證據(jù)材料,警察、律師等人員無法單憑肉眼識別證據(jù)是否是基于Deepfake偽造,需要專業(yè)工具鑒定真?zhèn)?事故中真?zhèn)坞y辨的影像資料,保險公司的審查人員缺乏Deepfake造假認(rèn)知以及不配備專業(yè)鑒別能力,存在被詐騙理賠的風(fēng)險……

“人人都怕?lián)Q臉術(shù)”的恐慌,讓反Deepfake的檢測需求變的異常迫切,本次RealAI檢測工具的推出,通過與內(nèi)容平臺、執(zhí)法機(jī)構(gòu)、保險公司等機(jī)構(gòu)開展合作,能夠在虛假內(nèi)容甄別、線上資料審核以及影像物證真實(shí)性檢驗(yàn)等實(shí)際應(yīng)用場景發(fā)揮作用,并幫助企業(yè)與個人更好的進(jìn)行信息管控與風(fēng)險預(yù)警。

最后,在這場AI軍備競賽中,Deepfake將持續(xù)演化,RealAI也將持續(xù)迭代技術(shù)、打磨產(chǎn)品。RealAICEO田天表示,未來AI必然是安全可控的AI,一鍵“打假”終將超越一鍵換臉的速度,Deepfake的潘多拉魔盒也終將被關(guān)上。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號