訂閱
糾錯
加入自媒體

Google推出Move Mirror趣味AI網(wǎng)站,可在瀏覽器中根據(jù)人體動作即時搜圖

2018-08-13 03:22
AR醬
關(guān)注

從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時間Google又推出一個新的AI實驗網(wǎng)站 Move Mirror 。

Move Mirror是一個人工智能實驗,通過移動讓你以一種有趣的新方式來探索圖像,當你在攝像頭前移動時,Move Mirror會通過你的實時動作判定你的人體姿勢,與數(shù)百張在世界各地做類似姿勢的人的圖像相匹配,篩選出與你的姿勢最相近的圖像。你甚至可以捕獲做一個GIF圖,與你的朋友分享它。

大概的運作原理是:它會利用PoseNet來鏡像圖像中人體姿勢的關(guān)節(jié)對應(yīng)位置,分析后從有80000張素材的數(shù)據(jù)圖庫中對比出與你姿勢最接近的圖像,而這個過程僅僅需要15ms。并且搜索結(jié)果會即時比對隨時變更。

這這要歸功于TensorFlow.js,這是一個允許你在瀏覽器中運行機器學(xué)習(xí)項目的Javascript庫。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網(wǎng)絡(luò)攝像頭的PC或手機的人都可以在Web瀏覽器中體驗和使用這項技術(shù)。關(guān)于隱私,當PoseNet由tensorflow.js驅(qū)動時,這就意味著姿態(tài)估計直接發(fā)生在瀏覽器中,你的圖像不會被儲存或發(fā)送到服務(wù)器,所有的圖像識別都在本地進行。所以你可以放心去做一些看著很搞笑或有點蠢的動作。

上段說到PoseNet這是一個由劍橋大學(xué)開發(fā)的姿態(tài)估計開源工具,允許任何Web開發(fā)人員完全在瀏覽器中進行基于身體的交互,不需要特殊的相機或C++/Python技能,這是非常先進的姿勢估計模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數(shù)據(jù)中提供高度準確的姿勢數(shù)據(jù)。PoseNet可以通過簡單易獲取的Web API降低了姿態(tài)估計的入門門檻。

姿態(tài)匹配和搜索是Move Mirror面臨的難點。

PoseNet在面部和身體上檢測17個姿勢關(guān)鍵點。每個關(guān)鍵點都有三個重要的數(shù)據(jù):(x,y)坐標位置(表示PoseNet發(fā)現(xiàn)該關(guān)鍵點的輸入圖像中的像素位置)和一個置信度得分(PoseNet對猜測的正確程度有多大)。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號