訂閱
糾錯
加入自媒體

深度學習三巨頭之Yoshua Bengio暢談AI如何才能說“人話”

2019-02-25 10:21
算力智庫
關注

人工智能深度學習的研究中,科學家們發(fā)現(xiàn)語言學習是其中最為復雜的領域,語言本身可表達表層意思,也能表達深層語義,因此機器的語言理解能力不僅包括描述能力,也包括解讀和舉一反三的能力,語言的復雜性與人類文明的演變息息相關,因此科學家們在構建語言學習模型的同時,也開始將研究焦點從語言本身擴展到語言的歷史、文明的演進等方面,本期焦點人物YoshuaBengio正是該領域的佼佼者。

本期編譯文章來自于Yoshua Bengio于2018年發(fā)表的關于“人工智能如何理解語言”的演說。Yoshua Bengio將會講述人工智能在語言理解方面達到人類水平的要點,并且介紹了他引以為豪的“人工智能娃娃游戲平臺”,且看他獨樹一幟的學術觀點!

oshuaBengio是深度學習三大學術巨頭最純粹的學術派泰斗級人物,蒙特利爾大學計算機科學與運算研究系教授、蒙特利爾大學算法學院MILA院長, “人工智能娃娃游戲平臺(BabyAIgame)”發(fā)起人。

【算力觀點】

語言學習面臨兩大主要難題:缺乏高度接近人腦思維的訓練模型以及所需算力成本高。Bengio博士提出的“意識先驗”模型了模仿人腦的認知系統(tǒng)并且過濾不參與思考過程的信息,有望突破語言學習模型的瓶頸以及拓寬人工智能在語言學習領域的應用范圍。

強人工智能的實現(xiàn)當然離我們很遠,但關于人工智能的道德倫理問題的討論從來沒有停止過,當人工智能也擁有“意識”時將引出兩方面的問題,首先是人工智能在法律意義上的社會身份,其次是它帶來的潛在威脅,需要全社會共同關注。

機器學習人類語言的步驟:先搞懂歷史,再學習語言

一直以來人們都嚴重低估了處理語言學習的難度,甚至有一些研究已經(jīng)在往錯誤的方向發(fā)展——依靠非常龐大的語料庫。

僅僅在語料庫的基礎訓練深度學習模型是不夠的,造成的后果是,很多模型訓練的效果只能是“捕獲”粗糙的信息,翻譯出來的句子意思詞不達意,而優(yōu)秀的深度學習可以預測基于句子中的其他部分。

在語言理解能力的層次上,初級和高級之間的深層差異是“常識”,以威諾格拉德模式測試(圖靈測試的另一個版本)為例,通過提問的方式測試機器是否具備人類的思維能力,比如解讀句子,針對“女人停止吃藥因為她們懷孕了”,問題將會是‘“她們”指的是什么?是女人還是藥?’,而如果將“懷孕”改為“患了癌癥”,答案將會不一樣。

機器達到和人類同等水平的語言理解能力是有可能的,但我們首先要明白當我們?nèi)ダ斫饩渥踊蛘呶臋n的時候,我們的大腦到底經(jīng)歷了什么?

根據(jù)研究發(fā)現(xiàn),答案是“知識”,但現(xiàn)有的方法仍然存在局限性。

以學習外星人的語言為例,學習外星語言的過程通常是觀察他們的互動以及構建學習模型——關于他們的互動和語言文本關系的模型,但僅僅憑零碎的單詞或者詞組信息是不夠的,必須理解它們的語境和意圖。

解決的方法是通過結合語境升級訓練模型,把信息的前因后果考慮進去。但這將會是難度極高的語言學習模型!因為我們還需要去理解外星人的社會形態(tài)。

基于這個邏輯,需要首先搭建模擬外部世界的學習模型,用于理解人與人之間的互動行為,理解外部世界是如何運作的,最后再回到語言學習的部分,最終將模糊語言與實體世界結合起來。

外部世界模型和語言學習模型的搭建應同步進行,原因是來自人類文明史的啟發(fā),在人類發(fā)展的進程中文明和語言密不可分,初級社會向高級社會演變的同時,語言也從個體化走向社區(qū)化,語言的體系也變得更加的復雜多樣,反過來也促進著人類社會的進步。

機器也要“快思慢想”:構造仿人腦的認知系統(tǒng)

諾貝爾經(jīng)濟學家Kahenman在《快思慢想》中提出人腦的認知系統(tǒng)分為一類認知系統(tǒng)和二類認知系統(tǒng)。

一類認知系統(tǒng)負責完成可以快速完成的、無意識的動作,比如口渴時把水杯拿起來喝水,但某些情況下可能導致結果不嚴謹,由于一類認知系統(tǒng)不處理語言信息,只能識別出眼前的電話,而不能解釋為什么認為它是電話。

二類認知系統(tǒng)則相反,負責耗時長、有意識的動作,所以下至語言,上至編程,它都能Hold得住。人類在學習計算機科學和邏輯學當中正是大量的用到了二類認知系統(tǒng),而基于符號學的人工智能正往二類認知系統(tǒng)的方向靠攏。

兼具兩個系統(tǒng)優(yōu)點的人工智能是我們要實現(xiàn)的,這樣的系統(tǒng)是接地氣的語言學習模型,它將是未來研究的主要方向,簡單來說,這樣的學習模型在信息覆蓋面方面是無死角的,通過細致入微的觀察周邊環(huán)境以及人的活動,將這些外部信息和語言聯(lián)系在一起。

圖片來源:論文《Grounded Language Learning in a Simulated 3D World》(如圖:人工智能體接收到文本指令后,在不同的場景中嘗試完成指定任務)

大家?guī)缀醵荚谔剿鳌白罱拥貧狻钡恼Z言學習模型,比如通過深度強化學習模型,人工智能體在虛擬場景下接受指令完成各類任務,智能體將模糊語言和具體實體場景聯(lián)系起來的能力越來越強,意味著語言能力也越來越強。

人工智能體在訓練中會主動觀察,而且它的行為基本不被干預,訓練的效果只是被實驗者持續(xù)觀察,這樣的框架將是未來語言學習模型的主流方向。

但這方面的語言學習研究因為還停留在虛擬環(huán)境實施而備受質(zhì)疑,批評者認為不在真實環(huán)境中測試的研究都是耍流氓。

實際上很多人操之過急了,真正懂“人話”的人工智能離我們還十分遙遠,這可是人類的終極目的呀。

我們步子不應該邁太大,小目標是搭建通用的學習機制和框架,讓人工智能在虛擬環(huán)境中應對自如之后(走路),長遠再考慮于實際環(huán)境中執(zhí)行(跑步)的分步走實施才是上上策。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號