訂閱
糾錯
加入自媒體

突破瓶頸高效測評:谷歌提出自然語言生成任務(wù)評測新方法BLEURT

近年來在自然語言生成(natural language generation, NLG)研究上取得了巨大的進(jìn)展, 經(jīng)過充分訓(xùn)練的復(fù)雜模型已經(jīng)可以高精度完成文本遷移、文章總結(jié)、參與對話和圖片注釋等多種任務(wù)。目前主要有兩種主要方式對NLG系統(tǒng)進(jìn)行評測:人工測評和自動化度量。

人工測評需要人類標(biāo)注員在每個模型版本上進(jìn)行大規(guī)模的質(zhì)量檢查,這種方法雖然精度很高但勞動密集型的檢查任務(wù)十分消耗人力;而像BLEU這樣自動化測評方法可以對模型進(jìn)行迅速的評測,但相較于人類翻譯和評審來說經(jīng)常會出現(xiàn)不可靠的情況。NLG的高速發(fā)展和現(xiàn)有測評方法的局限性使得學(xué)術(shù)界迫切需要開發(fā)出新的測評方法來促進(jìn)NLG系統(tǒng)的發(fā)展。

為了解決這一問題,來自谷歌的研究人員提出了一種名為BLEURT的魯棒文本生成測評指標(biāo),BLUERT可以實現(xiàn)非常魯棒并接近于人類標(biāo)注的精度水平。

BLEURT (Bilingual Evaluation Understudy with Representations from Transformers) 基于最近高速發(fā)展的遷移學(xué)習(xí)方法進(jìn)行構(gòu)建,可以捕捉像句子轉(zhuǎn)述等廣泛使用的語言特征。

NLG系統(tǒng)的評測

在人類測評的過程中,系統(tǒng)向人類標(biāo)注者呈現(xiàn)生成的部分文本內(nèi)容,讓人類基于連貫性和表意來評價內(nèi)容生成的質(zhì)量。生成的句子一般與參考句子一對一地進(jìn)行呈現(xiàn),參考句子主要來源于網(wǎng)絡(luò)或者人類作品中。

在機(jī)器翻譯任務(wù)中一個典型的人類測評問題。

人類評測的優(yōu)點在于其準(zhǔn)確性:在評測文本片段時,人類具有無可比擬的準(zhǔn)確性。但這種方法對于大規(guī)模測評來說,隨隨便便就需要數(shù)十人花費很多天時間,這足以打斷高效的模型研發(fā)流程。

而自動化測量的主要優(yōu)勢在于低成本、高效率。一般會將待測評結(jié)果和參考結(jié)果同時輸入自動化測評系統(tǒng),返回描述兩個句子間相似程度的分?jǐn)?shù)。典型的方法是使用詞匯的重合度來評分,但像BLEU則測算候選句子單詞序列同時也出現(xiàn)在參考句子中的次數(shù)(非常類似于準(zhǔn)確度)。

人類測評與自動化測評的優(yōu)缺點正好相反,自動化度量十分便捷,可以實時測評訓(xùn)練結(jié)果,但他們的精度卻無法令人滿意。這主要是由于自動化方法聚焦于對生成文本表面相似性的度量,而無法理解人類語言的多樣性與精妙。僅靠表面形式來獎勵哪些詞語上匹配的句子(即使他們沒有捕捉到真正的含義)是不公平的測評方法。

三個備選句子的BLUE分?jǐn)?shù),第二句顯然在語義上接近參考句子,但得分卻低于第三句。自動化評測方法僅僅依賴表面的文本信息,而忽略了背后所要傳達(dá)的意義。

新評測指標(biāo)BLEURT

BLEURT是一種基于機(jī)器學(xué)習(xí)的自動化度量新方法,可以捕捉句子字面背后的語義相似性。下圖顯示了BLEURT指標(biāo)下幾個句子的得分情況:

利用BLEURT對三個備選句子進(jìn)行了測評,雖然2包含兩個不同的詞,但語義相似性讓它獲取了高分。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號