訂閱
糾錯
加入自媒體

上海 AI 實驗室發(fā)布“書生·浦語”大模型

6 月 7 日,上海人工智能實驗室(上海 AI 實驗室)、商湯科技聯(lián)合香港中文大學、復旦大學及上海交通大學發(fā)布千億級參數(shù)大語言模型“書生·浦語”(InternLM)。

“書生·浦語”具有 1040 億參數(shù),是在包含 1.6 萬億 token 的多語種高質(zhì)量數(shù)據(jù)集上訓練而成。

上海人工智能實驗室稱,全面評測結果顯示,“書生·浦語”不僅在知識掌握、閱讀理解、數(shù)學推理、多語翻譯等多個測試任務上表現(xiàn)優(yōu)秀,而且具備很強的綜合能力,因而在綜合性考試中表現(xiàn)突出,在多項中文考試中取得超越 ChatGPT 的成績,其中就包括中國高考各科目的數(shù)據(jù)集(GaoKao)。

聯(lián)合團隊選取了 20 余項評測對其進行檢驗,其中包含全球最具影響力的四個綜合性考試評測集——由伯克利加州大學等高校構建的多任務考試評測集 MMLU;由微軟研究院推出的學科考試評測集 AGIEval(含中國高考、司法考試及美國 SAT、LSAT、GRE 和 GMAT 等);由上海交通大學、清華大學和愛丁堡大學合作構建的面向中文語言模型的綜合性考試評測集 C-Eval;由復旦大學研究團隊構建的高考題目評測集 Gaokao。

“書生·浦語”在考試評測上取得優(yōu)秀成績,但仍然存在不少局限性。

比如,“書生·浦語” 受限于 2K 的語境窗口長度(GPT-4 的語境窗口長度為 32K),在長文理解、復雜推理、撰寫代碼以及數(shù)理邏輯演繹等方面還存在明顯局限。另外,在實際對話中,大語言模型還普遍存在幻覺、概念混淆等問題。

這些局限使得大語言模型“書生·浦語”在開放場景中的使用還有很長的路要走。


聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點?帽菊靖寮,務經(jīng)書面授權。未經(jīng)授權禁止轉(zhuǎn)載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號