訂閱
糾錯
加入自媒體

剛剛,70億獨(dú)角獸被“打假”

2023-11-15 16:31
鉛筆道
關(guān)注

AI行業(yè)真的要注意下形象:不要過度PR,更不要撒謊。守衛(wèi)真實(shí),創(chuàng)業(yè)者人人有責(zé)。這是整體建議,不針對單個公司。

作者丨鉛筆道 直八

11月14日,一位融資4輪的AI創(chuàng)業(yè)者向鉛筆道透露:11月6日,看到零一萬物發(fā)布Yi系列大模型,問鼎多項(xiàng)世界第一,內(nèi)心很興奮。

零一萬物由李開復(fù)(創(chuàng)新工場創(chuàng)始人)創(chuàng)辦,成立于2023年5月16日,僅耗費(fèi)6個月,就研發(fā)出“世界最強(qiáng)”大模型,估值超10億美元(破70億元)。

據(jù)“零一萬物”官方公眾號稱,據(jù)大模型社區(qū)Hugging Face評測,Yi成為全球開源大模型“雙料冠軍”,是迄今為止唯一登頂該社區(qū)全球開源模型排行榜的國產(chǎn)模型。

文章稱,厚積薄發(fā)的成績仰賴于自研的“規(guī)模化訓(xùn)練試驗(yàn)平臺”和超強(qiáng)AI infra(基礎(chǔ)設(shè)施)能力。

據(jù)零一萬物官方公眾號稱,Yi已躋身世界范圍內(nèi)開源最強(qiáng)基礎(chǔ)模型之列

新模型出現(xiàn)后,引發(fā)了部分應(yīng)用類公司關(guān)注,他們要著手測試:該大模型能否賦能自家產(chǎn)品。

但經(jīng)過一周測試后,這位AI創(chuàng)業(yè)者顯得比較失望。“測試結(jié)果一言難盡。PR做得太好,把我唬住了,沒細(xì)看就讓技術(shù)測試,傻乎乎的。有些耽誤我們的時間。”

關(guān)于具體原因,他稱:“不算自研模型,用的是別人的神經(jīng)網(wǎng)絡(luò)框架。”

他推測,所謂的“Yi”系列大模型,可能是借用別人的框架做了些自己的訓(xùn)練,喂了不同的語料進(jìn)去——更像應(yīng)用工程師做的事情。“滿足適當(dāng)條件后,我們團(tuán)隊(duì)也能做。”

其實(shí),這件事在前一晚就傳開了。

一封郵件顯示,“Yi”系列模型被提交至Hugging Face后,后者回復(fù)道:據(jù)我們了解,除了兩個張量被重命名外,Yi完全使用LLama架構(gòu)。

“張量”是一種核心數(shù)據(jù)結(jié)構(gòu),而LLaMA與GPT一樣,都是AIGC的主流基礎(chǔ)模型。

Hugging Face稱:后續(xù)會重新發(fā)布Yi,并重新命名張量(把名字改回來)。

原阿里首席AI科學(xué)家賈揚(yáng)清也發(fā)布了一條朋友圈,大約意思是:“上周,有某海外客戶要我們幫他們適配某國內(nèi)大廠新模型,我們太忙,暫時還沒做。今天有朋友說,這個新模型實(shí)際就是LLaMA,但為了表示不一樣,把代碼里的名字(LLaMA)換成了自己的名字。

最后他給出建議:如果就是開源的模型結(jié)構(gòu),建議就叫原來的名字,免得大家還要做一堆工作,就為了適配你們改名字。

以上信息,賈揚(yáng)清并沒有點(diǎn)名道姓,但事實(shí)細(xì)節(jié)與Yi確有諸多相似之處。

事發(fā)之后,AI從業(yè)者褒貶不一。

一位AI創(chuàng)業(yè)者張化(化名)表示:“部分價值值得肯定。Yi雖借用了別人的框架,但從0開始做了訓(xùn)練。只是換名字確實(shí)沒必要。”

另一位AI創(chuàng)業(yè)者王佳(化名)稱:“類似套殼也合理,這么短時間要做出世界最強(qiáng)模型,估計(jì)都得這么干,是正確做法,可以大大方方說出來,但套殼冒充原創(chuàng)做得不對,再多人認(rèn)可也不對。”

AI創(chuàng)業(yè)者張方(化名)稱:“改名有可能是程序員的鍋,并非公司有意為之。”

其實(shí),這件事的細(xì)枝末節(jié)并不重要,重要的是,它給了AI產(chǎn)業(yè)敲響一記警鐘:凡AI參與者,應(yīng)該把實(shí)事求是放在重要位置。

過度PR容易勞民傷財,實(shí)際收效甚微。

作為AI生態(tài)的老大哥,一旦有新模型出現(xiàn),便是牽一發(fā)而動全身:開源社區(qū)、下游應(yīng)用企業(yè)都會跟進(jìn),著手測試、適配。

如果經(jīng)過1-2周測試后,發(fā)現(xiàn)模型只是新瓶裝舊酒,反而徒耗精力。

“Yi其實(shí)做的是偏應(yīng)用的工作,基礎(chǔ)大模型確實(shí)不需要那么多人研發(fā)。我生氣的核心原因是:他耽誤了研發(fā)同事的時間。”

自研就是自研,非自研就是非自研,本沒有貴賤之分。

據(jù)科技部報告稱,中國研發(fā)的大模型數(shù)量全球第二,10億參數(shù)規(guī)模以上的大模型已發(fā)布79個。這里的“大模型”并非全指“自研大模型”,也包含許多類似Yi的非自研模型。

鉛筆道此前曾有報道,自研大模型難度很大,單次訓(xùn)練成本高達(dá)100萬美元。而結(jié)合GPT的自研歷程,一個脫穎而出的世界最強(qiáng)模型,至少需要7年以上。

國內(nèi)的AI產(chǎn)業(yè)還是跟風(fēng)太嚴(yán)重。

2022年11月前ChatGPT沒火的時候,只有極少數(shù)公司專注大模型,比如清華大學(xué)智源研究院。2022年11月后,很多AI公司就一擁而上,爭先要做國產(chǎn)大模型。

也就是不到10個月的時間里,一批企業(yè)紛紛宣布推出大模型,并且各自宣稱其領(lǐng)先性。“幾個月就自研大模型”這種荒謬事,竟然在國內(nèi)AI產(chǎn)業(yè)風(fēng)起云涌,并有前赴后繼之勢。

鉛筆道對此現(xiàn)象嗤之以鼻。

AI創(chuàng)業(yè)者張方(化名)表示,國內(nèi)真正的自研大模型很少,根據(jù)他的測試結(jié)果,只有GLM(智譜AI發(fā)布)、BAT(百度/阿里/騰訊)、百川(搜狗創(chuàng)始人王小川研發(fā))等符合。

創(chuàng)新創(chuàng)業(yè)應(yīng)堅(jiān)守“實(shí)事求是”文化,守護(hù)真實(shí),人人有責(zé)。

       原文標(biāo)題 : 剛剛,70億獨(dú)角獸被“打假”

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號