訂閱
糾錯
加入自媒體

字節(jié)“扣子”正式加AI戰(zhàn)場!2024年的大模型能否實現(xiàn)彎道超車?

2024-02-08 10:08
新火種
關注

作者:小巖

編輯:彩云

2月1日,一直在AI領域保持靜默狀態(tài)的字節(jié)跳動突然出現(xiàn)了大動作,正式推出AI聊天機器人構建平臺Coze的國內版——扣子。 

與過往聊天機器人的形式不同,“扣子”更像是2023年11月Open AI發(fā)布的GPTs,可以讓用戶通過聊天,調用插件等方式,創(chuàng)建個人定制版Bot,實現(xiàn)“0代碼”開發(fā)。這意味著無論用戶是否擁有編程經(jīng)驗,都可以在“扣子”上快速創(chuàng)建各類聊天機器人,并一鍵發(fā)布到不同社交媒體與消息應用當中,諸如飛書,微信公眾號,豆包等渠道都是支持的。

如此來看,“百模大戰(zhàn)”并沒有因為2024年的到來而偃旗息鼓,反而還不斷涌現(xiàn)出新的選手。我們不禁好奇,在2024年大搞大模型,還能否有機會實現(xiàn)彎道超車?

扣子主打4大核心優(yōu)勢,未來將聚焦AI應用層拓展。

依據(jù)官方介紹,扣子主要擁有4大核心優(yōu)勢。

首先,它擁有無限拓展的能力集。目前,扣子已集成超過60款不同類型的插件,且支持用戶自行塑造自定義插件。用戶可以通過參數(shù)配置的方式,用已有的API能力快速打造插件,以此讓Bot調用。其次,扣子覆蓋了豐富而易操作的數(shù)據(jù)源,可以充當簡便的知識庫,幫助用戶管理數(shù)據(jù)與存儲數(shù)據(jù)。無論是龐大的本地文件,抑或來自某些網(wǎng)站的實時信息,都可以上傳到知識庫。而且,扣子具有持久化的記憶能力?梢蕴峁┍憬莸腁I交互數(shù)據(jù)庫記憶功能,可以持續(xù)記憶用戶對話的關鍵參數(shù)或內容。最后,扣子的靈活工作流設計也值得一提。他不僅能處理邏輯復雜,對穩(wěn)定性要求較高的任務流,還可以提供多種靈活可組合的節(jié)點,包括大語言模型LLM,自定義代碼,判斷邏輯等。不管你是否有編程基礎,都能通過簡單的拖拉拽方式快速搭建一個工作流。

截至目前,扣子Bot商店已經(jīng)擁有了30多款不同的應用,包括工具,娛樂,咨詢,創(chuàng)意等類目,可以提供卡通頭像生成,簡歷診斷,文案輸出等能力。也正因此,扣子還被外界稱為是“平替版GPTs商店”。

圖片3.png

扣子是字節(jié)跳動旗下新部門Flow的作品。

自去年11月,字節(jié)跳動突然成立了專注于AI創(chuàng)新業(yè)務的新部門Flow,并相繼發(fā)布了豆包和Cici,如今再次強勢上線扣子,F(xiàn)low可謂動作頻頻,實績不斷。

據(jù)悉,F(xiàn)low由字節(jié)跳動技術副總裁洪定坤擔任技術負責人,字節(jié)大模型團隊負責人朱文佳擔任業(yè)務負責人。他曾在百度搜索部擔任主任架構師,是當時百度網(wǎng)頁搜索部技術副總監(jiān)楊震的得力助手。外界普遍猜測,朱文佳之所以被選為Flow部門的業(yè)務負責人,就是為了幫助字節(jié)跳動實現(xiàn)聚焦AI應用層的目的。值得一提的是,扣子已經(jīng)成功進入了美國市場,而字節(jié)的其他幾款產(chǎn)品尚未進入美國和歐洲市場。

大廠紛紛涌入,2024年的大模型賽道依然擁擠...

除了字節(jié)下場以外,其他大廠也在摩拳擦掌,躍躍欲試。

1月21日,獵豹移動CEO傅盛創(chuàng)立的獵戶星空發(fā)布了自己的大模型Orion-14B。傅盛強調,在企業(yè)應用場景中,獵戶星空大模型在結合企業(yè)私有數(shù)據(jù)和應用時,即可實現(xiàn)千億參數(shù)級別的模型效果。

而早在2023年,科大訊飛,360等企業(yè)就開始搶灘大模型賽道,并在2024年展開快速迭代?拼笥嶏w在近日發(fā)布了星火大模型V 3.5,360則上線了大模型搜索App“360 AI搜索”!

圖片4.png

無獨有偶,手機廠商也紛紛涌入了大模型賽道。1月10日,榮耀發(fā)布了自研的70億參數(shù)端側AI大模型“魔法大模型”。自此,華為,小米,OPPO,vivo,榮耀5家國產(chǎn)主流手機廠商在大模型領域齊聚。

2024年AI產(chǎn)業(yè)預判:不是大模型玩不起,只是應用更具性價比。

不管目前大模型賽道的競爭有多激烈,說到底,大家都更看重未來,都要為大模型的盡頭找條出路。2024年,對于大模型發(fā)展目標的認定,大家?guī)缀踹_成了共識:發(fā)展出殺手級別的應用。

百度創(chuàng)始人李彥宏就曾表示,“人類進入AI時代的標志,不是產(chǎn)生很多的大模型,而是產(chǎn)生很多的AI原生應用”。360創(chuàng)始人周鴻祎也在今年年初談及大模型發(fā)展趨勢時斷言,2024年將成為大模型應用場景之年,會出現(xiàn)“殺手級應用”。

從某種程度上說,這也意味著,大模型與C端用戶的距離會越來越近。

還是說回李彥宏,他曾在多個重要的公開場合表達了自己對AI應用發(fā)展的看重。

 

2023年12月,在極客公園創(chuàng)新大會2024上,百度李彥宏給出了他對于AI行業(yè)的思考,“卷AI原生應用才有價值,大模型的進展對絕大多數(shù)人都不是機會”。

11月,在深圳西麗湖論壇上,李彥宏表示,“AI原生時代,我們需要100萬量級的AI原生應用,但是不需要100個大模型”。

為什么李彥宏要一再強調AI原生應用才是機會所在?

在大模型領域,OpenAI,Meta,微團等早早入局,搶占先機,所以,現(xiàn)在已經(jīng)不是“最好的時候”。除此之外,嚴苛的芯片管制和和高昂的訓練成本也是擺在各大廠面前一道不可逾越的鴻溝。

據(jù)悉,在芯片層,美國更新出口管制,英偉達A100/800、H100/800等AI芯片被限制銷售。退一萬步講,即便芯片不受限制,大模型訓練的天量投入,同樣令人望而卻步。硬件方面,一顆A100(80GB)芯片的售價高達1.5萬美元,H100的單價更是炒到了4萬美元,而訓練一個千億級參數(shù)的大模型,通常需要上萬顆A100的算力。

而與高昂投入相對應的,是充滿不確定的變現(xiàn)之路。以OpenAI為例,開發(fā) ChatGPT和GPT-4虧損了約5.4億美元,僅維持運行ChatGPT,每天就要投入大約70萬美元。但在商業(yè)化方面,今年2月,Open AI推出AI聊天機器人訂閱服務,每月收費20美元;8月又發(fā)布了企業(yè)版ChatGPT,面向B端和G端用戶。盡管OpenAI創(chuàng)始人聲稱公司平均每月收入超過一億美元,但實際盈利能力如何,并沒有確切答案。

頭部AI公司尚且如此,國內這些還在暗自發(fā)力,努力向上爬的大廠自不待言。

圖片6.png

“做出如何厲害的大模型”并不是大廠們發(fā)展AI的終極追求,如何將技術實際落地,面向C端,打造出現(xiàn)象級應用才是要緊事。

       原文標題 : 新火種AI|字節(jié)“扣子”正式加AI戰(zhàn)場!2024年的大模型能否實現(xiàn)彎道超車?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號