侵權投訴
訂閱
糾錯
加入自媒體

毫末AI DAY的智駕彈藥:上有「世界模型」,下有3000元方案

2023-10-13 09:21
XEV研究所
關注

作者|張祥威

編輯|德新

「我們的感知能力可以說能做到識別萬物了!购聊┲切性诘诰艑煤聊〢I DAY上拋出這一豪言。?

識別萬物的底氣,源于毫末的DriveGPT自動駕駛大模型引入了通用語義大模型,可以對交通參與者者、道路環(huán)境等做到全面感知。?

今年是智駕獲得公眾接受度的關鍵節(jié)點。?

而明年,隨著技術門檻更高的「無圖」城市NOA落地,頭部智駕頭部玩家大概率會迎來收獲期。毫末在自動駕駛大模型上的諸多準備,正是為迎接大戰(zhàn)。?

不止有進化的大模型,毫末還帶來三款高級輔助駕駛產品HP170、HP370、HP570,劍指無圖城市NOH、記憶行車等大熱功能。?

當下,毫末智駕方案已經在山海炮HEV版、新摩卡Hi-4S等車型上搭載,明年一季度,搭載毫末城市NOH功能的魏牌藍山將量產交付。?

智駕大規(guī)模普及的時刻就要到來,毫末開始加快腳步。?

與眾多公司的科技日如特斯拉AI ?DAY、蔚來NIO DAY相比,這屆毫末AI DAY的既有前沿技術進展的分享,又有極具競爭力的落地方案,有諸多看點。?

一、克制的智駕方案

AI DAY上,毫末一口氣推出三款智駕方案產品,共同點是「極致性價比」。?

·HP170:算力5 TOPS,傳感器方案標配1個前視相機、4個魚眼相機、2個后角雷達、12個超聲波雷達,支持選裝1個前視雷達和2個前角雷達。

·HP370:算力32 TOPS,傳感器方案標配2個前視相機、2個側視相機、1個后視相機、4魚眼相機、1個前雷達、2個后角雷達、12個超聲波雷達,支持選裝2個前角雷達。

·HP570:算力可選72 TOPS和100 TOPS兩款芯片,傳感器方案標配2個前視相機、4個側視相機、1個后視相機、4個魚眼相機、1個前雷達、12個超聲波雷達,支持選配1顆激光雷達。

對比同行,這幾套方案有以下特點:?

首先,更低的芯片算力。?

毫末采用基于5TOPS的芯片算力平臺實現高速NOA,而實現城市NOA的方案,最高只需要要100TOPS的算力,比主流城市NOA智駕方案所需的算力都要低。?

據HiEV了解,三套方案中的芯片分別為地平線征程3、TI的TDA4,以及高通Ride的SA8650芯片,這種高中低采用不同芯片方案的策略,也為量產搭載更多款車型提供了條件。?

主流的智駕方案中,實現城市NOA通常需要兩顆英偉達Oin X芯片,算力為508TOPS,少數玩家如智己、騰勢,可以基于單顆英偉達Orin X芯片,算力為254TOPS。當然,更低算力的要屬特斯拉的FSD,僅需144TOPS。?

更低算力,意味著需要對算力有更極致地有效利用,同時要強化算法的能力。用更低的算力實現城市NOA,毫末的智駕技術水準和市場野心可見一斑。?

其次,在傳感器規(guī)模上也相對克制。?

相較行業(yè)主流方案,毫末的智駕方案數量會更少一些。以搭載高階智駕全享包的騰勢N7作對比,這款車搭載33個傳感器:?

2個激光雷達、5個毫米波雷達、2個前視攝像頭、4個環(huán)視攝像頭、12個超聲波雷達、4個側視攝像頭、1個后視攝像頭、1個OMS攝像頭、1個DMS攝像頭、1個DVR攝像頭。?

毫末可以實現高階智駕同等功能的HP570,傳感器數量為24個,其縮減的部分是,方案中減少了毫米波雷達,而且激光雷達也并非標配。?

最后,由于更低的算力的芯片,以及克制的傳感器規(guī)模,還帶來第三個特點,更低的BOM成本。?

毫末智行董事長張凱認為,「讓中階智駕便宜好用,讓高階智駕好用更便宜,是毫末未來一年提交給中國智駕市場的答卷!?

毫末的三款智駕產品,最低為3000元級別,最高的高階自動駕駛方案大概8000元級別,這與現在動輒上萬的智駕選裝包相比,無疑頗具殺傷力。?

HiEV了解到,毫末的最新方案中,HP170已經定點,配合整車開發(fā)和上市的節(jié)奏,預計會在明年初上市;HP550預計在明年上半年藍山的下一代車型搭載上市,支持記憶行車和記憶泊車;HP370 預計明年量產,而更新一代的HP570則會稍晚一些。?

長線看,毫末的產品會全面平臺化,提供高中低全系的智駕方案。?

祭出成本更低的殺招,那么毫末的產品技術實力究竟如何呢??

二、可實現無圖城市NOH,2024落地百城

一家公司的智駕能力,既體現在產品的上車規(guī)模和行駛里程,也體現在技術能夠達到的廣度和上限。?

毫末的智駕方案HPilot產品已經搭載超過20款車型,用戶輔助駕駛行駛里程突破8700萬公里。由于起步不如蔚小理早,用戶輔助駕駛行駛里程規(guī)模還不像對方那么龐大,但從搭載車型上,搭載車型規(guī)模是遠超蔚小理的。?

毫末的技術能力能力廣度和上限,體現在可實現的功能上。?

顧維灝說,毫末可以做到在城市道路中時速最高70公里在50米的距離下,就能檢測到大概35cm高的小目標障礙物,可以做到100%的成功繞障或剎停。

下面一段視頻,可見毫末智駕方案的技術能力。???

面向L4的小魔駝,在城市開放道路進行無人駕駛時,也已經快于普通人騎自行車的速度。在行駛安全和通行效率上,均已達到商用狀態(tài)。?

與那些從基于高精地圖轉為去高精地圖方案的玩家相比,毫末一早確立了重感知輕地圖的技術路線。?

基于高精地圖的技術路線,開頭容易,之后要在不同城市落地時,會面臨泛化挑戰(zhàn)。而重感知輕地圖的好處是,開始難,但越走越快,能完成更快的城市落地。?

毫末的高速無圖NOH功能,可以實現高速、城市快速路上的無圖NOH,短距離記憶泊車等功能,并獲E-NCAP 5星AEB的高安全標準認證。?

此外,毫末還可實現高速、城快,以及城市內的記憶行車,免教學記憶泊車、智能繞障等功能。高階方案還支持無圖記憶行車和泊車。 ? ? ? ? ? ??

城市全場景無圖NOH,則可實現全場景城市無圖NOH、全場景輔助泊車、全場景智能繞障、跨層免教學記憶泊車等功能。?

早期行業(yè)主打的智駕功能是高速NOA,之后是城市NOA,并在研發(fā)城市NOA時同步去掉高精地圖,逐漸邁向今天的 去高精地圖的“無圖“階段。?

眼下能做到無圖的,僅有小鵬、華為、蔚來等少數幾家。誰具備無圖能力,基本上便是智駕第一梯隊成員。?

毫末三款智駕產品的推出,意味著其智駕方案出手即高點,廣度覆蓋了當下熱門功能,上限與頭部玩持平,讓自身站位來到第一梯隊。按照計劃,毫末的城市NOH落地目標是100城!?

以上這些是毫末在乘用車NOH上的布局,會為明年智駕的普及大年做好準備。而之所以能在成立后短短幾年做到無圖等水平,離不開其核心,也是近幾屆AI DAY上常提到的自動駕駛大模型。?

三、DriveGPT進化,可識別萬物

自動駕駛其實是讓汽車學習人類駕駛,這需要感知道路上的各類交通參與者,處理真實世界中無窮無盡的突發(fā)狀況,最終順利抵達目的地。?

行業(yè)慣常做法,是在云端建立一個自動駕駛生成式大模型,然后通過剪枝、蒸餾的方式,把云端大模型的能力下放到車端,從而讓汽車像人類司機一樣開車。?

與人類大腦一樣,自動駕駛生成式大模型也要不斷進化。?

今年的CVPR 2023,特斯拉和英國自動駕駛公司Wayve等均展示了自動駕駛大模型的新進展。?

目前,特斯拉可以利用大模型生成連續(xù)視頻,打造World Model即世界模型。?

Wayve也在朝類似方向努力,其自動駕駛大模型GAIA-1,在通過持續(xù)擴展后已經擁有90億個參數,可以生成駕駛場景視頻,描述場景以及做出預測。?

上月,Wayve還推出了視覺語言動作模型LINGO-1,可用于描述自動駕駛的行為和推理。?

這些做法,直白地講就是從原來僅學習文本,開始向看圖、視頻學習,從而與自動駕駛不斷地更好融合。?

根據毫末官方數據,目前團隊已篩選出超過100億幀互聯(lián)網圖片數據集,480萬包含人駕行為的自動駕駛4D Clips。?

毫末將自動駕駛分為三個時代,其中,自動駕駛3.0時代需要1億公里。目前,用戶輔助駕駛行駛里程已經達到8700多萬公里,預計到年底可達到這一目標。?

隨著數據規(guī)模的增加,也為了更好地進入3.0時代,自動駕駛大模型需要不斷進化。?

感知模型中引入圖文多模態(tài)大模型,以完成4D向量空間到語義空間的對齊,做到可以具備「萬物識別」的能力,毫末將其稱之為自動駕駛語義感知大模型。?

基于自動駕駛語義感知大模型,毫末還會通過構建駕駛語言來描述駕駛環(huán)境和駕駛意圖,再結合導航引導信息和自車歷史動作,借助LLM大語言模型做出駕駛決策。?

方向上,毫末正在沿著與特斯拉、Wayve同樣的方向,讓自動駕駛大模型擁有更多的學習進化途徑,這相當于在建立自己的世界模型。?

這一過程中,大模型的進化發(fā)生在多個方面:?

早期,Transformer是用于自然語言處理(NLP)的大模型,主要應用于文本。之后Vision Transformer 又稱ViT出現,主要用于圖像。?

直到后來,又出現Swin transformer,一種由微軟提出的視覺領域的Transformer大模型。?

在ViT圖像大模型的基礎上,Swin transformer進一步對圖片進行圖像分割,可以用于處理多視覺任務,更好地完成CV領域的目標檢測和語義分割任務。?

過去兩年,毫末的視覺大模型的進化,與行業(yè)趨勢一致,其CV Backbone先是從CNN模型全面切換到ViT,并又在今年全面升級到Swin transformer。?

訓練大模型方面,行業(yè)早期主要基于人工標注的單幀圖片有監(jiān)督,后來結合4D自動標注,再進一步升級到基于自動標注的4D Clip的有監(jiān)督訓練,到今天基于大規(guī)模數據的自監(jiān)督學習訓練,從而可以輕松吃下上百億幀圖片。?

在毫末最新的模型中,已經可以采用視頻生成的方式,通過預測生成視頻下一幀的方式來構建4D表征空間,使CV Backbone學到三維的幾何結構、圖片紋理、時序信息等全面的物理世界信息。?

以上這些動作,主要解決了大模型領域的數據采集和標注效率低、泛化能力差等問題,解決的其他問題還包括:?

·怎么做到高效、低成本地從上百億的數據中,篩選出幾萬個有效數據;

·怎么做到從閉集到開集,可以標注任意物體;

·如何高效的場景遷移;

·怎樣讓駕駛行為具備可解釋性等等。

毫末將自動駕駛分為三個時代,其中,自動駕駛3.0時代需要1億公里。目前,用戶輔助駕駛行駛里程已經達到8700多萬公里,預計到年底可達到這一目標。?

總體上,這屆AI DAY為毫末邁過自動駕駛3.0時代提供了更多彈藥支持,從云端到車端做了充分準備。上有愈發(fā)聰明的自動駕駛大模型,下有性價比十足的智駕方案,毫末已經做好了明年智駕的卡位。?

       原文標題 : 毫末AI DAY的智駕彈藥:上有「世界模型」,下有3000元方案

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號