自動駕駛格局動蕩:抖音否定激光雷達(dá) 純視覺迎來黃金時代

打敗你的不是對手,而是跨界!

TikTok也就是抖音團(tuán)隊(duì)發(fā)表了一篇論文《深度無所不能》,其訓(xùn)練出的全方位深度學(xué)習(xí)模型 ,只需單張照片幀即可進(jìn)行LiDAR質(zhì)量深度估計(jì)。換句話說,只需拍攝一張照片,學(xué)習(xí)模型便能精準(zhǔn)獲取照片中物體的三維位置,比LiDAR技術(shù)還要出色。

毫無疑問,抖音的深度學(xué)習(xí)模型打敗了激光雷達(dá)。新的模型表明純視覺方案是可行的,實(shí)現(xiàn)無人駕駛并不需要激光雷達(dá)。對特斯拉,以及國內(nèi)的極越等純視覺智駕車企來說,這無疑是巨大的利好。

自動駕駛在技術(shù)路徑上,主要分為兩派系。

多模態(tài)融合派主要是依靠激光雷達(dá)的回波反射,為車輛在行駛環(huán)境中提供靜態(tài)和動態(tài)物體的識別數(shù)據(jù),絕大多數(shù)自動駕駛公司均采用這一方案。“純視覺派系”使用攝像頭等被動探測設(shè)備,不發(fā)射任何探測信號,不依賴?yán)走_(dá)回波感知外部世界。目前僅有特斯拉、極越兩位玩家。其中特斯拉主要針對海外市場,極越主要針對國內(nèi)。

兩大派系的最大爭議在于感知系統(tǒng)要不要使用激光雷達(dá)。

多模態(tài)融合派認(rèn)為攝像頭捕捉到的信息均為平面信息,無法獲取物體的三維信息。激光雷達(dá)捕捉到的是點(diǎn)云信息,可以獲取物體的三維信息。

純視覺派系則認(rèn)為只要具備完善的算法大模型,純視覺方案也可以提供可靠的物體識別信息。目前純視覺路徑已經(jīng)形成了BEV+Transformer為核心的技術(shù)體系。

需要特別強(qiáng)調(diào)的是,盡管多模態(tài)融合派系倡導(dǎo)激光雷達(dá),但在感知算法中依舊采用了純視覺派系的BEV+Transformer。激光雷達(dá)僅在部分極限場景時使用。從去年的發(fā)展來看,多模態(tài)融合派正在大幅砍掉激光雷達(dá)使用量,主流車型從此前的三顆激光雷達(dá)降低到現(xiàn)在的單科方案。

在國內(nèi)的智駕車企中,僅有極越一家堅(jiān)定走純視覺路線。這主要是因?yàn)榧円曈X方案有著更高的技術(shù)要求,非??简?yàn)車企的團(tuán)隊(duì)能力,以及算法能力和數(shù)據(jù)積累量。國內(nèi)的新勢力車企由于成立較早,并沒有強(qiáng)大的算法團(tuán)隊(duì),也就是專業(yè)的數(shù)學(xué)人才隊(duì)伍。無人駕駛方面,新勢力尚未實(shí)現(xiàn),無法積累有效的可用數(shù)據(jù)。鮮少新勢力直接上純視覺。

另一方面,極越是由百度和吉利強(qiáng)強(qiáng)聯(lián)合賦能。尤其是百度作為無人駕駛的全球頂級企業(yè),在團(tuán)隊(duì)和算法以及數(shù)據(jù)積累方面,具備得天獨(dú)厚的優(yōu)勢。

例如,在L4/L5級純無人駕駛的數(shù)據(jù)積累和商業(yè)化運(yùn)營中,截至2023年9月,百度Apollo L4自動駕駛安全運(yùn)營測試?yán)锍汤塾?jì)已超7000萬公里,百度蘿卜快跑已經(jīng)提供了累計(jì)400萬次無人出租車服務(wù)。

由于百度已經(jīng)實(shí)現(xiàn)了L4級自動駕駛,極越純視覺方案可以輕車熟路,快速發(fā)展。這也使得極越并不需要在BEV+Transformer的算法架構(gòu)中進(jìn)行過多的停留,而是一步到位,直接引入OCC占用網(wǎng)絡(luò)技術(shù),形成完整高階智駕體系,領(lǐng)先“BEV+Transformer”路線一代。

特別是OCC占用網(wǎng)絡(luò),作為“純視覺”方案核心技術(shù)之一,OCC將空間劃分為多個立體小方格,每個小方格被稱為“體素”。當(dāng)攝像頭捕捉的圖像連續(xù)不斷的輸入給OCC,OCC就會觀察圖像對應(yīng)的空間,每個體素的狀態(tài)是被占用還是自由。正如我們面前的電腦一樣,我們可以用無數(shù)個小方格形成一個電腦,這樣我們就不需要知道面前的到底是電腦還是木板,只需要知道它多大,能不能避開。

在極越CEO夏一平看來,占用網(wǎng)絡(luò)上車的一個最主要初衷,就是替代激光雷達(dá)對目標(biāo)的距離、位置關(guān)系等等感知能力。

根據(jù)極越發(fā)布的OCC演示視頻,極越01對周圍環(huán)境有著強(qiáng)大的感知能力,用3D體素清晰地展示了欄桿、綠植、路障等標(biāo)準(zhǔn)障礙物,同時還精準(zhǔn)識別出了施工中的工程車、樹木中的路燈等異形障礙物。

其中藍(lán)色網(wǎng)格代表靜態(tài)建筑物,如隔離帶、施工圍欄;橙色代表動態(tài)交通參與者,包括機(jī)動車、非機(jī)動車;還有紫色馬路沿、綠色綠化帶等。每一個網(wǎng)格約15厘米,感知質(zhì)量非常高,識別也相當(dāng)準(zhǔn)確。

在算法優(yōu)勢的賦能下,極越01作為全球唯一一款依靠“純視覺”感知算法,“全程0接管”跑通中國復(fù)雜城市道路的智能汽車,極越01在開啟PPA狀態(tài)下,可以在高速、高架中,完成自主變道超車、上下匝道、輕松避障等一系列智駕領(lǐng)航;在城市道路中,還能夠?qū)崿F(xiàn)精準(zhǔn)識別斑馬線、紅綠燈,完成禮讓行人、無保護(hù)左轉(zhuǎn)、避讓非機(jī)動車等能力。

值得一提的是,極越的高階智駕并沒由局限在高速和城市道路。極越01還能實(shí)現(xiàn)AVP代客泊車,支持最遠(yuǎn)距離為2公里,室內(nèi)和室外停車場均可使用,且支持任意車位到停車場出入口的泊出泊入。在狹窄車位,用戶還可以實(shí)現(xiàn)車外語音泊車。業(yè)界將這種融合行駛場景和泊車場景的智能駕駛稱為“行泊”一體。

截至目前,極越高階智駕的核心功能點(diǎn)到點(diǎn)領(lǐng)航輔助PPA已覆蓋全國90%的高速高架,城市NOA已經(jīng)北京、上海、杭州、深圳等四大主流城市實(shí)現(xiàn)落地,今年將覆蓋全國200多個城市。

據(jù)夏一平透露,極越“純視覺”方案端到端的訓(xùn)練以“周更”的速度快速迭代,并且隨著交付量的快速攀升,還將讓極越高階智駕呈現(xiàn)指數(shù)級進(jìn)化。

坦率的說,目前的高階智駕方案絕大多數(shù)均是“純視覺”方案的衍生。包括華為在內(nèi)的融合感知派并沒有擺脫對純視覺“BEV+Transformer”架構(gòu)的依賴,也沒有硬件方面能去掉攝像頭。反倒是引以為豪的激光雷達(dá)從四顆全向覆蓋,砍到三顆,最后砍到單顆,象征性存在。也因此,在智駕行業(yè)中有一個十分有趣的說法,算法不靈,才上激光!

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )