--關(guān)注、星標(biāo)「智駕最前沿」、回復(fù)“知識(shí)星球”--
↓↓查看:「智駕最前沿」知識(shí)星球超百份資料目錄↓↓
在2022的Q4財(cái)報(bào)會(huì)議上,馬斯克曾自信地宣稱在自動(dòng)駕駛領(lǐng)域特斯拉處于遙遙領(lǐng)先的絕對(duì)第一,“拿望遠(yuǎn)鏡都找不到第二名”,彼時(shí)特斯拉的自動(dòng)駕駛已經(jīng)跳票6年,《華爾街日?qǐng)?bào)》委婉地表示不再相信馬斯克……
一年后,特斯拉在2024年初開(kāi)始在一定范圍內(nèi)推送FSD V12,并于同年3月將FSD Beta改名為FSD Supervised,特斯拉智駕團(tuán)隊(duì)負(fù)責(zé)人AShok Elluswamy在X(推特)上發(fā)文稱基于“端到端”(“end-to-end”)的FSD V12在數(shù)月的訓(xùn)練時(shí)間內(nèi),已經(jīng)完全超過(guò)了數(shù)年積累的V11。
圖1.AShok Elluswamy在X(原推特)上發(fā)文
同時(shí)FSD V12的推出很快得到了業(yè)界的積極回應(yīng),英偉達(dá)CEO黃仁勛在接受外媒采訪時(shí)高度評(píng)價(jià)“特斯拉在自動(dòng)駕駛方面遙遙領(lǐng)先。特斯拉第12版全自動(dòng)駕駛汽車真正具有革命性的一點(diǎn)是,它是一個(gè)端到端的生成模型。”;Michael Dell (戴爾科技集團(tuán)董事長(zhǎng)兼CEO)在X上表示“全新的V12版本令人印象深刻,它就像人類司機(jī)一樣”;Brad Porter(曾任Scale AI首席技術(shù)官、亞馬遜機(jī)器人副總裁)同樣稱“FSD V12就像是ChatGPT 3.5到來(lái)的時(shí)刻一樣,它并不完美,但令人印象深刻,你可以看出這是完全不同的東西,迫不及待地期待它進(jìn)化到GPT4那樣”;就連曾經(jīng)對(duì)特斯拉“劍拔弩張”的小鵬汽車董事長(zhǎng)何小鵬,在試駕完FSDV12后也在微博上評(píng)價(jià)“FSD V12.3.6表現(xiàn)極好,要向其學(xué)習(xí)”,并且他還表示“今年的FSD和以前的Tesla自動(dòng)駕駛從能力上完全是兩個(gè),我非常贊賞”。
圖2.英偉達(dá)CEO黃仁勛接受采訪時(shí)表示特斯拉自動(dòng)駕駛遙遙領(lǐng)先
那究竟是什么樣的改動(dòng),讓FSD V12如醍醐灌頂般在短短幾個(gè)月的時(shí)間就超越了過(guò)去數(shù)年的積累?這一切都要?dú)w因于“端到端”的加入,而要想系統(tǒng)地了解特斯拉FSD V12前后版本翻天覆地的變化,則要從自動(dòng)駕駛的基本框架以及FSD V12的前世講起。為了讓大家讀完本文都能有所收獲,我力爭(zhēng)降維到小學(xué)生模式,在保證專業(yè)度的同時(shí)增加可讀性,用通俗易懂的表達(dá)將自動(dòng)駕駛的基本框架概念、FSD V12的前世今生講清楚,讓沒(méi)有任何專業(yè)背景知識(shí)的小學(xué)生也能輕松搞懂。
讀完本文后,你會(huì)對(duì)當(dāng)下自動(dòng)駕駛行業(yè)最火且達(dá)成共識(shí)的“端到端”以及曾經(jīng)爆火的“模塊化”、“BEV鳥(niǎo)瞰圖 +Transformer”、“Occupancy 占用網(wǎng)絡(luò)”等相關(guān)概念有清晰的認(rèn)知。除此之外,你還會(huì)了解特斯拉V12為何是突破性的、為何自動(dòng)駕駛的ChatGPT時(shí)刻即將到來(lái),同時(shí)你也會(huì)對(duì)當(dāng)下自動(dòng)駕駛行業(yè)發(fā)展到哪一步形成初步的判斷。
初識(shí)自動(dòng)駕駛:模塊化到端到端
1.1 自動(dòng)駕駛分級(jí)
在正式開(kāi)始前,我們需要對(duì)自動(dòng)駕駛的整體框架有一個(gè)了解:目前被國(guó)內(nèi)外廣泛接受的自動(dòng)駕駛分級(jí)標(biāo)準(zhǔn)是SAE(國(guó)際汽車工程學(xué)會(huì))的分級(jí),從L0-L5共6個(gè)級(jí)別,隨著級(jí)別的上升,車輛對(duì)駕駛員手動(dòng)應(yīng)急接管的需求越來(lái)越小,自動(dòng)駕駛系統(tǒng)的功能也越來(lái)越齊全,到了L4、L5級(jí)別后便不再需要駕駛員接管駕駛(理論上在這兩個(gè)階段,方向盤(pán)、踏板都無(wú)需安裝)。
圖3.SAE J3016自動(dòng)駕駛分級(jí)
L0級(jí):無(wú)自動(dòng)化
L1級(jí):“部分解放司機(jī)雙腳”輔助駕駛
L2級(jí):“部分解放司機(jī)雙手”(部分自動(dòng)化)當(dāng)前發(fā)展階段
L3級(jí):“部分解放司機(jī)雙眼”(有條件自動(dòng)化)當(dāng)前發(fā)展階段
L4級(jí):“解放司機(jī)大腦”(高度自動(dòng)化)
L5級(jí):“無(wú)人”(完全自動(dòng)化)
1.2 自動(dòng)駕駛設(shè)計(jì)理念:模塊化 vs 端到端
了解清楚自動(dòng)駕駛分級(jí)的基本框架后,我們便需要進(jìn)一步了解車輛是怎樣實(shí)現(xiàn)自動(dòng)駕駛的。自動(dòng)駕駛的設(shè)計(jì)理念可以分為兩類,分別是傳統(tǒng)的模塊化設(shè)計(jì)和端到端設(shè)計(jì)。在2023年特斯拉的標(biāo)桿作用下,現(xiàn)在端到端自動(dòng)駕駛已經(jīng)逐漸成為了行業(yè)和學(xué)術(shù)界的共識(shí)。(2023 年 CVPR 最佳論文獎(jiǎng)的 UniAD便采用的端到端,體現(xiàn)學(xué)術(shù)界對(duì)該設(shè)計(jì)理念的認(rèn)同;自動(dòng)駕駛行業(yè)中,繼特斯拉后,華為、理想、小鵬、蔚來(lái)等多家智駕公司紛紛跟進(jìn)端到端,代表業(yè)界對(duì)該理念的認(rèn)同。)
1.2.1模塊化
圖4.模塊化架構(gòu)簡(jiǎn)潔示意圖
在比較兩個(gè)設(shè)計(jì)理念的優(yōu)劣前,我們首先來(lái)拆解下什么是模塊化設(shè)計(jì):它包含感知、決策規(guī)劃、執(zhí)行控制三大模塊(如圖4所示),研究人員可以通過(guò)調(diào)試每個(gè)模塊的參數(shù)來(lái)使車輛適應(yīng)各種場(chǎng)景。
感知模塊:負(fù)責(zé)收集和解釋車輛周圍環(huán)境的信息,通過(guò)各種傳感器(比如攝像頭、激光雷達(dá)、雷達(dá)、毫米波等)檢測(cè)和識(shí)別周圍物體(比如其他交通參與者、信號(hào)燈、道路標(biāo)志)——感知模塊是自動(dòng)駕駛的核心,在端到端上車之前大部分的技術(shù)迭代都集中在感知模塊,核心目的就是讓汽車的感知水平達(dá)到人類水平,讓你的汽車能夠像你在開(kāi)車時(shí)一樣注意到紅燈、加塞車輛甚至是馬路上的一條狗。
注:在給車輛提供感知信息的部分還包括定位部分,比如有些企業(yè)會(huì)使用高精地圖來(lái)確定車輛在環(huán)境中的精確位置(但高精地圖成本高、且精確數(shù)據(jù)的獲取有很大難度,不易推廣)。
決策規(guī)劃模塊:基于感知模塊輸出的結(jié)果,預(yù)測(cè)其他交通參與者的行為和意圖,并制定車輛的行駛策略,確保車輛能到安全、高效、舒適地到達(dá)目的地。這個(gè)模塊就像是車輛的大腦(前額葉部分),隨時(shí)根據(jù)已輸入的代碼規(guī)則(Rule based)思考著最佳的行駛路徑、何時(shí)超車/變道、面對(duì)加塞車輛時(shí)是讓還是不讓、在感受到紅綠燈時(shí)是走還是不走、在看到外賣小哥占道行駛時(shí)是超還是不超等問(wèn)題?!谶@部分車輛是基于代碼規(guī)則來(lái)進(jìn)行決策的,舉一個(gè)最簡(jiǎn)單的例子,車輛的代碼寫(xiě)入紅燈停綠燈行、見(jiàn)到行人要讓行的指令,那么在對(duì)應(yīng)的場(chǎng)景下,我們的汽車便會(huì)根據(jù)提前寫(xiě)好的代碼規(guī)則進(jìn)行決策規(guī)劃,但如果出現(xiàn)沒(méi)有寫(xiě)進(jìn)規(guī)則的情況,那么我們的車便不知該如何應(yīng)對(duì)了。
控制模塊:執(zhí)行決策模塊輸出的行駛策略,控制車輛的油門(mén)、剎車和轉(zhuǎn)向。如果說(shuō)決策模塊是大腦軍師的話,那么控制模塊就是聽(tīng)從軍令的士兵,“指哪打哪”。
模塊化的優(yōu)缺點(diǎn)
● 優(yōu)點(diǎn):可解釋、可驗(yàn)證、易調(diào)試
■ 因?yàn)槊總€(gè)模塊都是相對(duì)獨(dú)立的,所以當(dāng)我們的車輛出現(xiàn)問(wèn)題時(shí)我們可以回溯究竟是哪個(gè)模塊出現(xiàn)了問(wèn)題;在出現(xiàn)問(wèn)題后,我們只需要在原有代碼規(guī)則的基礎(chǔ)上調(diào)整對(duì)應(yīng)的參數(shù)即可,簡(jiǎn)單來(lái)說(shuō)“比如我們自動(dòng)駕駛的車輛在面對(duì)其他車輛加塞時(shí),剎車過(guò)猛,那我們只需要調(diào)整加塞情況下,車輛的速度、加速度該如何變化即可”。
● 缺點(diǎn):傳遞過(guò)程中信息損耗、任務(wù)多且散導(dǎo)致低效、存在復(fù)合誤差、規(guī)則難以窮盡導(dǎo)致構(gòu)建和維護(hù)成本高。
■ 信息在傳遞過(guò)程中存在損耗:傳感器的信息從進(jìn)入感知模塊再到控制模塊輸出,中間經(jīng)歷了多個(gè)環(huán)節(jié),信息在傳遞過(guò)程中除了效率變低以外不可避免地會(huì)有信息的損耗;舉一個(gè)簡(jiǎn)單的例子比如在傳話游戲中,第一個(gè)人說(shuō)的是“你好”,經(jīng)過(guò)中間幾個(gè)人的傳遞后,到最后一個(gè)人那里可能變成風(fēng)馬牛不相及的“李吼”。
圖5.傳話游戲示意圖
■ 規(guī)則難以窮盡導(dǎo)致構(gòu)建和維護(hù)成本高:大家如果理解了模塊化的基本邏輯后,便知道模塊化是基于規(guī)則的,車輛在道路上做的所有決策背后都是一條一條的規(guī)則,而規(guī)則的背后則是一條一條的代碼,程序員提前將道路上的規(guī)則以代碼的形式寫(xiě)好,車輛在對(duì)應(yīng)情況的時(shí)候便根據(jù)寫(xiě)好的規(guī)則遍歷所有可能選出最優(yōu)解,進(jìn)行決策進(jìn)而采取相應(yīng)的行為。
說(shuō)到這里大家可能覺(jué)得沒(méi)什么,我們直接把類似于紅燈停、綠燈行的這些規(guī)則都寫(xiě)進(jìn)去不就好了,然而工程師很難窮盡路上的所有情況,因?yàn)檎鎸?shí)的物理世界是一直在變化的,有無(wú)數(shù)種排列組合,我們只能預(yù)期到常規(guī)的事情并把它寫(xiě)進(jìn)規(guī)則中,但是小概率的極端事件也是會(huì)發(fā)生的(比如道路上突然出現(xiàn)一只猴子在和人打架),所以依靠代碼堆疊規(guī)則到最后只能苦嘆一聲“人力有時(shí)窮”。
1.2.2 端到端
講完了模塊化,我們接下來(lái)就看下目前行業(yè)最認(rèn)可的端到端究竟是怎么一回事兒。所謂端到端(End-to-End)就是信息一頭進(jìn)入一頭輸出,中間沒(méi)有各個(gè)模塊傳輸來(lái)傳輸去,一站式搞定。
也就是基于統(tǒng)一的神經(jīng)網(wǎng)絡(luò)從原始傳感器數(shù)據(jù)輸入直接到控制指令輸出的連續(xù)學(xué)習(xí)與決策過(guò)程,過(guò)程中不涉及任何顯式的中間表示或人為設(shè)計(jì)的模塊,不再需要工程師人為寫(xiě)無(wú)窮盡的代碼了,除此之外;其另一個(gè)核心理念就是無(wú)損的信息傳遞(原來(lái)可能是多人傳話游戲,端到端就變成了你說(shuō)我聽(tīng))。
圖6.模塊化vs端到端架構(gòu)簡(jiǎn)潔示意圖
我列舉兩個(gè)例子來(lái)給大家講解模塊化和端到端的區(qū)別:模塊化設(shè)計(jì)理念下的車輛就好像是在駕校學(xué)車的、沒(méi)有自主意識(shí)、且不會(huì)主動(dòng)模仿學(xué)習(xí)的新手司機(jī),教練說(shuō)做什么他就做什么(編寫(xiě)代碼規(guī)則),教練跟它說(shuō)紅燈要停下來(lái)、遇到行人要禮讓,它就按照教練的說(shuō)法做,如果遇到教練沒(méi)說(shuō)過(guò)的事兒,它就愣在那里不會(huì)處理了(武漢“芍蘿卜”)。而端到端設(shè)計(jì)理念下的車輛則是一個(gè)擁有自主意識(shí)并且會(huì)主動(dòng)模仿學(xué)習(xí)的新手司機(jī),它會(huì)通過(guò)觀察別人的駕駛行為來(lái)學(xué)習(xí),最開(kāi)始它就像一個(gè)菜鳥(niǎo)一樣,什么也不會(huì),但是它是個(gè)好學(xué)的孩子,在給它觀看了成百上千萬(wàn)的優(yōu)秀老司機(jī)怎么開(kāi)車的視頻后,它慢慢就變成了真正的老司機(jī),然后它的表現(xiàn)只能用一個(gè)字來(lái)形容,那就是“穩(wěn)”!
如圖7所示,基于一條一條代碼規(guī)則驅(qū)動(dòng)的模塊化設(shè)計(jì)理念的車輛,讀到大學(xué)就無(wú)法再往上進(jìn)修了,而基于數(shù)據(jù)驅(qū)動(dòng)(給車輛看的老司機(jī)開(kāi)車的視頻就是所謂的數(shù)據(jù))的端到端雖然初期是在小學(xué),但它具備很強(qiáng)的成長(zhǎng)性和學(xué)習(xí)性(強(qiáng)化學(xué)習(xí)和模仿學(xué)習(xí)),可以很快地進(jìn)修到博士。(就像余承東評(píng)價(jià)“Fsd下限低,上限高那樣”,但只要你有足夠多的數(shù)據(jù),給予它足夠多的老司機(jī)駕駛的視頻,它不便不會(huì)停留在低水平太長(zhǎng)時(shí)間)。
當(dāng)然,目前圍繞端到端的基本定義仍然存在爭(zhēng)議,“技術(shù)原教旨主義者”認(rèn)為,市面上很多公司宣傳的“端到端”并不是真正的端到端(比如模塊化的端到端),他們認(rèn)為真正的端到端應(yīng)該是全局端到端,從傳感器輸入到最后控制信號(hào)輸出,中間所有步驟都是端到端可導(dǎo)的,可進(jìn)行全局優(yōu)化;而“實(shí)用主義者”則認(rèn)為只要基本原理符合,能讓自動(dòng)駕駛車輛的性能表現(xiàn)提升就可以。
端到端的三大劃分
有的朋友看到這里可能有些懵,端到端也有不同劃分?是的沒(méi)錯(cuò),目前端到端主要可以劃分成三類(目前存在多種不同劃分,為了便于大家理解,本文只列舉英偉達(dá)GTC大會(huì)的劃分),如圖8所示可以分成顯式端到端、隱式端到端、基于大語(yǔ)言模型的端到端。
顯式端到端
顯式端到端自動(dòng)駕駛將原有的算法模塊以神經(jīng)網(wǎng)絡(luò)進(jìn)行替代,并連接形成端到端算法。該算法包含可見(jiàn)的算法模塊,可以輸出中間結(jié)果,當(dāng)進(jìn)行故障回溯時(shí)可以一定程度上進(jìn)行白盒化調(diào)整。在這個(gè)情況下,便不再需要工程師一行一行去敲代碼來(lái)撰寫(xiě)規(guī)則了,決策規(guī)劃模塊從手寫(xiě)規(guī)則向基于深度學(xué)習(xí)的模式進(jìn)行轉(zhuǎn)變。
看起來(lái)有些抽象難懂,我們用大白話來(lái)講的話就是端到端了但又沒(méi)有完全端到端(也叫做模塊化的端到端),而所謂的白盒其實(shí)是相對(duì)于黑盒而言的,在后面隱式端到的部分我會(huì)用新手司機(jī)的例子來(lái)展開(kāi)講,這里看不懂不要緊可以先行跳過(guò)。
獲得2023年CVPR最佳論文的UniAD模型就是采用的顯式端到端,如下圖所示,我們能夠明顯觀察到各個(gè)感知、預(yù)測(cè)規(guī)劃等模塊采用了向量的方式進(jìn)行連接。
注:顯示端到端需要結(jié)合隱式端到端一起理解,不要孤立開(kāi);顯式端到端還可以劃分為感知端到端、決策規(guī)劃端到端
隱式端到端
隱式的端到端算法構(gòu)建整體化的基礎(chǔ)模型,利用海量的傳感器接收的外部環(huán)境數(shù)據(jù),忽略中間過(guò)程,直接監(jiān)督最終控制信號(hào)進(jìn)行訓(xùn)練?!凹夹g(shù)原教旨主義者”認(rèn)為如圖9這樣的傳感器信息一頭進(jìn)入另一頭直接輸出控制信號(hào)的端到端才是真正的端到端,中間沒(méi)有任何額外模塊。
前面我們提過(guò)顯式端到端,通過(guò)比較圖8和圖9,能夠看出明顯的區(qū)別就是:隱式一體化的全局端到端中間沒(méi)有各個(gè)模塊,只有神經(jīng)網(wǎng)絡(luò)存在(傳感器就是它觀看世界的方式,中間的端到端系統(tǒng)就是它的完整的大腦,方向盤(pán)、剎車油門(mén)就是它的四肢);而顯式端到端不同的地方在于它把中間完整的大腦按照模塊化的方式給分開(kāi)了,雖然它不再需要編寫(xiě)代碼去學(xué)習(xí)各種各樣的規(guī)則,已經(jīng)逐漸可以通過(guò)觀看老司機(jī)視頻的方式學(xué)習(xí),但是,它依舊是分模塊去做的,所以批評(píng)的聲音會(huì)認(rèn)為其不是真正意義上的端到端。
但這樣做也有它的好處,我們?cè)谇懊嫣岬竭^(guò)顯式端到端在一定程度上是白盒的,這是因?yàn)楫?dāng)我們的車輛通過(guò)學(xué)習(xí)涌現(xiàn)出一些我們不期望的糟糕行為時(shí),我們可以回溯究竟是哪個(gè)模塊的端到端出現(xiàn)了問(wèn)題,而作為黑盒模型的隱式端到端則無(wú)從下手,因?yàn)樗峭耆惑w化的,創(chuàng)造它的人也不知道它為什么會(huì)這樣做(這就是大家老在網(wǎng)上聽(tīng)到的黑盒的大概意思)。
生成式AI大模型的端到端
ChatGPT為自動(dòng)駕駛帶來(lái)了極大的啟發(fā)。它運(yùn)用無(wú)需標(biāo)注且成本低廉的海量數(shù)據(jù)進(jìn)行訓(xùn)練,還具備人機(jī)互動(dòng)以及回答問(wèn)題的功能。自動(dòng)駕駛可以效仿這種人機(jī)互動(dòng)的模式,輸入環(huán)境方面的問(wèn)題,它直接輸出駕駛決策,通過(guò)基于大語(yǔ)言模型的端到端來(lái)完成這些任務(wù)的訓(xùn)練運(yùn)算。
AI大模型的主要作用有兩點(diǎn),一是可以低成本生成海量接近真實(shí)的、包含Corner Case(自動(dòng)駕駛過(guò)程中很少出現(xiàn)但可能導(dǎo)致危險(xiǎn)的異常情況)的多樣化訓(xùn)練視頻數(shù)據(jù),二是采用強(qiáng)化學(xué)習(xí)的方法來(lái)達(dá)到端到端的效果,從視頻感知到直接輸出駕駛決策。其核心就是模型可以通過(guò)自然數(shù)據(jù)自己推理學(xué)習(xí)因果,不再需要標(biāo)注,模型整體的泛化能力得到大幅度提升,類似ChatGPT那樣,以自回歸的方式從上一個(gè)場(chǎng)景預(yù)測(cè)下一個(gè)場(chǎng)景。
讓我們用更簡(jiǎn)單的話來(lái)講一下大模型對(duì)于端到端的重要性:
目前自動(dòng)駕駛數(shù)據(jù)庫(kù)的價(jià)值極低:通常包括兩種數(shù)據(jù),一種是正常行駛情況,千篇一律,占公開(kāi)數(shù)據(jù)約 90%,如特斯拉影子模式。馬斯克承認(rèn)這種數(shù)據(jù)價(jià)值較低,有效性可能僅萬(wàn)分之一甚至更低。另一種就是事故數(shù)據(jù)即錯(cuò)誤示范。用其做端到端訓(xùn)練,要么只能適應(yīng)有限工況,要么會(huì)出錯(cuò)。端到端是黑盒子,無(wú)法解釋、只有相關(guān)性,需高質(zhì)量、多樣化的數(shù)據(jù),訓(xùn)練結(jié)果才可能好點(diǎn)。
端到端需先解決數(shù)據(jù)問(wèn)題,靠外界采集不太可行,因?yàn)槌杀靖?、效率低且缺乏多樣化和交互(自車與其他車輛、環(huán)境的交互,需昂貴人工標(biāo)注),因此引入生成式AI大模型,它能制造海量多樣化的數(shù)據(jù),減少人工標(biāo)注,降低成本。
除此之外大語(yǔ)言模型端到端的核心邏輯是預(yù)測(cè)未來(lái)發(fā)展,本質(zhì)是習(xí)得因果關(guān)系。當(dāng)前神經(jīng)網(wǎng)絡(luò)與人類有差距,神經(jīng)網(wǎng)絡(luò)是概率輸出,知其然而不知其所以然;人類可通過(guò)觀察及無(wú)監(jiān)督交互學(xué)習(xí)物理世界運(yùn)行常識(shí),能判斷合理與不可能,通過(guò)少量試驗(yàn)學(xué)習(xí)新技能并預(yù)測(cè)自身行為后果。而生成式AI端到端大模型就是希望神經(jīng)網(wǎng)絡(luò)也具備像人類這樣舉一反三的能力。
舉個(gè)例子來(lái)說(shuō):我們?nèi)祟愃緳C(jī)肯定會(huì)遇到一些沒(méi)有見(jiàn)過(guò)但可能有危險(xiǎn)的情況,雖然沒(méi)有經(jīng)歷過(guò),但是通過(guò)往的經(jīng)驗(yàn)我們可以推斷出這個(gè)情況做什么才能保住小命(比如我們可能都沒(méi)有經(jīng)歷過(guò)路上出現(xiàn)一個(gè)霸王龍的現(xiàn)象,但當(dāng)霸王龍真的出現(xiàn)后,我們肯定會(huì)抓緊開(kāi)車逃跑),通過(guò)過(guò)往經(jīng)驗(yàn)推測(cè)并判斷行為合理與否,這就是我們希望大語(yǔ)言模型端到端做的事情,希望我們的車輛真正地像人一樣開(kāi)車。
目前由于特斯拉還未召開(kāi)第三次AI Day,所以我們暫時(shí)不清楚特斯拉端到端的具體網(wǎng)絡(luò)架構(gòu),但是根據(jù)特斯拉自動(dòng)駕駛負(fù)責(zé)人Ashok在2023CVPR以及馬斯克本人的一些回復(fù),可以推測(cè)特斯拉的端到端模型很有可能是基于大語(yǔ)言模型的端到端(World model)。(期待特斯拉的第三次AI Day)
端到端的優(yōu)缺點(diǎn)
圖10.端到端架構(gòu)簡(jiǎn)潔示意圖
● 優(yōu)點(diǎn):無(wú)損的信息傳遞、完全由數(shù)據(jù)驅(qū)動(dòng)、具備學(xué)習(xí)能力更具范化性
■ 隨著感知、決策規(guī)劃端到端自動(dòng)駕駛路徑逐漸清晰,端到端為邁向L4無(wú)人駕駛提供了想象空間。
● 缺點(diǎn):不可解釋、參數(shù)過(guò)大,算力不足、幻覺(jué)問(wèn)題
■ 如果你用過(guò)ChatGPT之類的大語(yǔ)言模型,那你就會(huì)知道有些時(shí)候它會(huì)一本正經(jīng)的胡說(shuō)八道(也就是幻覺(jué)問(wèn)題),聊天時(shí)胡說(shuō)八道無(wú)關(guān)痛癢,但是!如果在馬路上,你的車輛一本正經(jīng)的胡亂開(kāi),可是會(huì)要人命的!而且因?yàn)楹诤袉?wèn)題,你還沒(méi)辦法回溯原因所在,這是便是目前端到端急需解決的問(wèn)題,目前常見(jiàn)的解決方案便是加入安全冗余。
圖11.華為ads3.0本能安全網(wǎng)絡(luò)
■ 除此之外,端到端落地同樣還面臨著算力和數(shù)據(jù)的巨大需求,根據(jù)辰韜資本的報(bào)告顯示,盡管大部分公司表示 100 張大算力 GPU 可以支持一次端到端模型的訓(xùn)練,但這并不意味著端到端進(jìn)入量產(chǎn)階段只需要這一數(shù)量級(jí)的訓(xùn)練資源。大部分研發(fā)端到端自動(dòng)駕駛的公司目前的訓(xùn)練算力規(guī)模在千卡級(jí)別,隨著端到端逐漸走向大模型,訓(xùn)練算力將顯得捉襟見(jiàn)肘。而算力的背后就是錢(qián)(并且由于美國(guó)禁止向中國(guó)實(shí)體出售高端芯片使這一困境加?。?,就像理想汽車的郎咸朋說(shuō)的那樣,“智能駕駛未來(lái)一年10億美元只是入場(chǎng)券”。
講到這里,我們便把自動(dòng)駕駛最基礎(chǔ)的一些框架性內(nèi)容講完了(因?yàn)槠邢?,故只包含了一小部分),從歷史的眼光回頭看,自動(dòng)駕駛的進(jìn)步基本上就是沿著特斯拉既定的路線往前走的(這中間各個(gè)廠商會(huì)在其原有路線的基礎(chǔ)上有所創(chuàng)新,但本質(zhì)并未偏離),從某種程度上來(lái)說(shuō),或許能跟住特斯拉本身就是一種能力。接下來(lái),我將會(huì)從模塊化和端到端的發(fā)展給大家展開(kāi)講一下特斯拉FSD V12的前世今生。
特斯拉FSD的前世今生,能跟住特斯拉本身就是一種能力?
2.1特斯拉FSD V12的前世
特斯拉智能駕駛的發(fā)展史在一定程度上反應(yīng)了自動(dòng)駕駛行業(yè)最重要的一條路線的發(fā)展史,在2014年時(shí),特斯拉發(fā)布第一代硬件Hardware 1.0,軟硬件均由Mobileye(一家以色列的汽車科技公司)提供,然而整體合作隨著2016年特斯拉“全球首宗自動(dòng)駕駛致命事故”而結(jié)束(這里的核心原因在于Mobileye提供的是封閉黑盒方案,特斯拉不能修改其中的算法,而且還不能與Mobileye共享車輛數(shù)據(jù))。
2016到2019則是特斯拉的自研過(guò)渡期。在2019年Hardware升級(jí)到了3.0版本,并且采用第一代自主研發(fā)的FSD1.0芯片,增加了影子模式功能,幫助特斯拉收集大量的自動(dòng)駕駛數(shù)據(jù),為其純視覺(jué)路線打下基礎(chǔ)。
2019到2024FSD V12.0大范圍推廣前,是其全面自研時(shí)期,2019年算法架構(gòu)向神經(jīng)網(wǎng)絡(luò)升級(jí)提出HydraNet九頭蛇算法,2020開(kāi)始聚焦純視覺(jué)-,并在2021和2022的AI Day上接連公布了BEV和Occupancy網(wǎng)絡(luò)架構(gòu),在北美驗(yàn)證了BEV +Transformer+Occupancy的感知框架,國(guó)內(nèi)廠商開(kāi)始紛紛跟進(jìn)(這中間差了1-2年左右)。我們?cè)谇懊嫣岬竭^(guò),模塊化智能駕駛設(shè)計(jì)理念中最核心的部分就是感知模塊,也就是我們要如何讓車輛更好地理解傳感器(攝像頭、雷達(dá)、毫米波等)輸入的信息,而上面所提的一堆概念以及特斯拉在FSD V12版本之前做的大部分事情都是在讓感知模塊變得更智能,從某種程度上可以理解為讓感知模塊走向端到端,因?yàn)橐胱屲嚹軌蜃詣?dòng)駕駛,第一步就是讓它真實(shí)客觀地感受這動(dòng)態(tài)變化的物理世界。
其次才是給它制定行駛規(guī)則(決策規(guī)劃模塊),而決策規(guī)劃模塊較為傳統(tǒng),采用蒙特卡洛樹(shù)搜索+神經(jīng)網(wǎng)絡(luò)的方案(類似谷歌AlphaGo下圍棋的方案),快速遍歷所有可能性找出勝率最高的那條路徑,其中包含了大量人為輸入的代碼規(guī)則,即根據(jù)大量預(yù)先設(shè)定的人為規(guī)則來(lái)在道路中設(shè)想并選擇最佳的軌跡(遵守交規(guī)且不碰撞其他交通參與者),而控制模塊更多是油門(mén)剎車方向盤(pán)等硬件層面的事情。
因?yàn)楦兄K是進(jìn)步變化最核心的部分,接下來(lái)我會(huì)盡量用通俗易懂的話講解其中包含的這些概念的基本作用,以及它們分別解決了什么問(wèn)題(因?yàn)槲淖制行杂兴?jiǎn))。
2.1.1特斯拉FSD感知側(cè)的進(jìn)化
2017年,之前在斯坦福任教的Andrej Karpathy加入特斯拉,標(biāo)志著特斯拉感知側(cè)端到端的進(jìn)化拉開(kāi)序幕:
(1)HydraNet九頭蛇算法—2021年特斯拉AI DAY公布
HydraNet是特斯拉開(kāi)發(fā)的一種復(fù)雜的神經(jīng)網(wǎng)絡(luò),用來(lái)幫助汽車“看見(jiàn)”和“理解”周圍的環(huán)境。HydraNet這個(gè)名字來(lái)源于希臘神話中的九頭蛇“Hydra”。這個(gè)網(wǎng)絡(luò)系統(tǒng)也像多頭蛇一樣,有多個(gè)“頭”可以同時(shí)處理不同的任務(wù)。這些任務(wù)包括物體檢測(cè)、紅綠燈識(shí)別、車道預(yù)測(cè)等。而它的三大優(yōu)點(diǎn)就是特征共享、任務(wù)解耦、能緩存特征更高效微調(diào)。
特征共享:通俗來(lái)講就是基于HydraNet的主干網(wǎng)絡(luò)backbone處理最基本的信息,然后再把處理過(guò)的信息共享給它的不同小腦袋(head),好處在于每個(gè)“小腦袋”不用重復(fù)處理相同的信息,可以更高效地完成各自的任務(wù)。
任務(wù)解耦:將特定任務(wù)與主干分離,能夠單獨(dú)微調(diào)任務(wù);每個(gè)“小腦袋”專門(mén)負(fù)責(zé)一種任務(wù),比如一個(gè)負(fù)責(zé)識(shí)別車道線,另一個(gè)負(fù)責(zé)識(shí)別行人,等等。這些任務(wù)之間互不干擾,各自獨(dú)立完成。
能緩存特征更高效微調(diào):通過(guò)限制信息流動(dòng)的復(fù)雜度,確保只有最重要的信息傳遞給各個(gè)“小腦袋”,這個(gè)“瓶頸”部分能夠緩存重要特征,并加速微調(diào)過(guò)程。
(2)BEV(Birds’Eye View鳥(niǎo)瞰視角+Transformer)—2021年特斯拉AI DAY公布
平面圖像走向3D鳥(niǎo)瞰空間
HydraNet幫自動(dòng)駕駛的車輛完成了識(shí)別的工作,而對(duì)于車輛周圍環(huán)境的感知?jiǎng)t由BEV(Birds’Eye View鳥(niǎo)瞰視角)+ Transformer完成,兩者的結(jié)合幫助特斯拉完成了將八個(gè)攝像頭捕捉到的2維平面圖片轉(zhuǎn)換為3D向量空間的工作(也可以由激光雷達(dá)完成,但激光雷達(dá)的成本要遠(yuǎn)遠(yuǎn)高于攝像頭)。
鳥(niǎo)瞰圖是一種從上往下俯視的視角,就像你在高空中俯視地面一樣。特斯拉的自動(dòng)駕駛系統(tǒng)使用這種視角來(lái)幫助汽車?yán)斫庵車沫h(huán)境。通過(guò)將多個(gè)攝像頭拍攝到的圖像拼接在一起,系統(tǒng)可以生成一個(gè)完整的道路和周圍環(huán)境的平面圖(2D)。
而Transformer能將來(lái)自不同攝像頭和傳感器的數(shù)據(jù)有效融合,像一個(gè)超級(jí)聰明的拼圖高手,將不同角度的圖像拼成一個(gè)完整的環(huán)境視圖。將這些平面視角數(shù)據(jù)融合成一個(gè)統(tǒng)一的3D視角的鳥(niǎo)瞰圖景。這樣,系統(tǒng)可以全面、準(zhǔn)確地理解周圍的環(huán)境(如圖14所示)。
而且BEV+Transformer可以消除遮擋和重疊,實(shí)現(xiàn)“局部”端到端優(yōu)化,感知和預(yù)測(cè)都在同一個(gè)空間進(jìn)行,輸出“并行”結(jié)果。
(3)Occupancy Network占用網(wǎng)絡(luò)——2022年特斯拉AI DAY公布
Occupancy占用網(wǎng)絡(luò)的加入讓BEV從2D變成了真正意義上的3D(如圖16所示),并且在加入時(shí)間流信息(基于光流法)之后,完成了由3D向4D的過(guò)度。
圖16.Occupancy占用網(wǎng)絡(luò)使EVE變成真正的3D
Occupancy Network占用網(wǎng)絡(luò)引入了高度信息,實(shí)現(xiàn)了真正的3D感知。在之前的版本中,車輛可以識(shí)別訓(xùn)練數(shù)據(jù)集中出現(xiàn)的物體,但對(duì)于未見(jiàn)過(guò)的物體則無(wú)法識(shí)別,而且即使認(rèn)識(shí)該物體,在BEV中也只能判斷其占據(jù)一定程度的方塊面積,而無(wú)法獲取實(shí)際形狀。Occupancy網(wǎng)絡(luò)通過(guò)將車輛周圍的3D空間劃分成許多小方塊(體素),實(shí)現(xiàn)了對(duì)每個(gè)體素是否被占據(jù)的判斷(其核心任務(wù)不在于識(shí)別是什么,而是在于判斷每一個(gè)體素中是否有東西被占據(jù))。
這就像你在迷霧中開(kāi)車,雖然看不清楚前面是什么,但你大概知道前面有障礙物,你需要繞過(guò)去。
Occupancy Network也是通過(guò)Transformer來(lái)實(shí)現(xiàn)的,最終輸出Occupancy Volume(物體所占據(jù)的體積)和Occupancy flow(時(shí)間流)。也就是附近的物體占據(jù)了多大的體積,而時(shí)間流則是通過(guò)光流法來(lái)判斷的。
圖17.光流法
光流法假設(shè)構(gòu)成物體的像素亮度恒定且時(shí)間連續(xù),通過(guò)對(duì)比連續(xù)兩幀圖像中的像素位置變化,最終帶來(lái)了4D投影信息。
圖18.投影信息
(4)特斯拉引領(lǐng)感知技術(shù)收斂,國(guó)內(nèi)頭部廠商陸續(xù)跟隨
大家讀到這里可能沒(méi)有很直接的觸感,但我給大家列舉幾個(gè)直觀數(shù)據(jù)
● 2021年FSD V9,第一屆AI Day公布BEV網(wǎng)絡(luò),國(guó)內(nèi)2023年BEV架構(gòu)開(kāi)始上車。
● 2022年第二屆AI Day特斯拉公布Occupancy Network占用網(wǎng)絡(luò),2023-2024年國(guó)內(nèi)Occupancy占用網(wǎng)絡(luò)開(kāi)始上車。
● 2023年特斯拉宣布FSD V12采用端到端技術(shù),2024年國(guó)內(nèi)廠商紛紛跟進(jìn)(采用模塊化的端到端)。
BEV+Transformer解決了自動(dòng)駕駛車輛對(duì)高精地圖依賴的問(wèn)題:高精地圖和我們?nèi)粘S玫母叩隆俣鹊貓D不一樣(如圖20所示),它精確到厘米級(jí)別并且包括更多數(shù)據(jù)維度(道路、車道、高架物體、防護(hù)欄、樹(shù)、道路邊緣類型、路邊地標(biāo)等數(shù)據(jù)信息)。它的成本是很高的,需要時(shí)時(shí)刻刻保證地圖厘米級(jí)別的精確性,然而道路的信息總是會(huì)有變化的(比如臨時(shí)施工),所以就需要長(zhǎng)時(shí)間進(jìn)行采集測(cè)繪工作。而想依靠高精地圖實(shí)現(xiàn)所有城市場(chǎng)景的自動(dòng)駕駛,是不現(xiàn)實(shí)的。大家現(xiàn)在應(yīng)該可以在一定程度上理解BEV帶來(lái)的貢獻(xiàn)了(注:特斯拉Lane神經(jīng)網(wǎng)絡(luò)同樣是擺脫高精地圖的關(guān)鍵算法,由于篇幅限制,這里不做過(guò)多闡述)
圖20.高精地圖和普通地圖對(duì)比
Occupancy Network占用網(wǎng)絡(luò)解決障礙物識(shí)別率低的問(wèn)題:將識(shí)別的物體變成4D,無(wú)論車輛周圍有什么東西,無(wú)論它認(rèn)識(shí)與否,它都可以將其識(shí)別出來(lái),避免碰撞問(wèn)題。而在此之前,車輛只能識(shí)別訓(xùn)練數(shù)據(jù)集中出現(xiàn)過(guò)的物體。Occupancy Network占用網(wǎng)絡(luò)一定程度上帶領(lǐng)自動(dòng)駕駛上實(shí)現(xiàn)了依靠神經(jīng)網(wǎng)絡(luò)的感知側(cè)端到端,意義重大。
2.2特斯拉FSD V12的今生
在文章開(kāi)頭我們提到:特斯拉智駕團(tuán)隊(duì)負(fù)責(zé)人AShok Elluswamy在X(推特)上發(fā)文稱基于“端到端”(“end-to-end”)的FSD V12在數(shù)月的訓(xùn)練時(shí)間內(nèi),已經(jīng)完全超過(guò)了數(shù)年積累的V11。
AShok Elluswamy在X(原推特)上發(fā)文
再結(jié)合業(yè)內(nèi)一眾大佬對(duì)FSD V12的高度肯定,可以看出FSD V12和V11可以說(shuō)是兩個(gè)東西,因此我以V12為分界線將其分為前世今生。
根據(jù)表1可以看出自從,F(xiàn)SD V12上車之后,其迭代速度遠(yuǎn)遠(yuǎn)快于之前,30多萬(wàn)行的C++代碼縮減到幾千行,可以在社交媒體上看到消費(fèi)者、從業(yè)者都頻繁表示特斯拉FSD V12的表現(xiàn)更像人了。
特斯拉究竟是如何實(shí)現(xiàn)的蛻變我們不得而知,但是從AShok Elluswamy在2023 CVPR的演講上或許可以推斷其端到端的模型很有可能是在原有的Occupancy的基礎(chǔ)上構(gòu)建的。“Occupancy模型實(shí)際上具有非常豐富的特征,能夠捕捉到我們周圍發(fā)生的許多事情。整個(gè)網(wǎng)絡(luò)很大一部分就是在構(gòu)建模型特征?!?/span>
從整體思路來(lái)看,國(guó)內(nèi)模塊化的端到端可能和特斯拉構(gòu)建的大模型端到端存在一定差別。
由于前文已經(jīng)大致講過(guò)什么是端到端,因此我們這里不再過(guò)多贅述,接下來(lái)我想要跟大家聊下為什么說(shuō)在這場(chǎng)自動(dòng)駕駛的競(jìng)賽中,特斯拉目前是處于領(lǐng)先的位置,我們可以通過(guò)客觀數(shù)據(jù)來(lái)進(jìn)行對(duì)比。
開(kāi)啟端到端時(shí)代后,車企端到端的智駕水平主要由三大因素決定:海量的高質(zhì)量行車數(shù)據(jù)、大規(guī)模的算力儲(chǔ)備、端到端模型本身,與ChatGPT類似,端到端自動(dòng)駕駛也遵循著海量數(shù)據(jù)×大算力的暴力美學(xué),在這種暴力輸入的加持下,可能突然涌現(xiàn)出令人驚艷的表現(xiàn)。
圖21.端到端時(shí)代智駕水平
由于不知道特斯拉是如何實(shí)現(xiàn)其端到端的,所以我們這里只討論數(shù)據(jù)和算力
2.2.1特斯拉構(gòu)建的算力壁壘
FSD的發(fā)展史可以說(shuō)是其算力積累的發(fā)展史,2024年初,馬斯克在X(原推特)上表示算力制約了FSD功能的迭代,而3月開(kāi)始,馬斯克表示算力不再是問(wèn)題了。
圖22.馬斯克在X上的推文
Dojo芯片投入量產(chǎn)后,Tesla由原先A100集群不到5EFLOPS的算力規(guī)模迅速提升到全球算力前5水平,并有望于今年10月達(dá)到100EFLOPS的算力規(guī)模,約30萬(wàn)張A100的水平。
再對(duì)比國(guó)內(nèi)廠商的算力儲(chǔ)備(如圖24所示),可以看到在各種現(xiàn)實(shí)因素限制下,中美智能駕駛算力儲(chǔ)備方面的差距還是較為明顯的,國(guó)內(nèi)廠商任重道遠(yuǎn)。
當(dāng)然算力的背后還意味著巨大的資金投入,馬斯克在X(原推特)上表示今年將在自動(dòng)駕駛領(lǐng)域投資超100億美元,也許真像理想汽車智能駕駛副總裁郎咸朋說(shuō)的那樣,“未來(lái)一年10億美元只是入場(chǎng)券”。
圖25.馬斯克表示將于2024投資超100億美元在自動(dòng)駕駛領(lǐng)域
2.2.2特斯拉的高質(zhì)量數(shù)據(jù)
端到端的智能駕駛就像一個(gè)潛力極高的小天才,你需要給它投喂大量高質(zhì)量的老司機(jī)駕駛視頻,才能讓它快速地成長(zhǎng)成開(kāi)車領(lǐng)域的博士生,而這又是一個(gè)大力出奇跡的過(guò)程。
馬斯克在財(cái)報(bào)會(huì)中提到訓(xùn)練模型所需的數(shù)據(jù):“100萬(wàn)個(gè)視頻 Case 訓(xùn)練,勉強(qiáng)夠用;200萬(wàn)個(gè),稍好一些;300萬(wàn)個(gè),就會(huì)感到Wow;到了1000 萬(wàn)個(gè),就變得難以置信了?!倍?xùn)練仍需要優(yōu)質(zhì)的人類駕駛行為數(shù)據(jù),得益于特斯拉自身的影子模式,數(shù)百萬(wàn)輛量產(chǎn)的車輛可以幫助特斯拉收集數(shù)據(jù),并且特斯拉在2022AI Day時(shí)便公布其建立了全面的數(shù)據(jù)訓(xùn)練流程:涵蓋了數(shù)據(jù)采集、模擬仿真、自動(dòng)標(biāo)注、模型訓(xùn)練和部署等環(huán)節(jié)。截至2024年4月6日,F(xiàn)SD用戶的累計(jì)行駛里程已超10億英里。而國(guó)內(nèi)任何一家廠商用戶的累積行駛里程都較其相差甚遠(yuǎn)。
而數(shù)據(jù)質(zhì)量和規(guī)模要比參數(shù)更能決定模型的表現(xiàn),Andrej Karpathy曾經(jīng)表示過(guò)特斯拉自動(dòng)駕駛部門(mén)將3/4的精力用在采集、清洗、分類、標(biāo)注高質(zhì)量數(shù)據(jù)上,只有1/4用于算法探索和模型創(chuàng)建。由此可見(jiàn)數(shù)據(jù)的重要性。
特斯拉正一步步探索自動(dòng)駕駛的“無(wú)人區(qū)”,將規(guī)模和能力推向極致。
圖26.FSD用戶累計(jì)行駛里程超過(guò)10億英里
結(jié)語(yǔ)
當(dāng)然,最終效果還是要看車輛的實(shí)際上路表現(xiàn)。特斯拉 V12 運(yùn)行的區(qū)域主要集中在美國(guó),而那里整體的道路交通狀況較好,不像國(guó)內(nèi),行人、電動(dòng)車隨時(shí)可能突然竄到馬路上。不過(guò)從技術(shù)角度而言,一個(gè)能在美國(guó)熟練開(kāi)車的人,沒(méi)道理到中國(guó)就不會(huì)開(kāi)了。何況學(xué)習(xí)能力是其核心特點(diǎn)之一,或許初步落地時(shí)表現(xiàn)不如在美國(guó)本土那般出色,但參考FSD V12.5 之前的迭代時(shí)間,可能半年到一年后它就能適應(yīng)中國(guó)的道路情況了。
這對(duì)國(guó)內(nèi)廠商的影響頗為重大,就看眾多智駕企業(yè)將如何應(yīng)對(duì)特斯拉這個(gè)已在美國(guó)得到驗(yàn)證的 FSD V12 了。
參考資料:
1. Mobileye官方資料
2. 2021 Tesla AI Day
3. 2022 Tesla AI Day
4. 特斯拉官方
5. 特斯拉財(cái)報(bào)電話會(huì)議
6. X(推特)推文
7. 辰韜資本《端到端自動(dòng)駕駛行業(yè)研究報(bào)告》
8. 大劉科普「最強(qiáng)」自動(dòng)駕駛?cè)绾螣挸??特斯拉FSD進(jìn)化史:超深度解讀
9. 甲子光年《2024自動(dòng)駕駛行業(yè)研究報(bào)告:”端到端“漸行漸近》
10. 太平洋證券《汽車行業(yè)深度報(bào)告:從蘿卜快跑Robotaxi看特斯拉的AI時(shí)刻》
11. 中泰證券《電子行業(yè)|AI全視角-科技大廠財(cái)報(bào)系列:特斯拉24Q2業(yè)績(jī)解讀》
12. 華鑫證券《智能駕駛行業(yè)深度報(bào)告:從特斯拉視角,看智能駕駛研究框架》
13. 華金證券《華金證券-智能駕駛系列報(bào)告-二-:特斯拉智能駕駛方案簡(jiǎn)剖》
14. 開(kāi)源證券研究所《智能汽車專題報(bào)告:算法進(jìn)階,自動(dòng)駕駛迎來(lái)端到端時(shí)代》
15. 國(guó)投證券《汽車行業(yè)2024年智駕中期策略:特斯拉打開(kāi)智駕技術(shù)新高度,降本是國(guó)內(nèi)產(chǎn)業(yè)鏈?zhǔn)滓繕?biāo)》
16. Guan, Yanchen, et al. "World models for autonomous driving: An initial survey." IEEE Transactions on Intelligent Vehicles (2024).
17. Li, Xin, et al. "Towards knowledge-driven autonomous driving."arXiv preprint arXiv:2312.04316 (2023).
18. Guan, Yanchen, et al. "World models for autonomous driving: An initial survey." IEEE Transactions on Intelligent Vehicles (2024).
19. Hu, Yihan, et al. "Planning-oriented autonomous driving." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023.
20. Chib, Pranav Singh, and Pravendra Singh. "Recent advancements in end-to-end autonomous driving using deep learning: A survey." IEEE Transactions on Intelligent Vehicles (2023).
-- END --
聲明:內(nèi)容源自騰訊科技,文中觀點(diǎn)僅供分享交流,不代表本公眾號(hào)立場(chǎng),如涉及版權(quán)等問(wèn)題,請(qǐng)您告知,將及時(shí)處理!