亚洲性爱视频,中国精品18videosex性中国,亚洲人成色77777在线观看,拍真实国产伦偷精品
請輸入網站標題
首頁
關于我們
產品中心
關鍵技術
新聞中心
加入我們
聯(lián)系我們
發(fā)展歷程
企業(yè)榮譽
合作伙伴
物流線控底盤
安防線控底盤
移動充電底盤
滑板底盤
線控底盤改制服務
場景應用案例
公司新聞
行業(yè)新聞
首頁
關于我們
發(fā)展歷程
企業(yè)榮譽
合作伙伴
產品中心
物流線控底盤
安防線控底盤
移動充電底盤
滑板底盤
線控底盤改制服務
場景應用案例
關鍵技術
新聞中心
公司新聞
行業(yè)新聞
加入我們
聯(lián)系我們
當前位置:
首頁
>
新聞中心
>
行業(yè)新聞
>
自動駕駛感知系統(tǒng)
公司新聞
行業(yè)新聞
公司新聞
行業(yè)新聞
自動駕駛感知系統(tǒng)
在自動駕駛賽道中,感知的目的是為了模仿人眼采集相關信息,為后續(xù)做決策提供必要的信息。根據所做決策的任務不同,感知可以包括很多子任務:如車道線檢測、3D目標檢測、障礙物檢測、紅綠燈檢測等等;再根據感知預測出的結果,完成決策;**根據決策結果執(zhí)行相應的操作(如變道、超車等);
2024-04-18 17:21:57
感知是什么?
如何進行感知?
在自動駕駛賽道中,感知的目的是為了模仿人眼采集相關信息,為后續(xù)做決策提供必要的信息。根據所做決策的任務不同,感知可以包括很多子任務:如車道線檢測、3D目標檢測、障礙物檢測、紅綠燈檢測等等;再根據感知預測出的結果,完成決策;**根據決策結果執(zhí)行相應的操作(如變道、超車等);
由于感知是為了模仿人眼獲取周圍的環(huán)境信息,那就必然需要用到傳感器來完成信息的采集工作;目前在自動駕駛領域中用到的傳感器包括:攝像頭(camera)、激光雷達(lidar)、毫米波雷達(radar)等;
可以看到傳感器的種類眾多且成本參差不齊,所以如何使用這些傳感器進行感知任務,各個自動駕駛廠商都有各自的解決方案;
純視覺的感知方案
目前Tesla是純視覺感知方案的典型**;
純視覺感知方案的優(yōu)缺點也很明顯:優(yōu)點:價格成本很低;缺點:攝像頭采集到的圖片是2D的,缺少深度信息,深度信息需要靠算法學習得到,缺少魯棒性;
多傳感器融合的感知方案
目前大多數廠商采用的都是多傳感器融合的解決方案;其優(yōu)缺點是:優(yōu)點:能夠充分利用不同工作原理的傳感器,提升對不同場景下的整體感知精度,也可以在某種傳感器出現失效時,其他傳感器可以作為冗余備份,提高系統(tǒng)的魯棒性;缺點:由于采用多種傳感器價格相比純視覺高很多;
多傳感器融合的感知方案
傳感器后融合
所謂后融合,是指各傳感器針對目標物體單獨進行深度學習模型推理,從而各自輸出帶有傳感器自身屬性的結果;每種傳感器的識別結果輸入到融合模塊,融合模塊對各傳感器在不同場景下的識別結果,設置不同的置信度,最終根據融合策略進行決策。
整體流程圖如下:
圖源:https://mp.weixin.qq.com/s/bmy9EsQaLNPQQKt9mPTroA
優(yōu)點:不同的傳感器都**進行目標識別,解耦性好,且各傳感器可以互為冗余備份;同時后融合方案便于做標準的模塊化開發(fā),把接口封裝好,提供給主機廠“即插即用”;對于主機廠來說,每種傳感器的識別結果輸入到融合模塊,融合模塊對各傳感器在不同場景下的識別結果,設置不同的置信度,最終根據融合策略進行決策。
缺點:存在“時間上的感知不連續(xù)”及“空間上的感知碎片化”
空間上的感知碎片化
由于車身四周的lidar、camera角度的安裝問題,多個傳感器實體無法實現空間域內的連續(xù)覆蓋和統(tǒng)一識別,導致攝像頭只捕捉到了目標的一小部分,無法根據殘缺的信息作出正確的檢測結果,從而使得后續(xù)的融合效果無法保證。
時間上的感知不連續(xù)
攝像頭采集到的結果是以幀為單位的,常用的感知方法是把連續(xù)單幀的檢測結果串聯(lián)起來,類似后融合的策略,無法充分利用時序上的有用信息。
傳感器前融合
所謂前融合,是將各個傳感器采集到的數據匯總到一起,經過數據同步后,對這些原始數據進行融合。
整體流程圖如下:
圖源:https://mp.weixin.qq.com/s/bmy9EsQaLNPQQKt9mPTroA
優(yōu)點:讓數據更早的做融合,使數據更有關聯(lián)性;比如把激光雷達的點云數據和攝像頭的像素級數據進行融合,數據的損失也會比較少。
缺點:由于不同傳感器獲取的數據(攝像圖獲取的像素數據以及激光雷達獲取的點云數據),其坐標系是不同的;視覺數據是2D空間,而激光雷達的點云數據是3D空間。所以在異構數據的融合時,有兩種途徑:途徑一:在圖像空間利用點云數據提供深度信息;途徑二:在點云空間利用視覺數據提供語義特征,進行點云染色或特征渲染;
圖源:https://mp.weixin.qq.com/s/bmy9EsQaLNPQQKt9mPTroA
所以為了保證將不同坐標系下的數據(像素數據、點云數據)轉換到同一坐標系下進行數據融合方便后續(xù)的感知任務,BEV(Bird Eye View)視角下的感知逐漸受到廣泛的關注。
傳感器中融合
所謂中融合,就是先將各個傳感器采集到的數據通過神經網絡提取數據的特征,再對神經網絡提取到的多種傳感器特征進行特征級的融合,從而更有可能得到**感知結果。對異構數據提取到的特征在BEV空間進行特征級的融合,一來數據損失少,二來算力消耗也較少(相對于前融合),所以針對BEV視角下的感知任務,采用中融合的策略比較多。
BEV視角下的感知任務范式
將攝像頭數據(2D圖片)輸入到特征提取網絡中完成多個攝像頭數據的特征提??;
將所有攝像頭數據提取到的特征通過網絡學習的方式映射到BEV空間下;
在BEV空間下,進行異構數據的融合,將圖像數據在BEV空間下映射的特征與激光雷達點云特征進行融合;(可選,如BEVFormer*用6個攝像頭構建BEV空間特征)
進行時序融合,融合前幾個時刻的特征,增強感知能力;(個人認為:引入時序特征后可以在一定程度上解決遮擋問題)
根據獲得到BEV特征,用于下游任務;(車道線檢測、障礙物檢測、3D目標檢測等子任務,相當于整個模型是一個多任務學習模型)
BEV視角下的感知具有的優(yōu)勢
跨攝像頭融合和異構數據融合更容易實現
跨攝像頭融合或者異構數據進行融合時,由于不同數據其表示的坐標系不同,需要用很多后處理規(guī)則去關聯(lián)不同傳感器的感知結果,流程非常復雜。在BEV空間內做融合后,通過網絡自主學習映射規(guī)則,產生BEV特征用于感知下游任務,算法實現更加簡單,并且BEV空間內視覺感知到的物體大小和朝向也都能直接得到表達。
分享
微信
新浪微博
QQ
分享到微信
×
微信
新浪微博
QQ
瀏覽器自帶分享功能也很好用哦~
上一篇:
備受青睞的4D毫米波成像雷達,何以助力高階自動駕駛落地?
下一篇:
一文讀懂無人駕駛 - 感知模塊
相關新聞
智能駕駛在研究中的問題
2023-02-17
無人駕駛汽車在其優(yōu)勢凸顯的同時也更加暴露出其問題。無人駕駛汽車的問題包括局限性高、人文接受程度問題和安全防御性低等...
滬公網安備 31011402011805號
?2022 上海濟馭科技有限公司 版權所有
滬ICP備2022018020號-1
您的瀏覽器不支持 HTML5 video 標簽
選擇區(qū)號