深度學習預測可解決自動駕駛等問題
到目前為止,自動駕駛汽車中使用的LiDAR的成本要高于某些低檔汽車本身。激光雷達的維護和處理輸出仍然是一項昂貴的工作,令人頭疼。因此,這使得它們成為自動駕駛汽車的商業化生產的較不適合的選擇。
激光雷達在計算“深度”信息方面非常準確,深度信息是無人駕駛汽車執行路徑規劃,與物體保持安全距離等操作的最重要內容之一。這使LiDARs成為集成到自動駕駛汽車中的理想選擇。但是問題是,它們太貴了!
此前,高射程激光雷達的成本約為75,000美元。但是,為降低激光雷達的成本一直在進行昂貴的研究。Alphabet公司的母公司Waymo通過廣泛的研究將成本降低了90%!
到目前為止,自動駕駛汽車中使用的LiDAR的成本要高于某些低檔汽車本身。激光雷達的維護和處理輸出仍然是一項昂貴的工作,令人頭疼。因此,這使得它們成為自動駕駛汽車的商業化生產的較不適合的選擇。
其次,LiDAR在惡劣的天氣條件下不能很好地工作,它們會產生噪點,這可能會使LiDAR點云的輸出不準確。
盡管如此,公司仍應該投資使用LiDAR和點云處理進行自動駕駛的方法,因為誰知道,也許有一天LiDAR也會變得便宜嗎?
相機非常適合捕捉場景的高分辨率細節。但是問題是,它們沒有像LiDAR那樣為我們提供“深度信息” :(折衷方案在世界上到處都是。相機的輸出是高分辨率,但是是2D平面圖像。這幾乎是不可能的??梢詮膯蝹€圖像中獲取“深度信息”,有些方法可以使用立體視覺從圖像中獲取深度。
給定從放置在同一水平高度一定距離的兩個攝像機捕獲的兩個圖像,我們可以使用計算機視覺算法估計深度信息。
在計算機視覺文獻中存在很多立體深度估計算法,但它們都無法同時實現:實時處理、高精確度、全自動的。
人類使用立體視覺(Eyes),即使深度僅為一幅圖像,也能出色地估計深度。甚至可以閉上一只眼睛,并且仍然可以合理地估計深度!
人類是否真的在“學習”如何感知深度?我們無法真正回答這個問題。
但是,深度仍然可以被視為學習問題,因此深度“足夠好”可以解決自我駕駛問題嗎?
現在有幾篇論文將視線深度估計作為學習問題:
1.監督深度估計
“監督”深度學習背后的概念很簡單,收集RGB圖像及其相應的深度圖,訓練類似于“自動編碼器”的體系結構進行深度估計。(盡管訓練起來不那么簡單,但如果不通過訓練過程整合一些特殊技巧,FCN就永遠無法真正發揮作用:)。
盡管此方法更易于掌握,但在現實生活中收集深度圖是一項昂貴的任務。LiDAR數據可用于訓練這類網絡,因此,如果我們對由LiDAR收集的數據進行訓練,則神經網絡的性能將明顯優于LiDAR,但仍然可以,因為我們不需要那種級別的準確性來駕駛汽車例如,知道樹上是否有葉子的確切距離。
2.無監督深度估計
僅在一系列環境中記錄質量深度數據是一個具有挑戰性的問題。無監督方法可以在沒有地面真實深度圖的情況下學習深度!
“這種方法只是查看未標記的視頻,并找到一種方法來創建深度圖,方法不是嘗試正確,而是嘗試保持一致?!?/p>
3.神經網絡架構
該網絡具有類似于U-Net的架構,編碼器部分是在ImageNet數據集上訓練的預訓練DenseNet模型。解碼器部分使用雙線性上采樣而不是簡單的上采樣。
簡而言之,我們使用雙線性上采樣是因為它在上采樣后會整體上產生“平滑”圖像。輸出是深度圖,深度圖是圖像大小的一半,這有助于網絡學習更快。
4.圖像增強
對于圖像增強,可以使用以下技術:圖像翻轉,輸入圖像的色彩通道改組,向輸入圖像添加噪點,增加輸入圖像的對比度,亮度,溫度等。這樣可以確保模型在整個訓練過程中始終看到新數據,并更好地泛化未見數據。
目前,深度估計在AR / VR中已經得到了許多應用。