ICCV和CVPR是兩大頂尖國際計算機視覺會議,智車科技已經總結了CVPR 2019 無人駕駛相關論文合集(附下載鏈接)。今天,小編帶大家看看另一大頂尖國際計算機視覺會議ICCV2019有哪些研究成果吧。
ICCV每兩年舉行一次,今年是在韓國首爾舉行,共提交了1076篇論文。下面是關於感知、規劃、建圖&定位、自動駕駛數據管理四大方面的論文情況總結。
感興趣的小夥伴可訪問下文中的鏈接或公眾號後臺回覆“ICCV2019”獲取資料。
傳送門:CVPR 2019 無人駕駛相關論文合集(附下載鏈接)
感知
【Fast PointR-CNN】
論文:http://openaccess.thecvf.com/content_ICCV_2019/papers/Chen_Fast_Point_R-CNN_ICCV_2019_paper.pdf
簡介:騰訊和香港大學聯合發表的論文基於KITTY提出了一種新的使用激光雷達技術的快速三維檢測方法。它將立體像素和點雲表示合併在一個兩階段的方法中,以利用兩者的優勢:立體像素表示用於初始提案,點雲表示用於細化階段。
【Range Adaptation for 3D Object Detection in LiDAR】
論文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Wang_Range_Adaptation_for_3D_Object_Detection_in_LiDAR_ICCVW_2019_paper.pdf
簡介:沃爾沃與杜克大學聯合發表的文章表示隨著激光雷達輸入變得更加稀疏,現有的三維檢測網絡的性能隨著距離的增加而降低。為此,本文提出了一種基於距離的神經網絡性能改進方法,以提高對遠距離目標的性能。
【M3D-RPN:Monocular 3D Region Proposal Network for Object Detection】
論文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Wang_Range_Adaptation_for_3D_Object_Detection_in_LiDAR_ICCVW_2019_paper.pdf
項目代碼:
https://github.com/garrickbrazil/M3D-RPN
簡介:密歇根州立大學的文章提出一種新的單鏡頭單目三維目標檢測方法,極大地提高了基於KITTY數據集的技術水平。
【VehicleDetection With Automotive Radar Using Deep Learning on Range-Azimuth-DopplerTensors】
論文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/CVRSUAD/Major_Vehicle_Detection_With_Automotive_Radar_Using_Deep_Learning_on_Range-Azimuth-Doppler_ICCVW_2019_paper.pdf
簡介:美國高通公司的團隊探索了一種通過雷達輸出探測車輛的方法。與其他方法不同的是,作者提出了處理原始傳感器測量數據以提高性能。
【JointMonocular 3D Vehicle Detection and Tracking】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Hu_Joint_Monocular_3D_Vehicle_Detection_and_Tracking_ICCV_2019_paper.pdf
項目代碼:
https://github.com/ucbdrive/3d-vehicle-tracking
簡介:加州大學伯克利分校表示檢測和跟蹤任務通常在一個模塊化的反病毒堆棧中相互獨立建模。這項工作提出了一種端到端的神經網絡,它只使用一個攝像頭就能學會兩者。
【How Do NeuralNetworks See Depth in Single Images?】
論文:http://openaccess.thecvf.com/content_ICCV_2019/papers/van_Dijk_How_Do_Neural_Networks_See_Depth_in_Single_Images_ICCV_2019_paper.pdf
簡介:荷蘭代爾夫特理工大學近年來從單一圖像的深度方法有顯著提高。作者研究了這些方法是如何工作的,得出的結論是它們過度適合物體在圖像中的垂直位置。如果攝像頭安裝在車上的不同位置可能會導致錯誤。
【Robust Multi-Modality Multi-Object Tracking】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhang_Robust_Multi-Modality_Multi-Object_Tracking_ICCV_2019_paper.pdf
項目代碼:
https://github.com/ZwwWayne/mmMOT
簡介:南洋理工大學的多模態感知(在激光雷達和攝像頭中檢測和跟蹤目標)通常是通過模塊化的、多階段的方法實現的,每個方法都有自己的假設。該方法允許將這些單獨的步驟合併到一個端到端可訓練的系統中,從而提高的性能。
感知&規劃
【Exploring theLimitations of Behavior Cloning for Autonomous Driving】
論文:http://openaccess.thecvf.com/content_ICCV_2019/papers/Codevilla_Exploring_the_Limitations_of_Behavior_Cloning_for_Autonomous_Driving_ICCV_2019_paper.pdf
項目代碼:
https://github.com/felipecode/coiltraine/blob/master/docs/exploring_limitations.md
簡介:豐田研究所表示目前自動駕駛汽車(AVs)的軌跡規劃仍然主要是手工工作。使用機器學習解決這個問題的方法之一是模仿現有的驅動程序。作者研究了這種方法的侷限性,並提出了一個新的數據集來評估學習策略的性能。
【TowardsLearning Multi-Agent Negotiations via Self-Play】
http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Tang_Towards_Learning_Multi-Agent_Negotiations_via_Self-Play_ICCVW_2019_paper.pdf
簡介:蘋果公司表示強化學習可能是機器人在沒有人工編碼的情況下學習如何行動的一種強有力的方式,但在現實的機器人技術中很難應用。在本論文中,作者使用模擬來評估一個基於強化學習的系統。
【PIE: ALarge-Scale Dataset and Models for Pedestrian Intention Estimation andTrajectory Prediction】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Rasouli_PIE_A_Large-Scale_Dataset_and_Models_for_Pedestrian_Intention_Estimation_ICCV_2019_paper.pdf
項目數據集:
http://data.nvision2.eecs.yorku.ca/PIE_dataset/
簡介:約克大學提出了一個新的數據集來預測行人的意圖和未來的軌跡。作者還為這些任務提供了基線模型。
建圖&定位
【DAGMapper:Learning to Map by Discovering Lane Topology】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Homayounfar_DAGMapper_Learning_to_Map_by_Discovering_Lane_Topology_ICCV_2019_paper.pdf
簡介:Uber ATG為自動駕駛汽車創建了高清語義映射工作,提出了一種自動生成語義地圖的方法,實現了89%的正確拓撲。
【GSLAM: AGeneral SLAM Framework and Benchmark】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhao_GSLAM_A_General_SLAM_Framework_and_Benchmark_ICCV_2019_paper.pdf
項目代碼:
https://github.com/zdzhaoyong/GSLAM
簡介:中國西北工業大學表示SLAM系統在過去十年中得到了顯著的發展,在此基礎上,提出了一個統一的框架來比較現有方法的不同組成部分,並幫助開發新的方法。
【LPD-Net: 3DPoint Cloud Learning for Large-Scale Place Recognition and Environment Analysis】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Liu_LPD-Net_3D_Point_Cloud_Learning_for_Large-Scale_Place_Recognition_and_ICCV_2019_paper.pdf
簡介:香港中文大學在預先構建的地圖中,基於雷達的本地化是自動駕駛汽車視覺堆棧的關鍵組成部分。在這篇論文中,作者提出了一個全局學習描述符來識別車輛在地圖的哪個部分。
【SemanticKITTI:A Dataset for Semantic Scene Understanding of LiDAR Sequences】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Behley_SemanticKITTI_A_Dataset_for_Semantic_Scene_Understanding_of_LiDAR_Sequences_ICCV_2019_paper.pdf
網址:
http://www.semantic-kitti.org/
項目代碼:
https://github.com/PRBonn/semantic-kitti-api
簡介:德國波恩大學提出了一種新的數據集,它提供了所有KITTY序列中點雲的語義註釋。以此來開發地圖和感知系統的語義分類。
自動駕駛數據管理
【DBUS: HumanDriving Behavior Understanding System】
http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Li_DBUS_Human_Driving_Behavior_Understanding_System_ICCVW_2019_paper.pdf
簡介:滴滴出行聯合南加利福尼亞大學表示Crowd-sourcing是一種收集大量人類駕駛數據來訓練自動駕駛系統的方法。使這些數據可搜索且有用。為了解決這個問題,作者提出了一個端到端系統,該系統允許處理、索引和查詢大量的驅動數據,以檢索相關的場景。
【Large ScaleMultimodal Data Capture, Evaluation and Maintenance Framework for AutonomousDriving Datasets】
http://openaccess.thecvf.com//content_ICCVW_2019/papers/AUTONUE/Lakshminarayana_Large_Scale_Multimodal_Data_Capture_Evaluation_and_Maintenance_Framework_for_ICCVW_2019_paper.pdf
項目代碼:
https://github.com/intel/driving-data-collection-reference-kit
簡介:因特爾公司表示自動駕駛不僅是對人工智能的挑戰,也是一個重大的工程和數據管理挑戰。本文描述了一個存儲和處理大量自動駕駛數據的案例研究和所涉及的挑戰。
【Meta-Sim:Learning to Generate Synthetic Datasets】
http://openaccess.thecvf.com/content_ICCV_2019/papers/Kar_Meta-Sim_Learning_to_Generate_Synthetic_Datasets_ICCV_2019_paper.pdf
項目代碼:
https://github.com/nv-tlabs/meta-sim
簡介:NVIDIA聯合多倫多大學在具有挑戰性的條件下綜合數據是訓練或測試自動駕駛堆棧的方法之一。本文提出了一種基於用戶文本輸入的場景生成模型。
【Advanced Pedestrian Dataset Augmentation for Autonomous Driving】
http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Vobecky_Advanced_Pedestrian_Dataset_Augmentation_for_Autonomous_Driving_ICCVW_2019_paper.pdf
簡介:布拉格捷克理工大學在具有挑戰性的條件下綜合數據是訓練或測試自動駕駛堆棧的方法之一。作者提出了使用GANs來生成行人檢測問題的數據。
【更多ICCV的論文請訪問如下鏈接】
https://docs.google.com/spreadsheets/d/1hNT7QoBB_hRSnOHqURzDraslr90jT0Pf5rVsvnOUUiE/edit?usp=sharing
【歡迎大家提供行業新聞熱點,商業合作請聯繫:18562613430】
閱讀更多 智車科技 的文章