02.28 CVPR 2020“開獎”啦!最新亮點論文搶先看

2020 年 2 月 24 日,CVPR 2020 終於“開獎”了!


今年有效的投稿數量為 6656 篇,共接受 1470 篇論文,錄取率為 22%。


相較於前兩年的數據:2018 年有效投稿數量為3300篇,收錄 979 篇,錄取率為 29%;2019 年有效投稿數量為5160篇,收錄1300,錄取率為 25%。


今年的投稿數量增加了,但是錄取率卻降低了,由此說明競爭越來越激烈了。


今天,圖靈君為大家分享幾篇CVPR 2020的亮點論文。


1. PolarMask: Single Shot Instance Segmentation with Polar Representation


CVPR 2020“開獎”啦!最新亮點論文搶先看


該論文介紹了一種single shot的實例分割框架PolarMask,最大的貢獻在於把更復雜的實例分割問題,轉化成在網絡設計和計算量複雜度上和物體檢測一樣複雜的任務,把對實例分割的建模變得簡單和高效。


論文鏈接

https://arxiv.org/pdf/1909.13226.pdf


開源代碼

https://github.com/xieenze/PolarMask


2. GhostNet: More Features from Cheap Operations

CVPR 2020“開獎”啦!最新亮點論文搶先看

本文提出了一種新穎的Ghost模塊,可以通過低代價的操作生成更多的特徵圖,搭建了超越了MobileNet v3的輕量級神經網絡


論文鏈接

https://arxiv.org/pdf/1911.11907.pdf


開源代碼

https://github.com/iamhankai/ghostnetgithub.com


3. AdderNet: Do We Really Need Multiplications in Deep Learning?


CVPR 2020“開獎”啦!最新亮點論文搶先看


在本文中,作者提出了通過AdderNets來交替深層神經網絡(尤其是卷積神經網絡(CNN))中大量的乘法運算,並以更低廉的加法來減少計算成本。


為了獲得更好的性能,作者開發了一種特殊的反向傳播方法來研究AdderNets的全精度梯度。然後,我們根據每個神經元梯度的大小,提出一種自適應學習速率策略來增強AdderNets的訓練過程。


論文鏈接

https://arxiv.org/pdf/1912.13200arxiv.org


4. CARS: Contunuous Evolution for Efficient Neural Architecture Search


CVPR 2020“開獎”啦!最新亮點論文搶先看


現有的神經結構搜索(NAS)算法中,由於效率的原因,搜索技術主要以可微分方法為主。與此相反,本文作者開發了一種高效的連續進化方法來搜索神經網絡。


在最近的迭代中,在一個超級網絡中共享參數的種群架構將在具有幾個epoch的訓練數據集上進行調優。下一個進化迭代的搜索將直接繼承超網絡和廣義網絡,加速網絡的優化生成。


論文鏈接

https://arxiv.org/pdf/1909.04977arxiv.org


開源代碼

https://github.com/huawei-noah/CARSgithub.com


5. GraphTER: Unsupervised Learning of Graph Transformation Equivariant Representations via Auto-Encoding Node-wise Transformations


CVPR 2020“開獎”啦!最新亮點論文搶先看


這個方法是通過對Graph 中node進行全局或局部變換與擾動,並通過對node-wise transformations進行預測來實現GNN網絡的self-training。學習得到的特徵既可以是node-wise feature,也可以是對整個graph的feature。


該方法的思想:好的graph特徵應當可以很好地對graph地鏈接與拓撲結構進行編碼,進而能夠從中提取出作用在graph拓撲結構上地各種變換。


論文鏈接

https://arxiv.org/pdf/1911.08142.pdf


6. Transformation GAN for unsupervised Image Synthesis and Representation Learning


這篇論文中,研究者將AET 思想用來訓練GAN模型。這裡用AET對應的loss作為正則化項來更好的訓練GAN中的discriminator。


眾所周知,GAN 中的discriminator訓練極容易過擬合,而加入各種新的變換後,discriminator 網絡可以更好的感知到在不同的變換下,真實樣本和虛假樣本之間的區別,進而可以更好的訓練出更好的generator網絡。


通過AET loss,研究者不再直接把變換後的圖像作為正例來訓練discriminator,而僅僅通過預測transformation本身來對discrminator的訓練進行正則化。這種方法,可以使用更大範圍地變換,進而獲得更好地性能。


論文鏈接

https://arxiv.org/pdf/1906.08628.pdf


7. Learning Generalized Transformation Equivariant Representations via AutoEncoding Transformations


CVPR 2020“開獎”啦!最新亮點論文搶先看


Transformation Equivariant Representations (TERs)的目標是通過擴展卷積神經網絡(CNNs)成功基礎上的翻譯等方差概念,來捕獲與各種轉換等價的內在視覺結構。


為此,研究者提出了AutoEncoding Transformations(AET)和 AutoEncoding Variational Transformations(AVT)模型,以便從通用轉換組中學習視覺表示。AET通過直接解碼學習表示的轉換進行訓練,AVT通過最大化學習表示與轉換之間的聯合互信息進行訓練。


AET 是通過對變換本身進行自編碼實現自監督學習(self-supervised)的一種通用方法和架構。本文中,AET是一種更加直接地利用對變換本身的預測來實現無監督學習地方法。


論文鏈接

https://arxiv.org/pdf/1906.08628.pdf


8. Multi-Modal Domain Adaptation for Fine-Grained Action Recognition


細粒度動作識別數據集表現出環境偏差,其中多個視頻序列是從有限數量的環境中捕獲的。在一個環境中培訓一個模型,然後部署到另一個環境中,由於不可避免的領域轉換,會導致性能下降。


無監督域適應(UDA)方法經常用於源域和目標域之間的對抗訓練。然而,這些方法並沒有探索視頻在每個領域的多模態性質。在這項工作中,研究者利用模式的一致性作為一種自我監督的調整方法,除對抗調整外,還將其用於UDA。


CVPR 2020“開獎”啦!最新亮點論文搶先看


論文鏈接:https://arxiv.org/abs/2001.09691


9. Distribution Aware Coordinate Representation for Human Pose Estimation


儘管熱圖是人體姿態估計中事實上的標準座標表示,但在文獻中卻從未有過關於它的系統研究。


該論文填補了這一空白,通過研究座標表示與一個特定的重點在熱圖。有趣的是,我們發現將預測的熱圖解碼為原始圖像空間中的最終關節座標的過程,對於人體姿態估計性能具有驚人的重要意義,然而這在以前並沒有被認識到。


CVPR 2020“開獎”啦!最新亮點論文搶先看


論文鏈接:

https://arxiv.org/abs/1910.06278


10. Making Better Mistakes: Leveraging Class Hierarchies with Deep Networks


在過去的十年裡,深度神經網絡極大地改進了圖像分類,但它的成功之處就在於它將所有的類(除了基本事實之外)都視為同樣錯誤的性能指標。


這就導致了這樣一種情況:與以前相比,犯錯誤的可能性降低了,但即使發生了錯誤,也同樣可能是荒謬的或災難性的。過去的工作已經認識到並試圖解決這個問題,通常通過在類層次結構中使用圖距離。


但是,自從計算機視覺的深度學習時代到來,這在很大程度上被忽略了。在本文中,研究者的目標是通過回顧過去的方法和提出兩個簡單的交叉熵損失修正來重新引起人們對這個問題的興趣。


CVPR 2020“開獎”啦!最新亮點論文搶先看


論文鏈接:

https://arxiv.org/abs/1912.09393


CVPR 2020錄取論文鏈接:

http://cvpr2020.thecvf.com/sites/default/files/2020-02/accepted_list.txt


參考鏈接:

https://www.zhihu.com/question/372070853


分享到:


相關文章: