深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

今日 Paper | 深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等

目錄

使用混合精度的方法在GPU集群上進行深度循環神經網絡的訓練

PoseNet3D:無監督的3D人體形狀和姿態估計

AET vs. AED:無監督表示學習通過自編碼變換而不是自編碼數據

基於注意力的視點選擇網絡用於光場視差估計

基於CNN的中文lexicon rethinking NER模型

使用混合精度的方法在GPU集群上進行深度循環神經網絡的訓練

論文名稱:Training distributed deep recurrent neural networks with mixed precision on GPU clusters

作者:Alexey Svyatkovskiy / Julian Kates-Harbeck / William Tang

發表時間:2019/11/30

論文鏈接:https://paper.yanxishe.com/review/13855?from=leiphonecolumn_paperreview0326

推薦原因

核心問題:本文從硬件選取、模型搭建、分佈式計算策略、學習率、損失函數等方面,非常詳細的講解了如何高效使用多達100個GPU進行深度循環神經網絡

創新點:本文沒有相關工作的部分,貴在務實,從實際的研究工作中部署一個高效的GPU集群的角度,討論瞭如何將分佈式計算策略、基於混合精度的訓練模型結合起來,使得模型的訓練速度加快、內存消耗降低,並且模型的表現分數並不會下降。同時,作者還研究了使用參數來對損失函數進行縮放,以此提高模型在集群環境下的收斂速度

研究意義:無論是循環神經網絡,還是卷積神經網絡,模型的規模越來越大,本文作者所提出的各種技巧,能解決訓練過程實際的問題,一方面,能在保證了模型的準確率的情況下減少訓練的成本,另一方面,也有助於在當前的資源下,訓練更大的模型。

這些技巧主要針對GPU集群環境,但也能給單GPU環境的同學提供參考。

今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等
今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等

PoseNet3D:無監督的3D人體形狀和姿態估計

論文名稱:PoseNet3D: Unsupervised 3D Human Shape and Pose Estimation

作者:Tripathi Shashank /Ranade Siddhant /Tyagi Ambrish /Agrawal Amit

發表時間:2020/3/7

論文鏈接:https://paper.yanxishe.com/review/13853?from=leiphonecolumn_paperreview0326

推薦原因

從二維關節中恢復三維人體姿態是一個高度無約束的問題。本文作者提出了一種新的神經網絡框架PoseNet3D,其以2D關節點作為輸入,輸出3D骨架和SMPL人體模型的參數。作者使用了學生-老師框架,從而避免了在訓練過程中使用3D數據如配對/未配對的3D數據、動捕數據、深度圖或者多視角圖像等等。作者首先使用2D人體關鍵點訓練了一個教師網絡輸出3D人體骨架,教師網絡將其知識提取到學生網絡中,然後學生網絡預測基於SMPL人體模型表達的3D人體姿態。

作者的方法在Human3.6M數據集上相比之前無監督的方法,3D關節點預測誤差減少了18%。在自然數據集上,文章方法恢復的人體姿態和網格也是較為自然、真實的,在連續幀上預測結果也比較連續。

今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等

AET vs. AED:無監督表示學習通過自編碼變換而不是自編碼數據

論文名稱:AET vs. AED: Unsupervised Representation Learning by Auto-Encoding Transformations rather than Data

作者:Zhang Liheng /Qi Guo-Jun /Wang Liqiang /Luo Jiebo

發表時間:2019/1/14

論文鏈接:https://paper.yanxishe.com/review/13851?from=leiphonecolumn_paperreview0326

推薦原因

這篇論文提出了一種新的通用的無監督表示學習框架——自編碼變換(Auto-Encoding Transformation,AET)。經典的自編碼數據框架的輸入是圖像,採用編碼-解碼網絡得到重構之後的圖像。而自編碼變換的輸入是常見的變換(如旋轉,射影變換,放射變換等),即圖像和經過變換之後的圖像,經過編碼-解碼結構之後得到重構的變換,重構的變換和原始的變換使用MSE作為損失函數,這對於參數化和非參數化的變換,以及GAN都是有效的。作者通過實驗表明,通過重構變換可以提取到更加豐富並且具有判別性的特徵,當自編碼變換網絡訓練完畢之後,使用編碼部分的網絡結構和權重就可以作為一種特徵提取器,從而泛化到其他具體任務上。作者利用NIN網絡,分別採用基於模型的分類器和不基於模型的分類器(KNN)進行圖像分類實現,其性能比之前的無監督方法要優越。該論文收錄在CVPR 2019,其提出的新的通用的無監督表示學習框架對無監督學習具有很大的啟發作用。

今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等

基於注意力的視點選擇網絡用於光場視差估計

論文名稱:Attention-based View Selection Networks for Light-field Disparity Estimation

作者:Yu-Ju Tsai / Yu-Lun Liu / Ming Ouhyoung / Yung-Yu Chuang

發表時間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13680?from=leiphonecolumn_paperreview0326

推薦原因

這篇論文是用來解決光場圖像(Light-fifield)的深度估計問題。對於光場圖像,其輸入是同一個物體多個不同視角的圖像,作者認為這些視角之間具有很大的重疊,在提取特徵時是存在重複和冗餘現象的。由此,作者提出了一個基於注意力機制的視角選擇網絡,作為多個視角特徵的重要性衡量權重,從而去除一些重疊和冗餘的視角。具體來說,是借鑑雙目深度估計的PSMNet網絡結構,在匹配代價體(cost volume)之後插入一個基於注意力的視角選擇網絡。網絡的輸出是0-1的權重,按照構造形式可以分為無約束的(free),對稱型的(symmetric)和放射狀的(radial)三種形式,並且學習的參數量逐漸減少。這篇論文的想法比較直接,但是確實能取得當前光場圖像深度估計的最佳性能,收錄在AAAI 2020。

今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等
今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等

基於CNN的中文lexicon rethinking NER模型

論文名稱:CNN-Based Chinese NER with Lexicon Rethinking

發表時間:2019/11/6

論文鏈接:https://paper.yanxishe.com/review/13548?from=leiphonecolumn_paperreview0326

推薦原因

本文研究意義:

採用長時短期記憶(LSTM)對字符級中文命名實體識別(NER)目前已經實現了不錯的效果,然而當我們在具體工程化落地的過程中,會出現GPU在並行性計算的時候會和候選詞之間發生衝突的問題,針對這一問題,作者建議採用更快卷積神經網絡CNN重新構建模型,因為LSTM是一種時序網絡不能夠進行並行化計算,而CNN是可以進行並行化計算。通過實驗表明,作者所提出的方法可以執行比最先進的方法快3.21倍,同時實現更好的性能。

今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等
今日 Paper | 深度循环神经网络;PoseNet3D;AET vs. AED;光场视差估计等

雷鋒網雷鋒網雷鋒網


分享到:


相關文章: