韓鬆、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

機器之心&ArXiv Weekly Radiostation

參與:杜偉,楚航,羅若天

本週的重要論文包括 MIT 韓松團隊提出的 GAN 通用壓縮方法,以及西湖大學登上《Science》封面的新冠病毒研究。

目錄:

  1. GAN Compression: Efficient Architectures for Interactive Conditional GANs
  2. 1st Place Solutions for OpenImage2019 - Object Detection and Instance Segmentation
  3. Stanza: A Python Natural Language Processing Toolkit for Many Human Languages
  4. Natural Language Processing and Text Mining with Graph-Structured Representations
  5. Circle Loss: A Unified Perspective of Pair Similarity Optimization
  6. Structural basis for the recognition of SARS-CoV-2 by full-length human ACE2
  7. Julia Language in Machine Learning: Algorithms, Applications, and Open Issues
  8. ArXiv Weekly Radiostation:NLP、CV、ML更多精選論文(附音頻)


論文 1:GAN Compression: Efficient Architectures for Interactive Conditional GANs

  • 作者:Muyang Li、Jun-Yan Zhu、Song Han 等
  • 論文鏈接:https://arxiv.org/pdf/2003.08936v1.pdf


摘要:生成模型 GAN 是機器學習領域裡最為重要的發展方向之一。但這類算法需要消耗巨量算力,大多數研究者已經很難得出新成果。近年來,這一方向頗有被大型機構壟斷的趨勢。但近日,

來自麻省理工學院(MIT)、Adobe、上海交通大學的研究者提出了一種用於壓縮條件 GAN 的通用方法。這一新技術在保持視覺保真度的同時,將 pix2pix,CycleGAN 和 GauGAN 等廣泛使用的條件 GAN 模型的計算量減少到 1/9~1/21。該方法適用於多種生成器架構、學習目標,配對或非配對設置。
GAN 壓縮後的具體性能如何?在研究者們展示的 Demo 中,使用 CycleGAN 為視頻中的馬添加斑馬條紋所需的算力不到 1/16,幀數提高了三倍,而且效果還有所提升。值得一提的是,該研究所使用的硬件平臺是英偉達的邊緣 AI 計算芯片 Jetson Xavier GPU。根據官方公佈的數據,Jetson Xavier 的 INT8 算力為 22+10TOPS,驍龍 865 則是 15TOPS。壓縮後的 GAN 現在看來已經可以跑在機器人、無人機等小型設備上了,未來塞進手機指日可待。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

文中 CAN 壓縮方法的整體架構圖。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

Cityscapes、Edges→Shoes 以及 Horse→Zebra 數據集上效果比較。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

在 NVIDIA Jetson AGX Xavier、NVIDIA Jetson Nano、1080Ti GPU 和 Xeon CPU 上測到的內存和延遲下降。
推薦:GAN 也可以大幅壓縮,MIT 韓松團隊的最新研究讓眾多研究者們為之一振。
論文 2:1st Place Solutions for OpenImage2019 - Object Detection and Instance Segmentation

  • 作者:Yu Liu、Guanglu Song、Xiaogang Wang 等
  • 論文鏈接:https://arxiv.org/pdf/2003.07557v1.pdf


摘要:在本文中,來自港中文、南洋理工以及港大等的研究者提出 Decoupling Head(DH),它通過自學習的最佳特徵提取來解耦目標分類和迴歸,從而帶來巨大的性能提升。此外,他們將 soft-NMS 算法調整為 adj-NMS,以獲得穩定的性能提升。最後,通過 voting 確定邊界框的位置和置信度,進而提出了一種設計合理的集成策略。
此外,研究者還將介紹幾種訓練/推理策略以及一些稍作改進的技巧。鑑於這些細節,他們訓練和集成了 28 個具有不同 backbone、head 和 3 + 2 專家模型的全局模型,並在 OpenImage 2019 目標檢測挑戰賽上的公開和私有排行榜上排名第一。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

利用 DH 實現更快速 RCNN 的 pipeline。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

具有不同 backbone 的 DH 上的控制變量研究。DCN 和 MT 分別表示可變形 convnet 和多尺度測試;PA 表示求取 epoch 參數的均值。
推薦:給定這類表現良好的實例邊界框,研究者進一步設計了一個簡單的實例級語義分割 pipeline,並在分割挑戰中取得了第一名。

論文 3:Stanza: A Python Natural Language Processing Toolkit for Many Human Languages

  • 作者:Peng Qi、Yuhao Zhang、Christopher D. Manning 等
  • 論文鏈接:https://arxiv.org/pdf/2003.07082v1.pdf


摘要:在本文中,來自斯坦福大學的研究者將介紹 Stanza,這是一個支持 66 種人類語言的開源 Python 自然語言處理工具包。與現有的廣泛使用的工具包相比,Stanza 具有用於語言分析的語言不可知的全神經管道,包括標記化、多詞標記擴展、詞形化、詞性和詞性和形態特徵標記,依賴項解析以及命名實體識別。
他們已經對 Stanza 進行了總共 112 個數據集的訓練,其中包括 Universal Dependencies 樹庫和其他多語種語料庫,結果顯示相同的神經體系結構可以很好地泛化並在所有測試的語言上實現優越性能。此外,Stanza 包括一個與廣泛使用 Java Stanford CoreNLP 軟件相連接的本地 Python 接口,該接口進一步擴展了其功能,以涵蓋共引用解析和關係提取等其他任務。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

本文 Stanza 神經 NLP pipeline 整體架構圖。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

本文 Stanza 與其他流行 NLP 工具包的特性對比。
推薦:一經開源,便引起了社區的熱議。李飛飛就在推特上點讚了這個項目。
論文 4:Natural Language Processing and Text Mining with Graph-Structured Representations

  • 作者:Bang Liu
  • 論文鏈接:https://sites.ualberta.ca/~bang3/files/PhD-Thesis.pdf


摘要:自然語言的形式及其語意具有層次性(hierarchical),組合性(compositional)和靈活性(flexible)。已有的研究並未充分利用各類文本中存在的語義結構。圖(graph)是一種通用且強大的表示形式,可以表達各種不同對象以及它們之間的聯繫,無論是在自然語言處理,還是在社交網絡,現實世界等各種場景都無處不在。本論文在深度學習強大的表示學習能力的基礎上,設計並結合了不同的文本的圖結構化表示,並利用圖結構計算模型,例如圖神經網絡(Graph Neural Networks), 去解決不同的自然語言處理和文本挖掘問題。
論文包含三大部分:第一部分介紹了文本的聚類和匹配,提出各類匹配問題的結構化算法,並進一步提出 Story Forest 系統用於新聞事件的聚類組織和結構化表示。該系統落地到騰訊 QQ 瀏覽器熱點事件挖掘。第二部分關注文本挖掘,提出了 Attention Ontology 興趣圖譜,挖掘和描述用戶不同粒度的興趣點,建立不同興趣點之間的聯繫,並可用於刻畫文章主題。這部分工作顯著提高了 QQ 瀏覽器,手機 QQ,微信等應用中的信息流推薦系統的效果。第三部分關注文本生成,提出了 ACS-QG 系統,自動從無標註文本中生成高質量的問答對,可用於問答系統的訓練,有助於大大減少數據集創建成本,以及提高機器閱讀理解的能力。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

論文組成架構。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

基於圖結構表徵的論文內容概覽。
推薦:本文是阿爾伯塔大學 Bang Liu 的博士畢業論文,此君公開自己的 thesis 可謂自信,堪稱大佬!
論文 5:Circle Loss: A Unified Perspective of Pair Similarity Optimization

  • 作者:Yifan Sun、Changmao Cheng、Yichen Wei 等
  • 論文鏈接:https://arxiv.org/pdf/2002.10857.pdf


摘要:深度特徵學習有兩種基本範式,分別是使用類標籤和使用正負樣本對標籤進行學習。使用類標籤時,一般需要用分類損失函數(比如 softmax + cross entropy)優化樣本和權重向量之間的相似度;使用樣本對標籤時,通常用度量損失函數(比如 triplet 損失)來優化樣本之間的相似度。這兩種學習方法之間並無本質區別,其目標都是最大化類內相似度(s_p)和最小化類間相似度(s_n)。
在這篇論文中,來自曠視研究院、北航、澳大利亞國立大學和清華大學的研究者提出用於深度特徵學習的 Circle Loss,從相似性對優化角度正式統一了兩種基本學習範式(分類學習和樣本對學習)下的損失函

數。通過進一步泛化,Circle Loss 獲得了更靈活的優化途徑及更明確的收斂目標,從而提高所學特徵的鑑別能力;它使用同一個公式,在兩種基本學習範式,三項特徵學習任務(人臉識別,行人再識別,細粒度圖像檢索),十個數據集上取得了極具競爭力的表現。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

降低 (s_n - s_p) 的常用優化方法與新提出的降低 (α_ns_n − α_ps_p) 的優化方法之間的對比。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

使用 ResNet34 主幹網絡在 LFW、YTF 和 CFP-FP 上的人臉識別準確度。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

在 CUB-200-2011、Cars196 和 Stanford Online Products 上與當前最佳結果的比較,這裡報告的是 R@K(%)。
推薦:實驗表明,在人臉識別、行人再識別、細粒度的圖像檢索等多種深度特徵學習任務上,Circle Loss 都取得了極具競爭力的性能。該論文入選 CVPR 2020 Oral Presentation


論文 6:Structural basis for the recognition of SARS-CoV-2 by full-length human ACE2

  • 作者:Renhong Yan、Yuanyuan Zhang、Qiang Zhou 等
  • 論文鏈接:https://science.sciencemag.org/content/367/6485/1444


摘要:西湖大學周強實驗室在論文《Structural basis for the recognition of the SARS-CoV-2 by full-length human ACE2》中,首次公開了新型冠狀病毒表面 S 蛋白受體結合結構域與細胞表面受體 ACE2 全長蛋白複合物的三維結構,展示了新冠病毒侵染人體細胞的詳細過程。這項成果登上了最新一期《Science》雜誌的封面
從結構上來說,病毒由一個核酸長鏈(DNA 或 RNA)和蛋白質外殼構成。在感染宿主細胞的過程中,病毒表面的蛋白會與人體表面的受體結合,就像一隻手抓住了門把手。而在新冠病毒中,「這隻手」就是病毒表面的 S 蛋白,它的目標就是抓住「門把手」ACE2 受體。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

ACE2 受體、受體蛋白和表面蛋白。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

在周強團隊的不懈努力下,我們得以洞悉新冠病毒 S 蛋白與 ACE2 的高分辨率三維空間結構。上圖為其受體結合區域的複合物結構圖。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

RBD(receptor binding domain)和 ACE2 的相互作用示意圖。
推薦:隨著新冠病毒感染人數在各個國家和地區的激增,西湖大學的這項研究或許可以為全球對抗疫情做出貢獻。
論文 7:Julia Language in Machine Learning: Algorithms, Applications, and Open Issues

  • 作者:Kaifeng Gao、Jingzhi Tu、Salvatore Cuomo 等
  • 論文鏈接:https://arxiv.org/pdf/2003.10146v1.pdf


摘要:機器學習正在推動科學和工程學許多領域的發展。一種簡單而有效的編程語言可以加速機器學習在各個領域的應用。當前,最常用於開發機器學習算法的編程語言包括 Python、MATLAB 和 C / C ++。但是,這些語言都無法很好地兼顧效率和簡單性。
Julia 語言是一種快速且易於使用的開源編程語言,最初是為高性能計算而設計的,可以很好地平衡高效性和簡單性。本文總結了 Julia 語言在機器學習中的應用方面的相關研究工作和發展。首先調查了以 Julia 語言開發的流行機器學習算法;然後研究了使用 Julia 語言實現的機器學習算法的應用;最後討論了在機器學習中使用 Julia 語言所產生的開放性問題和潛在的未來方向。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

Julia 與其他編程語言的 benchmark 對比。

7 Papers|韓松、朱儁彥等人提出GAN壓縮法;西湖大學登Science封面

使用 Julia 語言開發的主要監督學習算法。


分享到:


相關文章: