目錄
通過強化學習對抽取的摘要進行排序
用於抽象文本摘要的基於深度遞歸生成解碼器
用於可控圖像合成的學習佈局和風格的可重構GANs
BachGAN:基於顯著物體佈局的高分辨率圖像合成
時間序列分類:近鄰vs深度學習模型
通過強化學習對抽取的摘要進行排序
論文名稱:Ranking Sentences for Extractive Summarization with Reinforcement Learning
發表時間:2018/5/17
論文鏈接:https://paper.yanxishe.com/review/14777?from=leiphonecolumn_paperreview0409
推薦原因
本文的研究內容以及創新點:
這是一篇關於文本摘要的文章。目前,學術界對於單一文檔摘要定義為”保留主要信息內容,同時生成較短版本的文檔“,在此背景下,作者把提取文本摘要的任務轉化為句子的排序任務,通過強化學習全局優化ROUGE評估指標,開發了一個提取摘要模型,該模型的訓練算法在學習優化與當前任務相關的損失函數的同時,對候選摘要的維度進行的研究。實驗結果表明,強化學習提供了一種很好的方法,可以指導我們的模型產生信息豐富,流利且簡潔的信息。摘要在CNN和DailyMail數據集上的表現均優於已知模型。
用於抽象文本摘要的基於深度遞歸生成解碼器
論文名稱:Deep Recurrent Generative Decoder for Abstractive Text Summarization
發表時間:2017/5/11
論文鏈接:https://paper.yanxishe.com/review/14778?from=leiphonecolumn_paperreview0409
推薦原因
本文的研究目的和創新點:
本文針對生成文本摘要任務,提出了一種新的模型,該模型的框架依託深度遞歸生成解碼器(DRGN),它是一種面向序列到序列的編/解碼器模型。對於DRGN模型而言,他的學習目標是模型中遞歸潛在的隨機隱含信息,通過學習這些隨機隱含信息,對於提高生成文本摘要的質量極為重要。最後,作者在基準數據集上進行了大量實驗,實驗表明,DRGD模型可以有效的解決文本摘要任務。
用於可控圖像合成的學習佈局和風格的可重構GANs
論文名稱:Learning Layout and Style Reconfigurable GANs for Controllable Image Synthesis
作者:Sun Wei /Wu Tianfu
發表時間:2020/3/25
論文鏈接:https://paper.yanxishe.com/review/15417?from=leiphonecolumn_paperreview0409
推薦原因
這篇論文要解決的是佈局轉圖像的問題,即學習一個生成模型,能夠通過空間佈局信息和樣式信息來合成真實圖像。這篇論文首先提出了從佈局到掩碼到圖像的任務,即學習如何在輸入佈局中展開給定邊界框的對象掩碼,以彌補輸入佈局與合成圖像之間的差距。在此基礎上,這篇論文提出了一種基於生成式對抗網絡的佈局到掩碼到圖像方法,並在圖像和掩模兩個層次上進行了風格控制。圖像級的樣式控制與普通的GANs相同,而對象掩碼級的樣式控制是通過一種新的特徵歸一化方案、實例敏感和布圖感知歸一化來實現的。新方法在COCO-Stuff數據集和可視化基因組數據集上進行了驗證,獲得了較好的性能表現。
BachGAN:基於顯著物體佈局的高分辨率圖像合成
論文名稱:BachGAN: High-Resolution Image Synthesis from Salient Object Layout
作者:Li Yandong /Cheng Yu /Gan Zhe /Yu Licheng /Wang Liqiang /Liu Jingjing
發表時間:2020/3/26
論文鏈接:https://paper.yanxishe.com/review/15416?from=leiphonecolumn_paperreview0409
推薦原因
這篇論文提出了一個新的問題,即從顯著物體佈局來生成高質量圖像。在這個問題中,用戶僅提供物體的佈局,即前景邊界框和類別,由模型發明背景和匹配前景來完成繪圖。為了解決這個問題,這篇論文提出了一個背景幻覺生成對抗網絡(Background Hallucination Generative Adversarial Network,BachGAN),首先通過背景檢索模塊從一個大型候選庫中選擇一組分割圖,然後通過背景融合模塊對這些候選佈局進行編碼,以對給定對象的合適背景進行幻覺處理。通過動態生成幻覺背景表示,BachGAN可以合成具有逼真前景和完整背景的高分辨率圖像。在Cityscapes和ADE20K數據集上進行的實驗證明了BachGAN在生成圖像的視覺保真度及輸出圖像和輸入佈局之間的視覺對齊方面優於現有方法。
時間序列分類:近鄰vs深度學習模型
論文名稱:Time series classification: nearest neighbor versus deep learning models
發表時間:2020/3/20
論文鏈接:https://paper.yanxishe.com/review/15415?from=leiphonecolumn_paperreview0409
推薦原因
深度學習方法在圖像處理等問題上取得了巨大的成功,然而在一維時間序列分類的問題上,動態時間規整(DTW)算法等傳統方法仍然佔據著重要的地位。近年來,有不少研究表明全卷積網絡、殘差網絡等深度學習模型在一些時間序列分類問題中也取得了超越傳統模型的表現。這篇論文通過在UCR的128個時間序列數據集上全面評估基於8種不同度量的近鄰方法和3種不同的深度學習模型,試圖回答是否深度學習模型超越了傳統的距離度量方法。大量的實驗表明,儘管全卷積網絡和殘差網絡的平均準確率優於傳統的距離度量方法,在統計檢驗的視角上這兩種方法沒有顯著優於基於動態時間規整和實補償編輯距離的方法。
雷鋒網雷鋒網雷鋒網
閱讀更多 雷鋒網 的文章