圖像分割算法 | domain adaptation segmentation - cGANDA算法詳解
論文:Conditional Generative Adversarial Network for Structured Domain Adaptation
會議:CVPR2018
方法:通過使得生成數據source image通過網絡提取的特徵儘可能與真實數據domain image提取的特徵分佈相似,減小domain shift,使得使用生成數據訓練的分割網絡可以用於分割真實數據。
架構:FCN+cGAN
1)生成數據xs和真實數據xt均經過Conv1-5提取特徵得到xsconv5和xtconv5。
2)對於生成數據,使用cGAN將conv1提取的低層detail特徵和noise結合送入cGAN生成特徵與xsconv5結合得到transformed Feature maps.
3)對於判別網絡Discriminator,將判別transformed feature maps和Feature maps for real image,使得兩者分佈儘可能相似。
4)對於分割網絡,使用transformed feature maps通過DeConv預測生成分割結果。
整體來說,這篇論文的思想是,通過使得生成數據生成與真實數據相似的Feature Maps進行分割,從而減小domain shift。
訓練損失函數:
1)整體損失函數:綜合判別器和分割網絡的損失函數
2)判別器損失函數:Feature 之間的Loss
3)分割網絡的損失函數
結果:
real dataset: Cityscapes數據集
source dataset: SYNTHIA和GTA數據集
分析:
1)按理說使得real image 和source image 提取的特徵分佈相似,直接將特徵送到判別器就好了,為什麼需要cGAN?
使用Genarator很大程度上提升了結果,可能是從conv1提取的低層detail信息,對分割起到的幫助。
2)為何cGAN需要noise?
加上noise channels,可以改善結果,可能是noise可以起到擴增數據的作用
閱讀更多 AI深度學習求索 的文章