Tempered Adversarial Networks
13 Jun 2018
TL;DR
- GANの学習は安定しない
- GeneratorとDiscriminatorのバランスを調整するのが難しい
- Mode Collapse
- 普通のGANはfixされたデータ分布に生成分布を近づける
- この手法ではデータ分布を生成分布に近づけるようにして安定化を図った
- データ分布を生成分布に近づけるために Lens Networkを用いる
- この枠組みは,DCGAN・LSGAN・WGANなどObjectiveにかかわらず有効
Tempered Adversarial Networks
GANのもともとのObjectiveは以下
データ分布$X$は学習中ずっと固定されたままである.それに対して,生成分布は学習中常に変化している.
この非対称を解決するためにLens Network ($L$)を用いる.
Lens を $x\sim{X}$ をDiscriminatorに入力する直前に適用する.
Lens の最適化には$L^A_L$と$L^R_L$の2つのLossを用いる. $L^A_L$は敵対的誤差であり,$L^R_L$は再構成誤差である.
再構成誤差はLensがすべて0や写像するなどの自明解への収束を防ぐためである.
レンズは再構成とGANの元々のObjectiveのバランスを自動的に取らせている.
パラメータ$\lambda$は,学習が進むにつれて減少するように設計している.
$\lambda=0$になると,Lensは取り払ってしまう.
論文内では$K=10^5$で固定している.
Lensは単射(1対1対応の写像)である必要はない.
だからLensによって同じデータポイントへ写像されることがあるが,これは分布の複雑さを緩和してくれる.
このようなLensをDiscriminatorの前につけることで,データ分布を生成分布に近づける.
それにより学習が安定する.
以前から,ガウスノイズなどを$x\sim{X}$に付加するテクニックは存在したが,手動でノイズの強さを減衰させていた.
この手法では,Lensがその調節すらも学習している.