1. どんなもの?
- 大量の正常データと少量の異常データからAnomaly Detectionを行う
- 枠組みとしてはDeep SVDDに近い
2. 先行研究と比べてどこがすごい?
- 正常データからAnomaly Detectionモデルを作れるのは当たり前
- 実利用においては,少量の異常データを如何にうまく使うかが求められる
- end2end
- AnoGANなどはnot end2end
3. 技術や手法の"キモ"はどこ?
- 大量の正常データと少量の異常データからAnomaly Detectionを行う
変数の定義
- : training samples
- : unlabeled samples (正常データとごく少量の異常データ)
- : labeled samples (少量の異常データ)
- : 異常データは少量
- : Scoring Network
Framework
-
Scoring NetworkからScoreを算出
-
Reference Scoreを算出
- 確率分布から個の乱数を生成
- 個の乱数から平均と分散を算出
- なにかNNとかあるわけではないので注意
- は,くらいで十分らしい
-
Deviation Lossを算出
- なら (正常) deviationをに
- なら (異常) deviationをに
4. どうやって有効だと検証した?
- 様々なAD datasetでSoTA
- REPEN: limited labeld dataのAD
- Deep SVDD: AD.タスクに合わせてenhanceしたモデルを実装したとのこと
- prototypical networks (FSNet) : few-shot classification
- iForest: AD
5. 議論はあるか?
- が標準正規分布なら,,となってデータに全く依存しないReference Scoreになってるけどいいのか?
- この筆者の次の論文では解決されるらしい[1]
- 結局ミニバッチのサンプリングをから半分,から半分とってきてるのが大きそう
6. 次に読むべき論文はある?
- Pang, G., Shen, C., Jin, H., & Hengel, A. van den. (2019). Deep Weakly-supervised Anomaly Detection. Retrieved from https://arxiv.org/abs/1910.13601