1. どんなもの?
- 大量の正常データと少量の異常データからAnomaly Detectionを行う
- 入力は2入力でWeight SharingされたNNから得られた特徴ベクトル同士を結合して異常度回帰
2. 先行研究と比べてどこがすごい?
- 正常データからAnomaly Detectionモデルを作れるのは当たり前
- 実利用においては,少量の異常データを如何にうまく使うかが求められる
- DevNetの異常度のreference scoreがデータに一切依存していないことを改善?
3. 技術や手法の"キモ"はどこ?
- Pairwise Relation を学習
- 大量の正常データと少量の異常データからAnomaly Detectionを行う
- テスト時には正常データと異常データと比較することで異常度算出
変数の定義
- U={u1,u2,⋯,uN} : unlabeled samples (正常データとごく少量の異常データ)
- A={a1,a2,⋯,aK} : labeled samples (少量の異常データ)
- その他の変数は下を参照

Loss関数
Θargmin∣B∣1xi,xj,yij∈B∑∣yij−ϕ((xi,xj);Θ)∣+λR(Θ)
- B はU(正常)とA(異常)からサンプリングされたサンプルで構成
- c1<c2<c3
- 異常/異常の組み合わせ : y=c1 (めちゃめちゃ遠くに)
- 異常/正常の組み合わせ : y=c2 (遠くに)
- 正常/正常の組み合わせ : y=c3 (近くに)

異常度の算出
sxk=2E1[i=1∑Eϕ((ai,xk);Θ∗)+j=1∑Eϕ((xk,uj);Θ∗)]
- xkが異常ならsxkが大(理論値 : c1+c2)
- xkが正常ならsxkが小(理論値 : c2+c3)
4. どうやって有効だと検証した?
- 様々なAD datasetでSoTA
- Deep SVDD: AD.タスクに合わせてenhanceしたモデルを実装したとのこと
- prototypical networks (FSNet) : few-shot classification
- iForest: AD
- DevNet: 筆者のmethod

5. 議論はあるか?
- c1, c2, c3のチューニングは必要?
- サンプリング方法を同じにしたSiamse Networkとの比較は?
- Deep SVDDをどうenhanceしたか?
6. 次に読むべき論文はある?