機械知覚&ロボティクスグループ
中部大学

Deep Learning 口頭発表

階層型Knowledge DistillationによるDNNのコンパクト化

Author
西行健太, 山下隆義, 藤吉弘亘
Publication
パターン認識・メディア理解研究会, 2017

Download: PDF (Japanese)

Knowledge DistillationによるDNNのコンパクト化は,Student Networkの学習に中間層の情報を十分に活かせていないため,精度の低下を招く場合がある.本稿では,Teacher/Student Networkの中間層に対して,下位層から順にKnowledge Distillationを行う階層型Knowledge Distillationを提案する.中間層のKnowledge Distillationを行う際に,既存手法のSoft Targetだけでなく,確率分布間の距離推定を適用することで,高精度なStudent Networkを生成することが可能であることを示す.CIFAR-10を用いた評価実験により,従来手法と比較して,約2%の精度向上を確認した.

前の研究 次の研究