Deep Learning
Binarized-DCNN による識別計算の高速化とモデル圧縮
- Author
- 神谷龍司, 山下隆義, 安倍満, 佐藤育郎, 山内悠嗣, 藤吉弘亘
- Publication
- パターン認識・メディア理解研究会, 2016
Download: PDF (Japanese)
Deep Convolutional Neural Network (DCNN) は,一般物体認識やセマンティックセグメンテーション等 の様々なタスクにおいて高い認識性能を実現した.DCNN は計算量とパラメータ数が非常に多いため,膨大な識別時 間と多大なメモリ量を必要とする.層をより深くすることで認識精度が向上する傾向が見られ,これに伴い識別時間 に加えモデルサイズも増加するという問題が発生する.組み込みやモバイル機器等の低スペックのデバイスで使用す るには,識別計算の高速化とモデルサイズの圧縮が大きな課題となる.本研究では,これらの問題を再学習なしで解 決する Binarized-DCNN を提案する.提案手法は,Quantization sub-layer と結合係数の二値分解を導入し,実数同 士の内積計算を二値同士の内積計算に置き換えることで,既存のネットワークモデルに対して再学習なしに識別計算 の高速化及びモデルサイズの圧縮を実現する.二値同士の演算は XOR や AND などの論理演算とビットカウントに より高速な演算が可能となる.評価実験により,エラー増加率を 2.0%程度に抑え,約 2.0 倍の高速化と約 80%のモデ ル圧縮を達成した.