講演抄録/キーワード |
講演名 |
2017-05-22 16:20
重みの2のべき乗近似を用いたCNNのFPGA実装に関する一検討 ○宇都宮誉博・尼崎太樹・飯田全広・久我守弘・末吉敏則(熊本大) RECONF2017-6 |
抄録 |
(和) |
画像認識の手法である畳込みニューラルネットワーク(CNN: Convolutional Neural Network)は,様々な分野で利用されている.CNNの組込み機器への実装を考えた場合,低消費電力かつ高速な処理が可能であるFPGA(Field Programmable Gate Array)は有望な選択肢となる.しかしながら,CNNの全結合層では膨大な回数の積和演算が行われるため,FPGAにCNNを実装する際は積和演算回路の構成および重みを読み込む際のメモリアクセスについての工夫が必要となる.そこで本稿では,CNNの全結合層において重みを2のべき乗に近似することで,積和演算回路における乗算をシフト演算回路に置き換える手法を提案する.提案手法によって,乗算演算子を用いて合成した積和演算回路よりもLUTの消費量は最大10.7倍改善され,動作周波数は最大2.6倍向上した.さらに,認識率の低下を約1%程度に抑えつつ,重みの表現に必要なビット幅を3ビットまで抑えることができた. |
(英) |
Convolutional Neural Network (CNN), a method of Image recognition, is utilized in various fields. Considering CNN implementation to embedded devices, Field Programmable Gate Array (FPGA) is one of the promising medium. The feature of FPGA is high speed processing with low power. There are enormous number of multiply-add operations in Fully Connected (FC) layers of CNN. Therefore, for CNN implementation on FPGA, it is required to consider the resource utilization of multiply-add circuit and memory access for weight of neural network. In this paper, we propose power of 2 approximation of weight in FC layers of CNN. This method enables multiply-add circuit to be configured by Shifter and Adder. Our proposed method improved LUT consumption up to 10.7 times and operating frequency up to 2.6 times. Furthermore, the bit width required for weight was reduced to 3 bits. In this case, deterioration of recognition accuracy was suppressed to about 1%. |
キーワード |
(和) |
FPGA / 深層学習 / 畳込みニューラルネットワーク / / / / / |
(英) |
FPGA / Deep Learning / CNN / / / / / |
文献情報 |
信学技報, vol. 117, no. 46, RECONF2017-6, pp. 25-30, 2017年5月. |
資料番号 |
RECONF2017-6 |
発行日 |
2017-05-15 (RECONF) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
RECONF2017-6 |