講演名 2017-05-22
重みの2のべき乗近似を用いたCNNのFPGA実装に関する一検討
宇都宮 誉博(熊本大), 尼崎 太樹(熊本大), 飯田 全広(熊本大), 久我 守弘(熊本大), 末吉 敏則(熊本大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 画像認識の手法である畳込みニューラルネットワーク(CNN: Convolutional Neural Network)は,様々な分野で利用されている.CNNの組込み機器への実装を考えた場合,低消費電力かつ高速な処理が可能であるFPGA(Field Programmable Gate Array)は有望な選択肢となる.しかしながら,CNNの全結合層では膨大な回数の積和演算が行われるため,FPGAにCNNを実装する際は積和演算回路の構成および重みを読み込む際のメモリアクセスについての工夫が必要となる.そこで本稿では,CNNの全結合層において重みを2のべき乗に近似することで,積和演算回路における乗算をシフト演算回路に置き換える手法を提案する.提案手法によって,乗算演算子を用いて合成した積和演算回路よりもLUTの消費量は最大10.7倍改善され,動作周波数は最大2.6倍向上した.さらに,認識率の低下を約1%程度に抑えつつ,重みの表現に必要なビット幅を3ビットまで抑えることができた.
抄録(英) Convolutional Neural Network (CNN), a method of Image recognition, is utilized in various fields. Considering CNN implementation to embedded devices, Field Programmable Gate Array (FPGA) is one of the promising medium. The feature of FPGA is high speed processing with low power. There are enormous number of multiply-add operations in Fully Connected (FC) layers of CNN. Therefore, for CNN implementation on FPGA, it is required to consider the resource utilization of multiply-add circuit and memory access for weight of neural network. In this paper, we propose power of 2 approximation of weight in FC layers of CNN. This method enables multiply-add circuit to be configured by Shifter and Adder. Our proposed method improved LUT consumption up to 10.7 times and operating frequency up to 2.6 times. Furthermore, the bit width required for weight was reduced to 3 bits. In this case, deterioration of recognition accuracy was suppressed to about 1%.
キーワード(和) FPGA / 深層学習 / 畳込みニューラルネットワーク
キーワード(英) FPGA / Deep Learning / CNN
資料番号 RECONF2017-6
発行日 2017-05-15 (RECONF)

研究会情報
研究会 RECONF / CPSY / DC / IPSJ-ARC
開催期間 2017/5/22(から3日開催)
開催地(和) 登別温泉第一滝本館
開催地(英) Noboribetsu-Onsen Dai-ichi-Takimoto-Kan
テーマ(和) HotSPA2017: リコンフィギャラブルシステム・ディペンダブルコンピューティングシステムおよび一般
テーマ(英) HotSPA2017: Reconfigurable System, Dependable Computing System, and General Topics
委員長氏名(和) 渡邊 実(静岡大) / 中島 康彦(奈良先端大) / 井上 美智子(奈良先端大)
委員長氏名(英) Minoru Watanabe(Shizuoka Univ.) / Yasuhiko Nakashima(NAIST) / Michiko Inoue(NAIST)
副委員長氏名(和) 本村 真人(北大) / 柴田 裕一郎(長崎大) / 中野 浩嗣(広島大) / 入江 英嗣(東大) / 福本 聡(首都大東京)
副委員長氏名(英) Masato Motomura(Hokkaido Univ.) / Yuichiro Shibata(Nagasaki Univ.) / Koji Nakano(Hiroshima Univ.) / Hidetsugu Irie(Univ. of Tokyo) / Satoshi Fukumoto(Tokyo Metropolitan Univ.)
幹事氏名(和) 山口 佳樹(筑波大) / 谷川 一哉(広島市大) / 三吉 貴史(富士通研) / 鯉渕 道紘(NII) / 吉村 正義(京都産大) / 金子 晴彦(東工大)
幹事氏名(英) Yoshiki Yamaguchi(Univ. of Tsukuba) / Kazuya Tanigawa(Hiroshima City Univ.) / Takashi Miyoshi(Fujitsu Labs.) / Michihiro Koibuchi(NII) / Masayoshi Yoshimura(Kyoto Sangyo Univ.) / Haruhiko Kaneko(Tokyo Inst. of Tech.)
幹事補佐氏名(和) 三好 健文(イーツリーズ・ジャパン) / 小林 悠記(NEC) / 大川 猛(宇都宮大) / 高前田 伸也(北大)
幹事補佐氏名(英) Takefumi Miyoshi(e-trees.Japan) / Yuuki Kobayashi(NEC) / Takeshi Ohkawa(Utsunomiya Univ.) / Shinya Takameda(Hokkaido Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Reconfigurable Systems / Technical Committee on Computer Systems / Technical Committee on Dependable Computing / Special Interest Group on System Architecture
本文の言語 JPN
タイトル(和) 重みの2のべき乗近似を用いたCNNのFPGA実装に関する一検討
サブタイトル(和)
タイトル(英) CNN implementation on FPGA with Power of 2 Approximation of Weight
サブタイトル(和)
キーワード(1)(和/英) FPGA / FPGA
キーワード(2)(和/英) 深層学習 / Deep Learning
キーワード(3)(和/英) 畳込みニューラルネットワーク / CNN
第 1 著者 氏名(和/英) 宇都宮 誉博 / Takahiro Utsunomiya
第 1 著者 所属(和/英) 熊本大学(略称:熊本大)
Kumamoto University(略称:Kumamoto Univ.)
第 2 著者 氏名(和/英) 尼崎 太樹 / Motoki Amagasaki
第 2 著者 所属(和/英) 熊本大学(略称:熊本大)
Kumamoto University(略称:Kumamoto Univ.)
第 3 著者 氏名(和/英) 飯田 全広 / Masahiro Iida
第 3 著者 所属(和/英) 熊本大学(略称:熊本大)
Kumamoto University(略称:Kumamoto Univ.)
第 4 著者 氏名(和/英) 久我 守弘 / Morihiro Kuga
第 4 著者 所属(和/英) 熊本大学(略称:熊本大)
Kumamoto University(略称:Kumamoto Univ.)
第 5 著者 氏名(和/英) 末吉 敏則 / Toshinori Sueyoshi
第 5 著者 所属(和/英) 熊本大学(略称:熊本大)
Kumamoto University(略称:Kumamoto Univ.)
発表年月日 2017-05-22
資料番号 RECONF2017-6
巻番号(vol) vol.117
号番号(no) RECONF-46
ページ範囲 pp.25-30(RECONF),
ページ数 6
発行日 2017-05-15 (RECONF)