講演名 2019-05-10
マルチパス構造を持つ意味的領域分割モデルのFPGA実装
佐田 悠生(東工大), 下田 将之(東工大), 佐藤 真平(東工大), 中原 啓貴(東工大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 畳み込みニューラルネットワークは高い認識精度を持ち,様々な画像認識アプリケーションを組み込み機器へ応用することが期待されている.推論デバイスとしてFPGAは,書き換え可能な専用回路を用いて低消費電力かつ低レイテンシで計算が可能である.本稿では,意味的領域分割を行うPSPNet~(Pyramid Scene Parsing Network)の重みを量子化かつ疎である重みへ軽量化する手法を用いる.量子化では,CNNの重みを8bit,活性化関数の出力を8bitに線形量子化する.畳み込み演算を整数演算のみ,バッチ正規化を固定小数点で実現することで,回路面積を削減する.枝刈りでは,CNNを疎な重みで構成し重みパラメータ数の削減と演算回数の削減により高速な推論を実現する.間接メモリアクセスアーキテクチャを適用して零重みをスキップし,カーネル並列の畳み込みを行うアーキテクチャを用いる.間接メモリアクセスを導入することで,異なるサイズのカーネルを持つAlexNet等のCNNにも同じアーキテクチャを適用できる.レイヤ数を削減し低レイテンシ計算を行うため,AlexNetベースのPSPNetを設計した.自動運転データセットを用いた実験により,提案するAlexNetベースのPSPNetは元のCNNと比較して,重みのパラメータ数を93%削減できた.Xilinx社のSDSoc 2018.2.2を用いてzcu102評価ボードに実装し,79.0FPS(Frames Per Second)を達成した.マルチパス構造を持つPyramid Pooling Moduleにより,認識精度(mIoU)はシングルパスのモデルに対して14.0%向上し,回路面積のオーバーヘッドは,BRAMが1.08倍,DSPが1.38倍,FFが2.30倍,LUTが1.67倍であった.
抄録(英) Since the convolutional neural network has a high-performance recognition accuracy, it is expected to implement various applications on an embedded vision system. An FPGA can calculate the inference algorithm with low-latency and low power consumption using a specific circuit. In the paper, we propose a quantized weights with weight pruning, to reduce the operation cost and parameters of PSPNet. We set 8-bit precision for CNN weights and activations using a linear quantization to reduce circuit area. And we prune wasteful weights to reduce MACs and weights parameters. We apply an indirect memory access architecture to skip zero part and propose the weight parallel 2D convolutional circuit. It can be applied to the AlexNet based CNN, which has different size kernels. Thus, we design the AlexNet based PSPNet to reduce the number of layers toward low-latency computation. In the experiment, by applying the proposed scheme, it reduces the 93% of weight parameter. We implement the proposed PSPNet on a Xilinx zcu102 evaluation board, by using Xilinx SDSoC 2018.2.2. It archived 79.0 frames per second (FPS) on self-driving dataset. Compared with single path CNN, it was 14.0% times higher accuracy. In terms of its over-head of the hardware area, it requires 1.08 times BRAMs, 1.38 times DSPs, 2.30 times FFs and 1.67 times LUTs.
キーワード(和) 畳み込みニューラルネットワーク / FPGA / 意味的領域分割 / 量子化 / 枝刈り
キーワード(英) Convolutional Neural Network / FPGA / Semantic Segmentation / Quantization / Pruning
資料番号 RECONF2019-10
発行日 2019-05-02 (RECONF)

研究会情報
研究会 RECONF
開催期間 2019/5/9(から2日開催)
開催地(和) 東工大蔵前会館
開催地(英) Tokyo Tech Front
テーマ(和) リコンフィギャラブルシステム,一般
テーマ(英) Reconfigurable system, etc.
委員長氏名(和) 本村 真人(東工大)
委員長氏名(英) Masato Motomura(Tokyo Tech.)
副委員長氏名(和) 柴田 裕一郎(長崎大) / 佐野 健太郎(理研)
副委員長氏名(英) Yuichiro Shibata(Nagasaki Univ.) / Kentaro Sano(RIKEN)
幹事氏名(和) 谷川 一哉(広島市大) / 三好 健文(イーツリーズ・ジャパン)
幹事氏名(英) Kazuya Tanigawa(Hiroshima City Univ.) / Takefumi Miyoshi(e-trees.Japan)
幹事補佐氏名(和) 小林 悠記(NEC) / 中原 啓貴(東工大)
幹事補佐氏名(英) Yuuki Kobayashi(NEC) / Hiroki Nakahara(Tokyo Inst. of Tech.)

講演論文情報詳細
申込み研究会 Technical Committee on Reconfigurable Systems
本文の言語 JPN
タイトル(和) マルチパス構造を持つ意味的領域分割モデルのFPGA実装
サブタイトル(和)
タイトル(英) An FPGA Implementation of the Semantic Segmentation Model with Multi-path Structure
サブタイトル(和)
キーワード(1)(和/英) 畳み込みニューラルネットワーク / Convolutional Neural Network
キーワード(2)(和/英) FPGA / FPGA
キーワード(3)(和/英) 意味的領域分割 / Semantic Segmentation
キーワード(4)(和/英) 量子化 / Quantization
キーワード(5)(和/英) 枝刈り / Pruning
第 1 著者 氏名(和/英) 佐田 悠生 / Youki Sada
第 1 著者 所属(和/英) 東京工業大学(略称:東工大)
Tokyo Institute of Technology(略称:titech)
第 2 著者 氏名(和/英) 下田 将之 / Masayuki Shimoda
第 2 著者 所属(和/英) 東京工業大学(略称:東工大)
Tokyo Institute of Technology(略称:titech)
第 3 著者 氏名(和/英) 佐藤 真平 / Shimpei Sato
第 3 著者 所属(和/英) 東京工業大学(略称:東工大)
Tokyo Institute of Technology(略称:titech)
第 4 著者 氏名(和/英) 中原 啓貴 / Hiroki Nakahara
第 4 著者 所属(和/英) 東京工業大学(略称:東工大)
Tokyo Institute of Technology(略称:titech)
発表年月日 2019-05-10
資料番号 RECONF2019-10
巻番号(vol) vol.119
号番号(no) RECONF-18
ページ範囲 pp.49-54(RECONF),
ページ数 6
発行日 2019-05-02 (RECONF)