お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2019-05-10 10:00
マルチパス構造を持つ意味的領域分割モデルのFPGA実装
佐田悠生下田将之佐藤真平中原啓貴東工大RECONF2019-10
抄録 (和) 畳み込みニューラルネットワークは高い認識精度を持ち,様々な画像認識アプリケーションを組み込み機器へ応用することが期待されている.
推論デバイスとしてFPGAは,書き換え可能な専用回路を用いて低消費電力かつ低レイテンシで計算が可能である.
本稿では,意味的領域分割を行うPSPNet~(Pyramid Scene Parsing Network)の重みを量子化かつ疎である重みへ軽量化する手法を用いる.
量子化では,CNNの重みを8bit,活性化関数の出力を8bitに線形量子化する.
畳み込み演算を整数演算のみ,バッチ正規化を固定小数点で実現することで,回路面積を削減する.
枝刈りでは,CNNを疎な重みで構成し重みパラメータ数の削減と演算回数の削減により高速な推論を実現する.
間接メモリアクセスアーキテクチャを適用して零重みをスキップし,カーネル並列の畳み込みを行うアーキテクチャを用いる.
間接メモリアクセスを導入することで,異なるサイズのカーネルを持つAlexNet等のCNNにも同じアーキテクチャを適用できる.

レイヤ数を削減し低レイテンシ計算を行うため,AlexNetベースのPSPNetを設計した.
自動運転データセットを用いた実験により,提案するAlexNetベースのPSPNetは元のCNNと比較して,
重みのパラメータ数を93%削減できた.

Xilinx社のSDSoc 2018.2.2を用いてzcu102評価ボードに実装し,
79.0FPS(Frames Per Second)を達成した.
マルチパス構造を持つPyramid Pooling Moduleにより,認識精度(mIoU)はシングルパスのモデルに対して
14.0%向上し,回路面積のオーバーヘッドは,BRAMが1.08倍,DSPが1.38倍,FFが2.30倍,LUTが1.67倍であった. 
(英) Since the convolutional neural network has a high-performance recognition accuracy,
it is expected to implement various applications on an embedded vision system.
An FPGA can calculate the inference algorithm with low-latency and low power consumption using a specific circuit.

In the paper, we propose a quantized weights with weight pruning, to reduce the operation cost and parameters of PSPNet.
We set 8-bit precision for CNN weights and activations using a linear quantization to reduce circuit area.
And we prune wasteful weights to reduce MACs and weights parameters.
We apply an indirect memory access architecture to skip zero part and propose the weight parallel 2D convolutional circuit.
It can be applied to the AlexNet based CNN, which has different size kernels.
Thus, we design the AlexNet based PSPNet to reduce the number of layers toward low-latency computation.
In the experiment, by applying the proposed scheme, it reduces the 93% of weight parameter.
We implement the proposed PSPNet on a Xilinx zcu102 evaluation board, by using Xilinx SDSoC 2018.2.2.
It archived 79.0 frames per second (FPS) on self-driving dataset.
Compared with single path CNN, it was 14.0% times higher accuracy.
In terms of its over-head of the hardware area,
it requires 1.08 times BRAMs, 1.38 times DSPs, 2.30 times FFs and 1.67 times LUTs.
キーワード (和) 畳み込みニューラルネットワーク / FPGA / 意味的領域分割 / 量子化 / 枝刈り / / /  
(英) Convolutional Neural Network / FPGA / Semantic Segmentation / Quantization / Pruning / / /  
文献情報 信学技報, vol. 119, no. 18, RECONF2019-10, pp. 49-54, 2019年5月.
資料番号 RECONF2019-10 
発行日 2019-05-02 (RECONF) 
ISSN Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
査読に
ついて
本技術報告は査読を経ていない技術報告であり,推敲を加えられていずれかの場に発表されることがあります.
PDFダウンロード RECONF2019-10

研究会情報
研究会 RECONF  
開催期間 2019-05-09 - 2019-05-10 
開催地(和) 東工大蔵前会館 
開催地(英) Tokyo Tech Front 
テーマ(和) リコンフィギャラブルシステム,一般 
テーマ(英) Reconfigurable system, etc. 
講演論文情報の詳細
申込み研究会 RECONF 
会議コード 2019-05-RECONF 
本文の言語 日本語 
タイトル(和) マルチパス構造を持つ意味的領域分割モデルのFPGA実装 
サブタイトル(和)  
タイトル(英) An FPGA Implementation of the Semantic Segmentation Model with Multi-path Structure 
サブタイトル(英)  
キーワード(1)(和/英) 畳み込みニューラルネットワーク / Convolutional Neural Network  
キーワード(2)(和/英) FPGA / FPGA  
キーワード(3)(和/英) 意味的領域分割 / Semantic Segmentation  
キーワード(4)(和/英) 量子化 / Quantization  
キーワード(5)(和/英) 枝刈り / Pruning  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 佐田 悠生 / Youki Sada / サダ ユウキ
第1著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第2著者 氏名(和/英/ヨミ) 下田 将之 / Masayuki Shimoda / シモダ マサユキ
第2著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第3著者 氏名(和/英/ヨミ) 佐藤 真平 / Shimpei Sato /
第3著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第4著者 氏名(和/英/ヨミ) 中原 啓貴 / Hiroki Nakahara /
第4著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: titech)
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2019-05-10 10:00:00 
発表時間 25分 
申込先研究会 RECONF 
資料番号 RECONF2019-10 
巻番号(vol) vol.119 
号番号(no) no.18 
ページ範囲 pp.49-54 
ページ数
発行日 2019-05-02 (RECONF) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会