講演名 2021-03-03
正確なハードウェアエミュレーションのための量子化DNNライブラリの開発
木山 真人(熊本大), 中原 康宏(熊本大), 尼崎 太樹(熊本大), 飯田 全広(熊本大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) エッジデバイスやAIチップでDNN(Deep Neural Network)を実行する際,実行の高速化や省電力化のために量子化が行われる.量子化の効果を調べるためのエミュレーションでは,32ビット演算精度の浮動小数点のDNNの重みをあるビット幅で量子化し,再度32ビット演算精度の浮動小数点に戻して推論を行う.これはDNNライブラリが演算を浮動小数点で行うことを前提として実装されおり,浮動小数点数しか扱えないためである.しかし,この方法ではエミュレーションの精度とハードウェアで実行した精度が異なる可能性がある.積和演算時の桁あふれ検出やAIチップでの動作検証のため,DNNライブラリで量子化DNNの正確な精度を知る必要がある.著者らはハードウェアとまったく同じ動作で量子化DNNを実行するDNNライブラリPyParchを開発しており,本稿ではPyParchに対する新たな提案と実装について述べる.評価の結果,YOLOv5のような規模が大きく複雑な構造を持つDNNに対して量子化を行い,任意のビット幅で量子化したDNNの精度が見積もれ,桁あふれ検出ができた.また,エミュレーション時間の評価を行い,通常のDNNの実行と比較して量子化DNNで5.6倍,桁あふれ検出を追加した量子化DNNで42倍の速度低下となった.
抄録(英) Quantization is used to speed up execution time and save power when runnning Deep neural networks (DNNs) on edge devices or AI chips. To investigate the effect of quantization, we need performing inference after quantizing the weights of DNN with 32-bit floating-point numbers by a some bit width, and then quantizing them back to 32-bit floating-point numbers. This is because the DNN library can only handle floating-point numbers. However, the accuracy of the emulation does not provide accurate precision. We need accurate precision to detect overflow in MAC operations or to verify the operation on AI chips. We have developed PyParch, a DNN library that executes quantized DNNs (QNNs) with exactly the same behavior as hardware. In this paper, we describe a new proposal and implementation of PyParch. As a result of the evaluation, the accuracy of QNNs with arbitrary bit widths can be estimated for large and complex DNNs such as YOLOv5, and the overflow can be detected. We evaluated the overhead of the emulation time and found that it was 5.6 times slower for QNN and 42 times slower for QNN with overflow detection compared to the normal DNN execution time.
キーワード(和) 深層学習 / 量子化
キーワード(英) Deep Learning / Quantization
資料番号 VLD2020-70,HWS2020-45
発行日 2021-02-24 (VLD, HWS)

研究会情報
研究会 HWS / VLD
開催期間 2021/3/3(から2日開催)
開催地(和) オンライン開催
開催地(英) Online
テーマ(和) システムオンシリコンを支える設計技術, ハードウェアセキュリティ, 一般
テーマ(英) Design Technology for System-on-Silicon, Hardware Security, etc.
委員長氏名(和) 池田 誠(東大) / 福田 大輔(富士通研)
委員長氏名(英) Makoto Ikeda(Univ. of Tokyo) / Daisuke Fukuda(Fujitsu Labs.)
副委員長氏名(和) 島崎 靖久(ルネサスエレクトロニクス) / 永田 真(神戸大) / 小林 和淑(京都工繊大)
副委員長氏名(英) Yasuhisa Shimazaki(Renesas Electronics) / Makoto Nagata(Kobe Univ.) / Kazutoshi Kobayashi(Kyoto Inst. of Tech.)
幹事氏名(和) 小野 貴継(九大) / 高橋 順子(NTT) / 桜井 祐市(日立) / 兼本 大輔(大阪大学)
幹事氏名(英) Takatsugu Ono(Kyushu Univ.) / Junko Takahashi(NTT) / Yuichi Sakurai(Hitachi) / Daisuke Kanemoto(Osaka Univ.)
幹事補佐氏名(和) / 西元 琢真(日立)
幹事補佐氏名(英) / Takuma Nishimoto(Hitachi)

講演論文情報詳細
申込み研究会 Technical Committee on Hardware Security / Technical Committee on VLSI Design Technologies
本文の言語 JPN
タイトル(和) 正確なハードウェアエミュレーションのための量子化DNNライブラリの開発
サブタイトル(和)
タイトル(英) The Design and Development of of Quantized Neural Networks Library for Exact Hardware Emulation
サブタイトル(和)
キーワード(1)(和/英) 深層学習 / Deep Learning
キーワード(2)(和/英) 量子化 / Quantization
第 1 著者 氏名(和/英) 木山 真人 / Masato Kiyama
第 1 著者 所属(和/英) 熊本大学大学院先端科学研究部(略称:熊本大)
Faculty of Advanced Science and Technology, Kumamoto University(略称:Kumamoto Univ.)
第 2 著者 氏名(和/英) 中原 康宏 / Yasuhiro Nakahara
第 2 著者 所属(和/英) 熊本大学大学院自然科学教育部(略称:熊本大)
Graduate School of Science and Technology, Kumamoto University(略称:Kumamoto Univ.)
第 3 著者 氏名(和/英) 尼崎 太樹 / Motoki Amagasaki
第 3 著者 所属(和/英) 熊本大学大学院先端科学研究部(略称:熊本大)
Faculty of Advanced Science and Technology, Kumamoto University(略称:Kumamoto Univ.)
第 4 著者 氏名(和/英) 飯田 全広 / Masahiro Iida
第 4 著者 所属(和/英) 熊本大学大学院先端科学研究部(略称:熊本大)
Faculty of Advanced Science and Technology, Kumamoto University(略称:Kumamoto Univ.)
発表年月日 2021-03-03
資料番号 VLD2020-70,HWS2020-45
巻番号(vol) vol.120
号番号(no) VLD-400,HWS-401
ページ範囲 pp.18-23(VLD), pp.18-23(HWS),
ページ数 6
発行日 2021-02-24 (VLD, HWS)