講演名 2022-06-08
深層学習による推論処理の高速化手法の検討
岩本 征弥(阪工大), 中西 知嘉子(阪工大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 深層学習などのAI技術は一般に計算量が大きく,CPU上で動作するには要求性能が非常に高くなる.エッジ端末で推論処理を行う「エッジAI」を実現するために,SoC FPGAを用いて安価かつ低消費電力で実装する手法を提案する.今回はEfficientNetを例として,EfficientNetの計算構造を分析し,処理時間の大半を占めていた処理をアクセラレートする回路を作成する.作成したシステムの処理時間を計測することで回路の各セグメントの処理を分析し,高速化を実現できた箇所を検証した.その後,さらなる高速化を図るための手法を検討し,実装・再計測を行うことで,処理時間削減に必要な手段を調査し,効果的な削減手法を考察した.
抄録(英) AI technologies such as deep learning are generally computationally intensive and have very high performance requirements to run on CPUs. We propose an inexpensive and low-power implementation method using SoC FPGAs to realize "edge AI" that performs inference processing at edge terminals. Using EfficientNet as an example, we analyze the computational structure of EfficientNet and create a circuit that accelerates the processing that takes up most of the processing time. By measuring the processing time of the created system, we analyzed the processing of each segment of the circuit and verified where the acceleration was achieved. We then studied methods for further acceleration, and by implementing and re-measuring the circuits, we investigated the means necessary to reduce the processing time and considered effective reduction methods.
キーワード(和) 深層学習 / 推論処理 / SoC FPGA / EfficientNet / 共有メモリ / キャッシュ管理
キーワード(英) deep learning / inference processing / SoC FPGA / EfficientNet / shared memory / Cache Management
資料番号 RECONF2022-13
発行日 2022-05-31 (RECONF)

研究会情報
研究会 RECONF
開催期間 2022/6/7(から2日開催)
開催地(和) 筑波大学計算科学研究センター
開催地(英) CCS, Univ. of Tsukuba
テーマ(和) リコンフィギャラブルシステム,一般
テーマ(英) Reconfigurable system, etc.
委員長氏名(和) 佐野 健太郎(理研)
委員長氏名(英) Kentaro Sano(RIKEN)
副委員長氏名(和) 山口 佳樹(筑波大) / 泉 知論(立命館大)
副委員長氏名(英) Yoshiki Yamaguchi(Tsukuba Univ.) / Tomonori Izumi(Ritsumeikan Univ.)
幹事氏名(和) 小林 悠記(NEC) / 佐藤 幸紀(豊橋技科大)
幹事氏名(英) Yuuki Kobayashi(NEC) / Yukinori Sato(Toyohashi Univ. of Tech.)
幹事補佐氏名(和) 竹村 幸尚(インテル) / 長名 保範(琉球大学)
幹事補佐氏名(英) Yukitaka Takemura(INTEL) / Yasunori Osana(Ryukyu Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Reconfigurable Systems
本文の言語 JPN
タイトル(和) 深層学習による推論処理の高速化手法の検討
サブタイトル(和)
タイトル(英) Investigation of methods to accelerate inference processing by deep learning
サブタイトル(和)
キーワード(1)(和/英) 深層学習 / deep learning
キーワード(2)(和/英) 推論処理 / inference processing
キーワード(3)(和/英) SoC FPGA / SoC FPGA
キーワード(4)(和/英) EfficientNet / EfficientNet
キーワード(5)(和/英) 共有メモリ / shared memory
キーワード(6)(和/英) キャッシュ管理 / Cache Management
第 1 著者 氏名(和/英) 岩本 征弥 / Seiya Iwamoto
第 1 著者 所属(和/英) 大阪工業大学(略称:阪工大)
Osaka Institute of Technology(略称:OIT)
第 2 著者 氏名(和/英) 中西 知嘉子 / Chikako Nakanishi
第 2 著者 所属(和/英) 大阪工業大学(略称:阪工大)
Osaka Institute of Technology(略称:OIT)
発表年月日 2022-06-08
資料番号 RECONF2022-13
巻番号(vol) vol.122
号番号(no) RECONF-60
ページ範囲 pp.52-56(RECONF),
ページ数 5
発行日 2022-05-31 (RECONF)