講演名 | 2020-01-28 [招待講演]インメモリ/アナログコンピューティングは深層学習による推論の高効率化の切り札となるか? 出口 淳(キオクシア), 宮下 大輔(キオクシア), 眞木 明香(キオクシア), 佐々木 慎一(キオクシア), 中田 憲吾(キオクシア), 橘 文彦(キオクシア), 藤本 竜一(キオクシア), |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 本発表では,深層学習による推論向けインメモリ/アナログコンピューティングの動向について,2019 IEEE International Electron Devices Meeting (IEDM)での招待講演[1]を基に紹介する.エッジコンピューティングの実現に向けて,深層学習による推論を高効率化するために,多数の推論用アクセラレータが開発されている.本発表で紹介予定の調査結果「アクセラレータのエネルギー効率と演算ビット精度の関係」によると,低ビット精度の領域において,インメモリ/アナログアクセラレータは従来のデジタルベースのアクセラレータよりも高いエネルギー効率を有しているように見える.しかし,一般的には,そのような低ビット精度の領域では推論の精度が劣化してしまう.そこで,Convolutional Neural Network(CNN)をターゲットに,認識精度の劣化を抑えながら更にエネルギー効率を上げるために,重みのビット幅をフィルタごとに最適に量子化するアルゴリズム[2-3],および,そのアルゴリズムの特長を最大限に生かすような推論用アクセラレータのハードウェアアーキテクチャ[3]を紹介する.最後に,タイトルの内容に関する議論を活性化するために,アクセラレータのベンチマーク手法について言及する. |
抄録(英) | This presentation introduces and discuss recent trends on in-memory/analog computing for deep learning inference, which was presented as an invited talk at 2019 IEEE International Electron Devices Meeting (IEDM) [1]. A lot of accelerators have been developed for energy-efficient deep learning inference on edge/endpoint devices. Our investigation result on energy efficiency and bit precision of such accelerators shows that energy efficiency of in-memory/analog accelerators looks better than that of typical digital accelerators in a region of lower bit-precision. However, in that region, inference accuracy (e.g. image recognition accuracy) is usually deteriorated. In order to practically reduce average bit precision for weights while maintaining accuracy, we introduce our proposed filter-wise quantization technique [2-3], and a specific hardware architecture [3] mainly for convolutional neural networks. Finally, we discuss whether in-memory/analog accelerators can actually be a silver bullet for energy-efficient inference. |
キーワード(和) | 深層学習 / アクセラレータ / CNN / エネルギー効率 / 量子化 / ベンチマーク手法 |
キーワード(英) | deep learning / accelerator / convolutional neural network / energy efficiency / quantization / benchmark method |
資料番号 | SDM2019-85 |
発行日 | 2020-01-21 (SDM) |
研究会情報 | |
研究会 | SDM |
---|---|
開催期間 | 2020/1/28(から1日開催) |
開催地(和) | 機械振興会館 |
開催地(英) | Kikai-Shinko-Kaikan Bldg. |
テーマ(和) | 先端CMOSデバイス・ プロセス技術(IEDM特集) |
テーマ(英) | |
委員長氏名(和) | 品田 高宏(東北大) |
委員長氏名(英) | Takahiro Shinada(Tohoku Univ.) |
副委員長氏名(和) | 平野 博茂(パナソニック・タワージャズ) |
副委員長氏名(英) | Hiroshige Hirano(TowerJazz Panasonic) |
幹事氏名(和) | 池田 浩也(静岡大) / 諸岡 哲(キオクシア) |
幹事氏名(英) | Hiroya Ikeda(Shizuoka Univ.) / Tetsu Morooka(KIOXIA) |
幹事補佐氏名(和) | 森 貴洋(産総研) / 小林 伸彰(日大) |
幹事補佐氏名(英) | Takahiro Mori(AIST) / Nobuaki Kobayashi(Nihon Univ.) |
講演論文情報詳細 | |
申込み研究会 | Technical Committee on Silicon Device and Materials |
---|---|
本文の言語 | JPN |
タイトル(和) | [招待講演]インメモリ/アナログコンピューティングは深層学習による推論の高効率化の切り札となるか? |
サブタイトル(和) | |
タイトル(英) | [Invited Talk] Can in-memory/Analog Accelerators be a Silver Bullet for Energy-efficient Inference? |
サブタイトル(和) | |
キーワード(1)(和/英) | 深層学習 / deep learning |
キーワード(2)(和/英) | アクセラレータ / accelerator |
キーワード(3)(和/英) | CNN / convolutional neural network |
キーワード(4)(和/英) | エネルギー効率 / energy efficiency |
キーワード(5)(和/英) | 量子化 / quantization |
キーワード(6)(和/英) | ベンチマーク手法 / benchmark method |
第 1 著者 氏名(和/英) | 出口 淳 / Jun Deguchi |
第 1 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
第 2 著者 氏名(和/英) | 宮下 大輔 / Daisuke Miyashita |
第 2 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
第 3 著者 氏名(和/英) | 眞木 明香 / Asuka Maki |
第 3 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
第 4 著者 氏名(和/英) | 佐々木 慎一 / Shinichi Sasaki |
第 4 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
第 5 著者 氏名(和/英) | 中田 憲吾 / Kengo Nakata |
第 5 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
第 6 著者 氏名(和/英) | 橘 文彦 / Fumihiko Tachibana |
第 6 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
第 7 著者 氏名(和/英) | 藤本 竜一 / Ryuichi Fujimoto |
第 7 著者 所属(和/英) | キオクシア株式会社(略称:キオクシア) Kioxia Corporation(略称:KIOXIA) |
発表年月日 | 2020-01-28 |
資料番号 | SDM2019-85 |
巻番号(vol) | vol.119 |
号番号(no) | SDM-397 |
ページ範囲 | pp.11-11(SDM), |
ページ数 | 1 |
発行日 | 2020-01-21 (SDM) |