講演名 2023-01-19
[ショートペーパー]分散機械学習推論に向けたスプリットコンピューティングモデルの連合機械学習
堀川 裕太郎(東工大), 西尾 理志(東工大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) SC (Split computing) は, 計算能力の低いモバイル端末と計算能力の高いサーバとでニューラルネットワー クを分割して分散処理することで, 負荷分散と推論時間短縮する手法である. モバイル端末側とサーバ側で実行する モデルはそれぞれ Head Network と Tail Network と呼ばれるが, モバイル端末の計算および通信性能に応じた適切な パラメータ数のモデルを, 精度低下させることなく訓練する必要がある. 本稿では, SC に向けた Head Network 訓練 手法を提案する. 特に, モバイル端末のもつ non-IID かつ少量のラベルなしデータとパラメータ数の多い訓練済みモ デルを用いて, 計算負荷が小さく通信量の少ない Head Network を訓練する手法を提案する. 提案手法では, 知識蒸留 (Knowledge distillation) を用いて Head Network を訓練する手法と連合機械学習 (Federated Learning) を統合し た新たな訓練手法により, Head Network のデータ効率的な学習を実現する. 提案手法により学習済みモデルからの精 度低下を抑制しつつ, 計算負荷および通信量の少ない Head Network モデルが訓練できることを示した.
抄録(英) SC (Split computing) is a distributed inference method for load balancing and latency reduction, which splits a neural network and deploys them to a mobile device with low computing power and a server with high computing power. The models executed on the mobile device and the server are called Head Network and Tail Network, respectively. The model size of the Head Network is necessary to be small according to the computing and communication performance of the mobile device without degrading its accuracy. In this paper, we propose a data-efficient Head Network training method for SC. The proposed method can train a Head Network with low computational load and low communication traffic using a small amount of non-IID and unlabeled data from mobile devices and a pre-trained model with a large number of parameters. The proposed method achieves data-efficient training of the Head Network by integrating a method that trains Head Network using knowledge distillation and Federated learning. The experimental evaluation shows that the proposed method can train Head Network models with low computational load and low communication cost while suppressing the accuracy degradation from the pre-trained model.
キーワード(和) 連合機械学習 / 分散機械学習推論 / スプリットコンピューティング / 知識蒸留 / non-IIDデータ / パーソナライゼーション
キーワード(英) Federated learning / Distributed inference / Split computing / Knowledge distillation / non-IID data / Personalization
資料番号 SeMI2022-76
発行日 2023-01-12 (SeMI)

研究会情報
研究会 SeMI
開催期間 2023/1/19(から2日開催)
開催地(和) 鳴門グランドホテル海月
開催地(英) Naruto grand hotel
テーマ(和) センシング,モビリティ,モバイル・ユビキタスコンピューティング,センサ・アドホック・モバイルネットワーク,アプリケーション,一般
テーマ(英)
委員長氏名(和) 山本 高至(京大)
委員長氏名(英) Koji Yamamoto(Kyoto Univ.)
副委員長氏名(和) 門田 和也(日立) / 大和田 泰伯(NICT) / 猿渡 俊介(阪大)
副委員長氏名(英) Kazuya Monden(Hitachi) / Yasunori Owada(NICT) / Shunsuke Saruwatari(Osaka Univ.)
幹事氏名(和) 勝間田 優樹(NTTドコモ) / 中山 悠(東京農工大) / 内山 彰(阪大)
幹事氏名(英) Yuki Katsumata(NTT DOCOMO) / Yu Nakayama(Tokyo Univ. of Agri. and Tech.) / Akira Uchiyama(Osaka Univ.)
幹事補佐氏名(和) 松田 裕貴(奈良先端大) / 田谷 昭仁(青学大) / 平井 健士(阪大)
幹事補佐氏名(英) Yuki Matsuda(NAIST) / Akihito Taya(Aoyama Gakuin Univ.) / Takeshi Hirai(Osaka Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Sensor Network and Mobile Intelligence
本文の言語 JPN
タイトル(和) [ショートペーパー]分散機械学習推論に向けたスプリットコンピューティングモデルの連合機械学習
サブタイトル(和)
タイトル(英) [Short Paper] A Study of Model Training Method based on Federated Learning for Distributed Inference with Split Computing
サブタイトル(和)
キーワード(1)(和/英) 連合機械学習 / Federated learning
キーワード(2)(和/英) 分散機械学習推論 / Distributed inference
キーワード(3)(和/英) スプリットコンピューティング / Split computing
キーワード(4)(和/英) 知識蒸留 / Knowledge distillation
キーワード(5)(和/英) non-IIDデータ / non-IID data
キーワード(6)(和/英) パーソナライゼーション / Personalization
第 1 著者 氏名(和/英) 堀川 裕太郎 / Yutaro Horikawa
第 1 著者 所属(和/英) 東京工業大学(略称:東工大)
Tokyo Institute of Technology(略称:Tokyo Tech)
第 2 著者 氏名(和/英) 西尾 理志 / Takayuki Nishio
第 2 著者 所属(和/英) 東京工業大学(略称:東工大)
Tokyo Institute of Technology(略称:Tokyo Tech)
発表年月日 2023-01-19
資料番号 SeMI2022-76
巻番号(vol) vol.122
号番号(no) SeMI-341
ページ範囲 pp.25-27(SeMI),
ページ数 3
発行日 2023-01-12 (SeMI)