講演名 2020-12-18
少数データの学習における知識の蒸留を用いた正則化
東 遼太(和歌山大), 和田 俊和(和歌山大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 知識の蒸留(Knowledge distillation)は深層学習モデルの圧縮に主に用いられる手法であるが,少数データからの学習においても効果があることが近年注目されている.本報告では画像分類問題を例とし,学習データを削減した場合に,蒸留によって分類精度の低下を抑えることが可能であることと,温度と呼ばれる蒸留のパラメータによって精度が変化することに焦点を当てて実験と検討を行った.まず,全学習データでトレーニングした教師モデルを用意し,そのモデルによって蒸留を行い,生徒モデルの学習を行う.この際に,温度の増大によって生徒モデルの精度がより向上し,特に学習データ数が少ない場合にその効果が顕著であること,および,この効果と教師モデルの較正(calibration)とは無関係であること,などの新たな知見について報告する.
抄録(英) Knowledge distillation is a method mainly used for compressing deep learning models, but it has recently gained attention for its effectiveness in learning from small amounts of data as well. In this report, taking the image classification problem as an example, we focused on the fact that the decrease in classification accuracy can be suppressed by distillation when the training data is reduced, and the accuracy varies with a distillation parameter called “temperature”. First, we prepare a teacher model trained on all the training data and then distill it into a student model. In this case, we found that the accuracy of the student model is improved by increasing the temperature, especially when the number of training data is small, and that this effect is not related to the calibration of the teacher model.
キーワード(和) 深層学習 / 知識の蒸留 / 画像分類 / 少数データの学習 / 較正
キーワード(英) Deep Learning / Knowledge Distillation / Image Classification / Few-Shot Learning / Calibration
資料番号 PRMU2020-61
発行日 2020-12-10 (PRMU)

研究会情報
研究会 PRMU
開催期間 2020/12/17(から2日開催)
開催地(和) オンライン開催
開催地(英) Online
テーマ(和) 転移学習・少数データからの学習
テーマ(英) Transfer learning and few shot learning
委員長氏名(和) 佐藤 洋一(東大)
委員長氏名(英) Yoichi Sato(Univ. of Tokyo)
副委員長氏名(和) 木村 昭悟(NTT) / 岩村 雅一(阪府大)
副委員長氏名(英) Akisato Kimura(NTT) / Masakazu Iwamura(Osaka Pref. Univ.)
幹事氏名(和) 内田 祐介(Mobility Technologies) / 山下 隆義(中部大)
幹事氏名(英) Yusuke Uchida(Mobility Technologies) / Takayoshi Yamashita(Chubu Univ.)
幹事補佐氏名(和) 柴田 剛志(NTT) / 西山 正志(鳥取大)
幹事補佐氏名(英) Takashi Shibata(NTT) / Masashi Nishiyama(Tottori Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Pattern Recognition and Media Understanding
本文の言語 JPN
タイトル(和) 少数データの学習における知識の蒸留を用いた正則化
サブタイトル(和)
タイトル(英) Regularization Using Knowledge Distillation in Learning Small Datasets
サブタイトル(和)
キーワード(1)(和/英) 深層学習 / Deep Learning
キーワード(2)(和/英) 知識の蒸留 / Knowledge Distillation
キーワード(3)(和/英) 画像分類 / Image Classification
キーワード(4)(和/英) 少数データの学習 / Few-Shot Learning
キーワード(5)(和/英) 較正 / Calibration
第 1 著者 氏名(和/英) 東 遼太 / Ryota Higashi
第 1 著者 所属(和/英) 和歌山大学(略称:和歌山大)
Wakayama University(略称:Wakayama Univ.)
第 2 著者 氏名(和/英) 和田 俊和 / Toshikazu Wada
第 2 著者 所属(和/英) 和歌山大学(略称:和歌山大)
Wakayama University(略称:Wakayama Univ.)
発表年月日 2020-12-18
資料番号 PRMU2020-61
巻番号(vol) vol.120
号番号(no) PRMU-300
ページ範囲 pp.133-138(PRMU),
ページ数 6
発行日 2020-12-10 (PRMU)