お知らせ 研究会の開催と会場に参加される皆様へのお願い(2020年10月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2020-12-18 14:55
少数データの学習における知識の蒸留を用いた正則化
東 遼太和田俊和和歌山大PRMU2020-61
抄録 (和) 知識の蒸留(Knowledge distillation)は深層学習モデルの圧縮に主に用いられる手法であるが,少数データからの学習においても効果があることが近年注目されている.本報告では画像分類問題を例とし,学習データを削減した場合に,蒸留によって分類精度の低下を抑えることが可能であることと,温度と呼ばれる蒸留のパラメータによって精度が変化することに焦点を当てて実験と検討を行った.まず,全学習データでトレーニングした教師モデルを用意し,そのモデルによって蒸留を行い,生徒モデルの学習を行う.この際に,温度の増大によって生
徒モデルの精度がより向上し,特に学習データ数が少ない場合にその効果が顕著であること,および,この効果と教師モデルの較正(calibration)とは無関係であること,などの新たな知見について報告する. 
(英) Knowledge distillation is a method mainly used for compressing deep learning models, but it has recently gained attention for its effectiveness in learning from small amounts of data as well. In this report, taking the image classification problem as an example, we focused on the fact that the decrease in classification accuracy can be suppressed by distillation when the training data is reduced, and the accuracy varies with a distillation parameter called “temperature”. First, we prepare a teacher model trained on all the training data and then distill it into a student model. In this case, we found that the accuracy of the student model is improved by increasing the temperature, especially when the number of training data is small, and that this effect is not related to the calibration of the teacher model.
キーワード (和) 深層学習 / 知識の蒸留 / 画像分類 / 少数データの学習 / 較正 / / /  
(英) Deep Learning / Knowledge Distillation / Image Classification / Few-Shot Learning / Calibration / / /  
文献情報 信学技報, vol. 120, no. 300, PRMU2020-61, pp. 133-138, 2020年12月.
資料番号 PRMU2020-61 
発行日 2020-12-10 (PRMU) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード PRMU2020-61

研究会情報
研究会 PRMU  
開催期間 2020-12-17 - 2020-12-18 
開催地(和) オンライン開催 
開催地(英) Online 
テーマ(和) 転移学習・少数データからの学習 
テーマ(英) Transfer learning and few shot learning 
講演論文情報の詳細
申込み研究会 PRMU 
会議コード 2020-12-PRMU 
本文の言語 日本語 
タイトル(和) 少数データの学習における知識の蒸留を用いた正則化 
サブタイトル(和)  
タイトル(英) Regularization Using Knowledge Distillation in Learning Small Datasets 
サブタイトル(英)  
キーワード(1)(和/英) 深層学習 / Deep Learning  
キーワード(2)(和/英) 知識の蒸留 / Knowledge Distillation  
キーワード(3)(和/英) 画像分類 / Image Classification  
キーワード(4)(和/英) 少数データの学習 / Few-Shot Learning  
キーワード(5)(和/英) 較正 / Calibration  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 東 遼太 / Ryota Higashi / ヒガシ リョウタ
第1著者 所属(和/英) 和歌山大学 (略称: 和歌山大)
Wakayama University (略称: Wakayama Univ.)
第2著者 氏名(和/英/ヨミ) 和田 俊和 / Toshikazu Wada / ワダ トシカズ
第2著者 所属(和/英) 和歌山大学 (略称: 和歌山大)
Wakayama University (略称: Wakayama Univ.)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2020-12-18 14:55:00 
発表時間 15 
申込先研究会 PRMU 
資料番号 IEICE-PRMU2020-61 
巻番号(vol) IEICE-120 
号番号(no) no.300 
ページ範囲 pp.133-138 
ページ数 IEICE-6 
発行日 IEICE-PRMU-2020-12-10 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会