講演名 2000/2/3
バイアスの推定とモデル選択
杉山 将, 小川 英光,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) モデル選択の問題は, 教師付き学習において高い汎化能力を獲得するために重要である.モデル選択の実用的な規準として, 赤池情報量規準(AIC)がこれまでに広く用いられきた.しかしながら, AICでは訓練データに関する漸近近似を用いているため, 訓練データ数が少ない場合には適切にモデル選択を行うことができない.そこで本論文では, subspace information criterion(SIC)とよばれる新しいモデル選択の規準を提案し, 訓練データ数が少ないときにも適切にモデル選択が行えることを計算機実験で示す.
抄録(英) The problem of model selection is considerably important for acquiring higher levels of generalization capability in supervised learning. So far, Akaike information criterion (AIC) is widely used for model selection. However, AIC does not work well when the number of training examples is small because of the asymptotic approximation. In this paper, we propose a new criterion for model selection called the subspace information criterion (SIC). Computer simulations show that SIC works well even when the number of training examples is small.
キーワード(和) 教師付き学習 / 汎化能力 / モデル選択 / 情報量規準 / 赤池の情報量規準(AIC) / バイアス/バリアンス
キーワード(英) Supervised learning, Generalization capability / Model selection / Information criterion / Akaike's information criterion(AIC) / Bias/Variance
資料番号 NC99-81
発行日

研究会情報
研究会 NC
開催期間 2000/2/3(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) バイアスの推定とモデル選択
サブタイトル(和)
タイトル(英) Bias Estimation and Model Selection
サブタイトル(和)
キーワード(1)(和/英) 教師付き学習 / Supervised learning, Generalization capability
キーワード(2)(和/英) 汎化能力 / Model selection
キーワード(3)(和/英) モデル選択 / Information criterion
キーワード(4)(和/英) 情報量規準 / Akaike's information criterion(AIC)
キーワード(5)(和/英) 赤池の情報量規準(AIC) / Bias/Variance
キーワード(6)(和/英) バイアス/バリアンス
第 1 著者 氏名(和/英) 杉山 将 / Masashi Sugiyama
第 1 著者 所属(和/英) 東京工業大学大学院情報理工学研究科計算工学専攻
Department of Computer Science, Tokyo Institute of Technology
第 2 著者 氏名(和/英) 小川 英光 / Hidemitsu Ogawa
第 2 著者 所属(和/英) 東京工業大学大学院情報理工学研究科計算工学専攻
Department of Computer Science, Tokyo Institute of Technology
発表年月日 2000/2/3
資料番号 NC99-81
巻番号(vol) vol.99
号番号(no) 612
ページ範囲 pp.-
ページ数 8
発行日