講演名 2007-01-25
Adaptive Ridge Learning in Kernel Eigenspace and Its Model Selection
,
PDFダウンロードページ PDFダウンロードページへ
抄録(和)
抄録(英) In order to obtain better learning results in supervised learning, it is important to choose model parameters appropriately. Model selection is usually carried out by preparing a finite set of model candidates, estimating a generalization error for each candidate, and choosing the best one from the candidates. If the number of candidates is increased in this procedure, the optimization quality may be improved. However, this in turn increases the computational cost. In this paper, we focus on a generalization error estimator called the regularized subspace information criterion and derive an analytic form of the optimal model parameter over a set of infinitely many model candidates. This allows us to maximize the optimization quality with the computational cost kept moderate.
キーワード(和)
キーワード(英) supervised learning / generalization error / model selection / regularized subspace information criterion
資料番号 NC2006-97
発行日

研究会情報
研究会 NC
開催期間 2007/1/18(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 ENG
タイトル(和)
サブタイトル(和)
タイトル(英) Adaptive Ridge Learning in Kernel Eigenspace and Its Model Selection
サブタイトル(和)
キーワード(1)(和/英) / supervised learning
第 1 著者 氏名(和/英) / Shun GOKITA
第 1 著者 所属(和/英)
Department of Computer Science, Tokyo Institute of Technology
発表年月日 2007-01-25
資料番号 NC2006-97
巻番号(vol) vol.106
号番号(no) 500
ページ範囲 pp.-
ページ数 6
発行日