講演名 2002/3/11
無限次元仮説空間における正則化パラメータの決定法
杉山 将, Muller Klaus-Robert,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) カーネル回帰における正則化パラメータの決定法について論じる.これまでに,subspcce information criterion(SIC)と呼ばれる規準が提案され,正則化パラメータを適切に決定できることが示された.SICは,学習対象の関数が再生核ヒルベルト空間Hに属し,カーネル回帰モデルがH全体を張る場合に,有限サンプルに対して汎化誤差の不偏推定量となる.これらの条件が成立する時,dim H≦M(M(<∽)はサンプル数)となるため,これまでSICは有限次元の再生核ヒルベルト空間Hにしか適用できなかった.本論文ではSICの適用範囲を拡張し,カーネル回帰モデルがH全体を張らない場合でも,SICが汎化誤差の本質的な部分の不偏推定量となることを示す.この拡張により,dim H>Mとなる場合もSICが適用できるようになり,無限次元の再生核ヒルベルト空間Hも扱うことができるようになる,更に,カーネル行列が正則な場合はSICが簡単な形で表現でき,非常に効率良く計算できることを示す.最後に,拡張したSICによって正則化パラメータが適切に決定できることを,人工データと実データを用いた計算機実験で示す.
抄録(英) We discuss the problem of determining ridge parameter in the context of kernel regression. Previously, a generalization error estimator called the subspace information criterion (SIC) was proposed, that could be successfully applied to determining the ridge parameter. SIC is an unbiased estimator of the generalization error for the finite sample case under the conditions that the learning target function belongs to a specified reproducing kernel Hubert space (RKHS) H and the kernel regression model spans the whole space H. These conditions hold only if dim H ≦ M where M (<∽) is the number of training samples. Therefore, SIC could be applied only to finite dimensional RKHSs. In this paper, we extend the range of applicability of SIC, and show that even if the kernel regression model does not span the whole space H, SIC is an unbiased estimator of an essential part of the generalization error. Our extension allows us to make use of any RKHSs including infinite dimensional ones. We further show that when the kernel matrix is invertible, SIC can be expressed in a much simpler form, making its computation highly efficient. Finally, we show by computer simulations with real and artificial data sets that the extended SIC works well in ridge parameter selection.
キーワード(和) 汎化誤差 / モデル選択 / subspace information criterion / カーネル回帰 / 再生核ヒルベルト空間 / 交差確認法
キーワード(英) generalization error / model selection / subspace information criterion / kernel regression / reproducing kernel Hubert space / cross-validation
資料番号 NC2001-135
発行日

研究会情報
研究会 NC
開催期間 2002/3/11(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 ENG
タイトル(和) 無限次元仮説空間における正則化パラメータの決定法
サブタイトル(和)
タイトル(英) Ridge Parameter Determination in Infinite Dimensional Hypothesis Spaces
サブタイトル(和)
キーワード(1)(和/英) 汎化誤差 / generalization error
キーワード(2)(和/英) モデル選択 / model selection
キーワード(3)(和/英) subspace information criterion / subspace information criterion
キーワード(4)(和/英) カーネル回帰 / kernel regression
キーワード(5)(和/英) 再生核ヒルベルト空間 / reproducing kernel Hubert space
キーワード(6)(和/英) 交差確認法 / cross-validation
第 1 著者 氏名(和/英) 杉山 将 / Masashi SUGIYAMA
第 1 著者 所属(和/英) 東京工業大学大学院情報理工学研究科 計算工学専攻
Department of Computer Science, Tokyo Institute of Technology
第 2 著者 氏名(和/英) Muller Klaus-Robert / Klaus-Robert MULLER
第 2 著者 所属(和/英) Fraunhofer FIRST,IDA:Department of Computer Science, University of Potsdam
Fraunhofer FIRST, IDA:Department of Computer Science,University of Potsudam
発表年月日 2002/3/11
資料番号 NC2001-135
巻番号(vol) vol.101
号番号(no) 735
ページ範囲 pp.-
ページ数 8
発行日