講演名 2004/7/19
縮小ランクモデルの汎化誤差と特異点解消(<特集>学習理論)
青柳 美輝, 渡辺 澄夫,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) ランク縮小写像は,中間層が線形のニューラルネットであり,データからの知識発見に利用されている重要なモデルにもかかわらず,汎化誤差については,パラメータ空間の特異性により,まだ得られていなかった.この論文では,recursive blowing-upによりカルバック情報量の特異点を解消する方法を提案し,ランク縮小写像に応用することでその有用性を示し,汎化誤差の漸近展開を明かにする.
抄録(英) Reduced rank regression, or a three-layer neural network with linear hidden units, is an important learning machine because it extracts the essential information from training samples. However, its generalization error had been left unknown because of its singularities in the parameter space. In this paper, we propose a new method of recursive blowing-ups for densingularization of a learning machine. By applying it to the reduced rank approximation, we show the effectiveness of the method and clarify the asymptotic generalization error of the reduced rank regression.
キーワード(和) 縮小ランクモデル / 汎化誤差 / 非正則モデル / ベイズ推定 / 特異点解消
キーワード(英) Reduced rank regression / stochastic complexity / non-regular learning machines / Bayesian estimate / resolution of singularities
資料番号 NC2004-45
発行日

研究会情報
研究会 NC
開催期間 2004/7/19(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) 縮小ランクモデルの汎化誤差と特異点解消(<特集>学習理論)
サブタイトル(和)
タイトル(英) The Generalization Error of Reduced Rank Regression Models and Resolution of Singularities
サブタイトル(和)
キーワード(1)(和/英) 縮小ランクモデル / Reduced rank regression
キーワード(2)(和/英) 汎化誤差 / stochastic complexity
キーワード(3)(和/英) 非正則モデル / non-regular learning machines
キーワード(4)(和/英) ベイズ推定 / Bayesian estimate
キーワード(5)(和/英) 特異点解消 / resolution of singularities
第 1 著者 氏名(和/英) 青柳 美輝 / Miki AOYAGI
第 1 著者 所属(和/英) 上智大学理工学部
Faculty of Science and Technology, Sophia University
第 2 著者 氏名(和/英) 渡辺 澄夫 / Sumio WATANABE
第 2 著者 所属(和/英) 東京工業大学精密工学研究所
Precision and Intelligence Laboratory, Tokyo Institute of Technology
発表年月日 2004/7/19
資料番号 NC2004-45
巻番号(vol) vol.104
号番号(no) 225
ページ範囲 pp.-
ページ数 6
発行日