講演名 2005/3/23
特異的なモデルにおける局所化ベイズ学習法
高松 慎吾, 渡辺 澄夫,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 階層的神経回路網や混合正規分布のようにパラメータ空間に特異点を持つ学習モデルにおいては、パラメータを一点に決める方法よりもベイズ推定のように多くのパラメータの混合による学習が優れていることが知られている。しかしながら、特異点を持つ学習モデルにおいて事後分布を実現することは困難であることが多い。本論文では、事後分布を局所化する学習方法を提案し、その汎化誤差がベイズ法とほぼ同等とできる場合があることを縮小ランク回帰モデルへの適用によって明らかにする。
抄録(英) In singular learning machines, like a three-layer neural network and a normal mixture, it is known that the learning method by mixture of many parameters, like Bayesian estimasion, is better than the method by deciding one position of parameters. But it is usually difficult to make the posterior distribution because these learning machines have their singularities in the parameter spaces. In this paper, we propose a new learning method with the localized posterior distribution and show that its generalization error can be equal to or better than the one of Bayesian estimation by applying this method to the reduced rank regression.
キーワード(和) 縮小ランク回帰モデル / 汎化誤差 / ベイズ推測
キーワード(英) Reduced rank regression / Gerenalization error / Bayexian estimate
資料番号 NC2004-227
発行日

研究会情報
研究会 NC
開催期間 2005/3/23(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) 特異的なモデルにおける局所化ベイズ学習法
サブタイトル(和)
タイトル(英) Localized Bayesian Learning for Singular Learning Machines
サブタイトル(和)
キーワード(1)(和/英) 縮小ランク回帰モデル / Reduced rank regression
キーワード(2)(和/英) 汎化誤差 / Gerenalization error
キーワード(3)(和/英) ベイズ推測 / Bayexian estimate
第 1 著者 氏名(和/英) 高松 慎吾 / Shingo TAKAMATSU
第 1 著者 所属(和/英) 東京工業大学工学部情報工学科
Department of Computer Science Tokyo Institute of Technology
第 2 著者 氏名(和/英) 渡辺 澄夫 / Sumio WATANABE
第 2 著者 所属(和/英) 東京工業大学精密工学研究所
PI Lab., Tokyo Institute of Technology
発表年月日 2005/3/23
資料番号 NC2004-227
巻番号(vol) vol.104
号番号(no) 760
ページ範囲 pp.-
ページ数 6
発行日