講演名 | 2005/3/23 特異的なモデルにおける局所化ベイズ学習法 高松 慎吾, 渡辺 澄夫, |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 階層的神経回路網や混合正規分布のようにパラメータ空間に特異点を持つ学習モデルにおいては、パラメータを一点に決める方法よりもベイズ推定のように多くのパラメータの混合による学習が優れていることが知られている。しかしながら、特異点を持つ学習モデルにおいて事後分布を実現することは困難であることが多い。本論文では、事後分布を局所化する学習方法を提案し、その汎化誤差がベイズ法とほぼ同等とできる場合があることを縮小ランク回帰モデルへの適用によって明らかにする。 |
抄録(英) | In singular learning machines, like a three-layer neural network and a normal mixture, it is known that the learning method by mixture of many parameters, like Bayesian estimasion, is better than the method by deciding one position of parameters. But it is usually difficult to make the posterior distribution because these learning machines have their singularities in the parameter spaces. In this paper, we propose a new learning method with the localized posterior distribution and show that its generalization error can be equal to or better than the one of Bayesian estimation by applying this method to the reduced rank regression. |
キーワード(和) | 縮小ランク回帰モデル / 汎化誤差 / ベイズ推測 |
キーワード(英) | Reduced rank regression / Gerenalization error / Bayexian estimate |
資料番号 | NC2004-227 |
発行日 |
研究会情報 | |
研究会 | NC |
---|---|
開催期間 | 2005/3/23(から1日開催) |
開催地(和) | |
開催地(英) | |
テーマ(和) | |
テーマ(英) | |
委員長氏名(和) | |
委員長氏名(英) | |
副委員長氏名(和) | |
副委員長氏名(英) | |
幹事氏名(和) | |
幹事氏名(英) | |
幹事補佐氏名(和) | |
幹事補佐氏名(英) |
講演論文情報詳細 | |
申込み研究会 | Neurocomputing (NC) |
---|---|
本文の言語 | JPN |
タイトル(和) | 特異的なモデルにおける局所化ベイズ学習法 |
サブタイトル(和) | |
タイトル(英) | Localized Bayesian Learning for Singular Learning Machines |
サブタイトル(和) | |
キーワード(1)(和/英) | 縮小ランク回帰モデル / Reduced rank regression |
キーワード(2)(和/英) | 汎化誤差 / Gerenalization error |
キーワード(3)(和/英) | ベイズ推測 / Bayexian estimate |
第 1 著者 氏名(和/英) | 高松 慎吾 / Shingo TAKAMATSU |
第 1 著者 所属(和/英) | 東京工業大学工学部情報工学科 Department of Computer Science Tokyo Institute of Technology |
第 2 著者 氏名(和/英) | 渡辺 澄夫 / Sumio WATANABE |
第 2 著者 所属(和/英) | 東京工業大学精密工学研究所 PI Lab., Tokyo Institute of Technology |
発表年月日 | 2005/3/23 |
資料番号 | NC2004-227 |
巻番号(vol) | vol.104 |
号番号(no) | 760 |
ページ範囲 | pp.- |
ページ数 | 6 |
発行日 |