講演名 | 2003/12/1 カルバック情報量の分割による特異点モデルの学習係数計算法(一般)(ニューロインフォーマティックスとは何か) 永田 賢二, 渡辺 澄夫, |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 神経回路網、混合正規分布、ベイズネットワーク、隠れマルコフモデル、ボルツマンマシンなど、近年情報科学において広く用いられるようになった学習モデルの多くは特異モデルであることが知られている。これらのフィッシャー情報行列は正定値ではないので、従来の統計的漸近理論が成り立たず、学習モデル選択のアルゴリズムはまだ確立されていない。本論ではカルバック情報量を分割することにより、学習係数を計算する方法を提案し、その有効性をいくつかの実験により明らかにする。 |
抄録(英) | A lot of learning machines such as neural networks, normal mixtures, Bayesian networks, and hidden Markov models are singular statistical models. Their Fisher information matrices are not positive definite, hence the conventional statistical asymptotic theory does not hold. In this paper, we propose a new method to calculate the learning coefficients by decomposing the Kullback information. The effectiveness of the proposed method is shown by experimetal results. |
キーワード(和) | 特異モデル / カルバック情報量 / 確率的複雑さ |
キーワード(英) | Singular Learning Machines / Kullback Information / Stochastic Complexity |
資料番号 | NC2003-104 |
発行日 |
研究会情報 | |
研究会 | NC |
---|---|
開催期間 | 2003/12/1(から1日開催) |
開催地(和) | |
開催地(英) | |
テーマ(和) | |
テーマ(英) | |
委員長氏名(和) | |
委員長氏名(英) | |
副委員長氏名(和) | |
副委員長氏名(英) | |
幹事氏名(和) | |
幹事氏名(英) | |
幹事補佐氏名(和) | |
幹事補佐氏名(英) |
講演論文情報詳細 | |
申込み研究会 | Neurocomputing (NC) |
---|---|
本文の言語 | JPN |
タイトル(和) | カルバック情報量の分割による特異点モデルの学習係数計算法(一般)(ニューロインフォーマティックスとは何か) |
サブタイトル(和) | |
タイトル(英) | A Method to Estimate the Learning Coefficients of Singular Learning Machines by Decomposition of Kullback Information |
サブタイトル(和) | |
キーワード(1)(和/英) | 特異モデル / Singular Learning Machines |
キーワード(2)(和/英) | カルバック情報量 / Kullback Information |
キーワード(3)(和/英) | 確率的複雑さ / Stochastic Complexity |
第 1 著者 氏名(和/英) | 永田 賢二 / Kenji NAGATA |
第 1 著者 所属(和/英) | 東京工業大学工学部情報工学科 Department of Computer Science Tokyo Institute of Technology |
第 2 著者 氏名(和/英) | 渡辺 澄夫 / Sumio WATANABE |
第 2 著者 所属(和/英) | 東京工業大学精密工学研究所 PI Lab., Tokyo Institute of Technology |
発表年月日 | 2003/12/1 |
資料番号 | NC2003-104 |
巻番号(vol) | vol.103 |
号番号(no) | 490 |
ページ範囲 | pp.- |
ページ数 | 6 |
発行日 |