講演名 2003/12/1
カルバック情報量の分割による特異点モデルの学習係数計算法(一般)(ニューロインフォーマティックスとは何か)
永田 賢二, 渡辺 澄夫,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 神経回路網、混合正規分布、ベイズネットワーク、隠れマルコフモデル、ボルツマンマシンなど、近年情報科学において広く用いられるようになった学習モデルの多くは特異モデルであることが知られている。これらのフィッシャー情報行列は正定値ではないので、従来の統計的漸近理論が成り立たず、学習モデル選択のアルゴリズムはまだ確立されていない。本論ではカルバック情報量を分割することにより、学習係数を計算する方法を提案し、その有効性をいくつかの実験により明らかにする。
抄録(英) A lot of learning machines such as neural networks, normal mixtures, Bayesian networks, and hidden Markov models are singular statistical models. Their Fisher information matrices are not positive definite, hence the conventional statistical asymptotic theory does not hold. In this paper, we propose a new method to calculate the learning coefficients by decomposing the Kullback information. The effectiveness of the proposed method is shown by experimetal results.
キーワード(和) 特異モデル / カルバック情報量 / 確率的複雑さ
キーワード(英) Singular Learning Machines / Kullback Information / Stochastic Complexity
資料番号 NC2003-104
発行日

研究会情報
研究会 NC
開催期間 2003/12/1(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) カルバック情報量の分割による特異点モデルの学習係数計算法(一般)(ニューロインフォーマティックスとは何か)
サブタイトル(和)
タイトル(英) A Method to Estimate the Learning Coefficients of Singular Learning Machines by Decomposition of Kullback Information
サブタイトル(和)
キーワード(1)(和/英) 特異モデル / Singular Learning Machines
キーワード(2)(和/英) カルバック情報量 / Kullback Information
キーワード(3)(和/英) 確率的複雑さ / Stochastic Complexity
第 1 著者 氏名(和/英) 永田 賢二 / Kenji NAGATA
第 1 著者 所属(和/英) 東京工業大学工学部情報工学科
Department of Computer Science Tokyo Institute of Technology
第 2 著者 氏名(和/英) 渡辺 澄夫 / Sumio WATANABE
第 2 著者 所属(和/英) 東京工業大学精密工学研究所
PI Lab., Tokyo Institute of Technology
発表年月日 2003/12/1
資料番号 NC2003-104
巻番号(vol) vol.103
号番号(no) 490
ページ範囲 pp.-
ページ数 6
発行日