講演名 1997/10/20
ニューラルネットワークの学習とエラー測度
藤木 澄義, 藤木 なほみ, 中尾 光之,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) エラーバックプロパゲーション学習則において, エラー測度として自乗誤差を用いると準安定状態にとらわれて学習が停滞してしまう問題が生じる. エラー測度としてカルバック測度を用いると, 中間層のニューロン数にかかわらず学習効率が大幅に改善され, 自動的に最適サイズが獲得されるようになることを数値計算において示す. カルバック測度は問題の複雑さと余剰なネットワークサイズ対する2つのスケーラビリティーに優れたエラー測度であることが示された.
抄録(英) In the learning process by the conventional back-propagation algorithm, the trapping problem in metastable states occurs using the quadratic error measure. By using the Kullback divergence as an error measure, it is shown by numerical simulations that the learning efficiency is improved significantly no matter how large the number of internal nurons, and the optimal network size is achieved automatically. The Kullback divergence is a superior error measure in the two sence of the scalability: one for the complexity of the problem, and another for the excess network size.
キーワード(和) 層状ニューラルネットワーク / 学習過程 / エラーバックプロパゲーション / カルバック測度
キーワード(英) Layered Neural Network / Learning Process / Error back-propagation / Kullback's Measure
資料番号 NC97-43
発行日

研究会情報
研究会 NC
開催期間 1997/10/20(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) ニューラルネットワークの学習とエラー測度
サブタイトル(和)
タイトル(英) Learning Processes of Neural Networks and Error Meaures
サブタイトル(和)
キーワード(1)(和/英) 層状ニューラルネットワーク / Layered Neural Network
キーワード(2)(和/英) 学習過程 / Learning Process
キーワード(3)(和/英) エラーバックプロパゲーション / Error back-propagation
キーワード(4)(和/英) カルバック測度 / Kullback's Measure
第 1 著者 氏名(和/英) 藤木 澄義 / Sumiyoshi Fujiki
第 1 著者 所属(和/英) 東北大学情報科学
GSIS, Tohoku University
第 2 著者 氏名(和/英) 藤木 なほみ / M. Nahomi Fujiki
第 2 著者 所属(和/英) 仙台電波高専
Sendai National College, of Technology
第 3 著者 氏名(和/英) 中尾 光之 / Mitsuyuki Nakao
第 3 著者 所属(和/英) 東北大学情報科学
GSIS, Tohoku University
発表年月日 1997/10/20
資料番号 NC97-43
巻番号(vol) vol.97
号番号(no) 332
ページ範囲 pp.-
ページ数 8
発行日