講演名 1997/5/23
縦続相関アルゴリズムにおける重みの不要成長を避ける正則化法
許 群, 中山 謙二,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 本論文は縦続相関アルゴリズムにおける間題を解析している。その一つは、隠れユニットの追加による結合荷重の不要成長のために発生する出力関数の振動である。これは、汎化能力を著しく低下させる。この問題を解くために、縦続相関アルゴリズムと正則化を組み合わせる方法を提案している。ある回路構成において、正則化のための新しい条件項を提案している。スパイラルのパターン分類と関数近似に適用し、特に、関数近似において振動を押さえ、汎化特性が向上し汎化特性が向上していることが確認できた。
抄録(英) This paper investigates some possible problems of Cascade Correlation algorithm, one of which is the zigzag output mapping caused by weight-illgrowth of the adding hidden unit. Without doubt, it could lead to deteriorate the generialization, especially for regression problems. To solve this problem, we combine Cascade Correlation algorithm with regular-ization theory. In addition, some new regularization terms are proposed in light of special cascade structure. Simulation has shown that regularization indeedly smooth the zigzag output, so that the generialization is improved, especially for functional approximation.
キーワード(和) ニューラルネットワーク / 動的学習アルゴリズム / 縦続相関 / 汎化 / 正則化
キーワード(英) neural network / dynamic learning algorithm / cascade correlation / generialization / regularization
資料番号 NC97-3
発行日

研究会情報
研究会 NC
開催期間 1997/5/23(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 ENG
タイトル(和) 縦続相関アルゴリズムにおける重みの不要成長を避ける正則化法
サブタイトル(和)
タイトル(英) Regularizing the Cascade Correlation Algorithm to Avoid Weight-illgrowth
サブタイトル(和)
キーワード(1)(和/英) ニューラルネットワーク / neural network
キーワード(2)(和/英) 動的学習アルゴリズム / dynamic learning algorithm
キーワード(3)(和/英) 縦続相関 / cascade correlation
キーワード(4)(和/英) 汎化 / generialization
キーワード(5)(和/英) 正則化 / regularization
第 1 著者 氏名(和/英) 許 群 / Qun XU
第 1 著者 所属(和/英) 金沢大学工学部
Fac. Engineering, Kanazawa Univ.
第 2 著者 氏名(和/英) 中山 謙二 / Kenji NAKAYAMA
第 2 著者 所属(和/英) 金沢大学工学部
Fac. Engineering, Kanazawa Univ.
発表年月日 1997/5/23
資料番号 NC97-3
巻番号(vol) vol.97
号番号(no) 69
ページ範囲 pp.-
ページ数 8
発行日