講演名 2010-12-19
ユニット数に上限を持つ一般回帰ニューラルネットワークの学習法
山内 康一郎,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 組み込み機器などのリソースの制限された環境下で動作させることを前提とした機械学習アルゴリズムを提案する.このような環境下では,少ないメモリ容量で実行可能であり,且つ追記学習が可能であることが望まれる.提案法はGeneral Regression Neural Network(GRNN)をカーネル法を用いて改良したもので常に一定数以下の中間ユニット数で学習を行う.基本的には,新しいサンプルを新しい中間ユニットを割付けることで学習するが,その数が上限に達すると最も冗長なユニットをApproximated Linear Dependency(ALD)を用いて探し,それを他のユニットに役割を肩代わリさせた上で削除し,新しいユニットを割り付ける.しかしこれだけでは,新規サンプルの学習によって過去の記憶の一部を忘却してしまう危険性がある.そこで新しいサンプルを学習することによる過去の記憶に与える影響の量を予測した上で新しいサンプルを学習するか否かを決定する.ペンチマークテストの結果提案法は入力サンプル数が中間ユニット数の上限を超えても学習が継続でき,誤差を減少させることができることを確認した.
抄録(英) An incremental learning method for the general regression neural network(GRNN) for embedded systems is proposed. Although the GRNN learns new samples by allocating new hidden units, the hidden unit number is limited to an upper bound. Therefore, if the number of hidden units reaches to the upper bound, the GRNN has to remove one redundant hidden unit to learn a new sample. To find the redundant hidden unit, the proposed one measures a ratio of redundancy of each hidden unit using a Kernel technique. Using this method, the GRNN basically substitutes the duty of the most redundant hidden unit using the remaining hidden units. Moreover, the proposed one reduces the magniturd of interference due to the leanring. Experimental results shows that the method successfully reduces the error even if the number of hidden units is limited to a certain upper bound.
キーワード(和) Limited General Regression Neural Networks / 一般回帰ニューラルネットワーク / Kernel Machine / Approximated Linear Dependency / 追記学習
キーワード(英) Limited General Regression Neural Networks / Kernel Machine / Approximated Linear Dependency / Incremental Learning
資料番号 MBE2010-71,NC2010-82
発行日

研究会情報
研究会 NC
開催期間 2010/12/12(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) ユニット数に上限を持つ一般回帰ニューラルネットワークの学習法
サブタイトル(和)
タイトル(英) Limited General Regression Neural Networks
サブタイトル(和)
キーワード(1)(和/英) Limited General Regression Neural Networks / Limited General Regression Neural Networks
キーワード(2)(和/英) 一般回帰ニューラルネットワーク / Kernel Machine
キーワード(3)(和/英) Kernel Machine / Approximated Linear Dependency
キーワード(4)(和/英) Approximated Linear Dependency / Incremental Learning
キーワード(5)(和/英) 追記学習
第 1 著者 氏名(和/英) 山内 康一郎 / Koichiro YAMAUCHI
第 1 著者 所属(和/英) 中部大学工学部情報工学科
Chubu University Department of Information Science
発表年月日 2010-12-19
資料番号 MBE2010-71,NC2010-82
巻番号(vol) vol.110
号番号(no) 355
ページ範囲 pp.-
ページ数 6
発行日