講演名 2003/11/15
逐次最小二乗ローカル学習法の汎化能力に関する研究
吉田 昌弘, 二宮 洋, 浅井 秀樹,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 階層型ニューラルネツトワークの汎化能力を向上させるために, weight decay法を利用した学習法が多く提案されている.本報告では,逐次最小二乗法を利用することで, weght decayの効果を持ち,学習時間の短いローカル学習法を提案する.また,シミュレーションにおいて,提案学習法と他の学習法についての汎化能力の差異を考察する.
抄録(英) A variety of studies on training method with the weight decay has been done in order to improve the generalization ability in feedforward neural networks. In this research, we introduce the local training with weight decay based on the recursive least squares. The proposed method can improve the training speed. In the simulation, the generalization ability is compared the proposed method to another methods with weight decay.
キーワード(和) 階層型ニューラルネツトワーク / ローカル学習法,汎化能力 / weight decay / 逐次最小二乗法
キーワード(英) feedforward neural networks / local training / weight decay / recursive least squares / generalization ability
資料番号 NLP2003-123
発行日

研究会情報
研究会 NLP
開催期間 2003/11/15(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Nonlinear Problems (NLP)
本文の言語 JPN
タイトル(和) 逐次最小二乗ローカル学習法の汎化能力に関する研究
サブタイトル(和)
タイトル(英) Research of Generalization Ability for Local Lenearized Least Squares Algorithm
サブタイトル(和)
キーワード(1)(和/英) 階層型ニューラルネツトワーク / feedforward neural networks
キーワード(2)(和/英) ローカル学習法,汎化能力 / local training
キーワード(3)(和/英) weight decay / weight decay
キーワード(4)(和/英) 逐次最小二乗法 / recursive least squares
第 1 著者 氏名(和/英) 吉田 昌弘 / Masahiro YOSHIDA
第 1 著者 所属(和/英) 静岡大学システムエ学科
Dept. of Systems Engineering, Shizuoka University
第 2 著者 氏名(和/英) 二宮 洋 / Hiroshi NINOMIYA
第 2 著者 所属(和/英) 湘南工科大学情報工学科
Dept. of Information Science, Shonan Institute of Technology
第 3 著者 氏名(和/英) 浅井 秀樹 / Hideki ASAI
第 3 著者 所属(和/英) 静岡大学システムエ学科
Dept. of Systems Engineering, Shizuoka University
発表年月日 2003/11/15
資料番号 NLP2003-123
巻番号(vol) vol.103
号番号(no) 464
ページ範囲 pp.-
ページ数 6
発行日