講演名 | 2016-01-29 ネステロフの加速準ニュートン法による学習アルゴリズムの提案 二宮 洋(湘南工科大), |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 本研究では,ネステロフによる加速勾配法を準ニュートン法に応用した新たな勾配法を提案する.近年,ネステロフ加速勾配法をニューラルネットワークの学習に応用した研究が盛んである.ネステロフ加速勾配法は,学習アルゴリズムで従来から用いられてきたモーメント法と同様に慣性項を反復に導入し,さらに,勾配ベクトル導出時にも用いた勾配法である.本研究では,この手法を準ニュートン法へ応用することで,準ニュートン法による学習の収束速度を向上させることを目的としている.提案手法をニューラルネットワークの学習に応用し,その有効性をシミュレーションにより示す. |
抄録(英) | This paper describes a new quasi-Newton based accelerated technique for training of neural networks. Recently, Nesterov’s accelerated gradient method was utilized for training the neural networks. This paper proposes an accelerated technique for quasi-Newton training algorithm using Nesterov’s gradient method. It is shown that the proposed algorithm has the same convergence property with conventional quasi-Newton method. Neural network training for a benchmark problem is presented to demonstrate the proposed algorithm. The proposed algorithm drastically improves the convergence speed of the quasi-Newton based training algorithms. |
キーワード(和) | ニューラルネットワーク / 学習アルゴリズム / ネステロㇷの加速勾配法 / 準ニュートン法 |
キーワード(英) | Neural networks / training algorithm / Nesterov's accelerated gradient method / quasi-Newton method |
資料番号 | NLP2015-141 |
発行日 | 2016-01-21 (NLP) |
研究会情報 | |
研究会 | NC / NLP |
---|---|
開催期間 | 2016/1/28(から2日開催) |
開催地(和) | 九州工業大学 若松キャンパス |
開催地(英) | Kyushu Institute of Technology |
テーマ(和) | ニューロコンピューティングの実装および人間科学のための解析・モデル化,一般 |
テーマ(英) | Implementation of Neuro Computing,Analysis and Modeling of Human Science, etc |
委員長氏名(和) | 斎藤 利通(法政大) / 神野 健哉(日本工大) |
委員長氏名(英) | Toshimichi Saito(Hosei Univ.) / Kenya Jinno(Nippon Inst. of Tech.) |
副委員長氏名(和) | 佐藤 茂雄(東北大) / 藤坂 尚登(広島市大) |
副委員長氏名(英) | Shigeo Sato(Tohoku Univ.) / Naoto Fujisaka(Hiroshima City Univ.) |
幹事氏名(和) | 堀尾 恵一(九工大) / 田中 宏喜(京都産大) / 長谷川 幹雄(東京理科大) / 和田 昌浩(甲南大) |
幹事氏名(英) | Keiichi Horio(Kyushu Inst. of Tech.) / Hiroki Tanaka(Kyoto Sangyo Univ.) / Mikio Hasegawa(Tokyo Univ. of Science) / Masahiro Wada(Konan Univ.) |
幹事補佐氏名(和) | 神原 裕行(東工大) / 秋間 学尚(東北大) / 中野 秀洋(東京都市大) / 麻原 寛之(岡山理科大) |
幹事補佐氏名(英) | Hiroyuki Kanbara(Tokyo Inst. of Tech.) / Hisanao Akima(Tohoku Univ.) / Hidehiro Nakano(Tokyo City Univ.) / Hiroyuki Asahara(Okayama Univ. of Science) |
講演論文情報詳細 | |
申込み研究会 | Technical Committee on Neurocomputing / Technical Committee on Nonlinear Problems |
---|---|
本文の言語 | JPN |
タイトル(和) | ネステロフの加速準ニュートン法による学習アルゴリズムの提案 |
サブタイトル(和) | |
タイトル(英) | Accelerated quasi-Newton Training using Nesterov's Gradient Method |
サブタイトル(和) | |
キーワード(1)(和/英) | ニューラルネットワーク / Neural networks |
キーワード(2)(和/英) | 学習アルゴリズム / training algorithm |
キーワード(3)(和/英) | ネステロㇷの加速勾配法 / Nesterov's accelerated gradient method |
キーワード(4)(和/英) | 準ニュートン法 / quasi-Newton method |
第 1 著者 氏名(和/英) | 二宮 洋 / Hiroshi Ninomiya |
第 1 著者 所属(和/英) | 湘南工科大学(略称:湘南工科大) Shonan Institute of Technology(略称:SIT) |
発表年月日 | 2016-01-29 |
資料番号 | NLP2015-141 |
巻番号(vol) | vol.115 |
号番号(no) | NLP-425 |
ページ範囲 | pp.87-92(NLP), |
ページ数 | 6 |
発行日 | 2016-01-21 (NLP) |