講演名 2018-03-14
段階的に多層化するニューラルネットワーク
佐々木 駿也(慶大), 萩原 将文(慶大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 本論文では段階的に多層化するニューラルネットワークを提案する.ニューラルネットワーク(NN)は多 層化されるほど微細な特徴抽出が可能になるが,勾配消失問題等が発生しやすくなる点が指摘されている. 本稿では この問題を解決するため,教師あり学習を用いて段階的にNNを多層化する手法を提案する.さらに最終的な層数を自 動決定することで,冗長な多層化を回避することができる.提案手法では複数中間層の追加と層の削除を繰り返すこと で段階的に多層化し,学習が収束するまでこれを繰り返す. クラス分類タスクを用いて評価実験を行った結果,勾配 消失を低減しつつ,最適な層数を自動で決定できることが確認された.
抄録(英) In this paper, we propose a neural network with multiple layers in a stepwise manner. Neural networks (NNs) become more multilayered, it is possible to extract detailed features, but the vanishing gradient problem tends to occur. In order to solve this problem, we propose a method for multilayered NN in stages by using supervised learning. Redundant multilayering is avoided by automatically determining the ?nal number of layers. In this method, by repeating the addition of layers and the deletion of one, NN is multilayered in stages and this process is repeated until learning converges. As a result of evaluation experiment with classi?cation task, it was con?rmed that the optimum number of layers can be automatically determined with reducing gradient vanishing.
キーワード(和) バックプロパゲーション / 貪欲法
キーワード(英) backpropagation / greedy algorithm
資料番号 NC2017-97
発行日 2018-03-06 (NC)

研究会情報
研究会 MBE / NC
開催期間 2018/3/13(から2日開催)
開催地(和) 機械振興会館
開催地(英) Kikai-Shinko-Kaikan Bldg.
テーマ(和) ME,一般
テーマ(英) ME, general
委員長氏名(和) 中島 一樹(富山大) / 萩原 将文(慶大)
委員長氏名(英) Kazuki Nakajima(Univ. of Toyama) / Masafumi Hagiwara(Keio Univ.)
副委員長氏名(和) 京相 雅樹(東京都市大) / 平田 豊(中部大)
副委員長氏名(英) Masaki Kyoso(TCU) / Yutaka Hirata(Chubu Univ.)
幹事氏名(和) 高野 博史(富山県立大) / 永岡 隆(近畿大) / 青西 亨(東工大) / 吉川 大弘(名大)
幹事氏名(英) Hironobu Takano(Toyama Pref. Univ.) / Takashi Nagaoka(Kindai Univ.) / Toru Aonishi(Tokyo Inst. of Tech.) / Tomohiro Yoshikawa(Nagoya Univ.)
幹事補佐氏名(和) 金 主賢(富山大) / 小林 匠(横国大) / 篠沢 佳久(慶大) / 稲垣 圭一郎(中部大)
幹事補佐氏名(英) Kim Juhyon(Univ. of Toyama) / Takumi Kobayashi(YNU) / Yoshihisa Shinozawa(Keio Univ.) / Keiichiro Inagaki(Chubu Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on ME and Bio Cybernetics / Technical Committee on Neurocomputing
本文の言語 JPN
タイトル(和) 段階的に多層化するニューラルネットワーク
サブタイトル(和)
タイトル(英) Gradually Stacking Neural Network
サブタイトル(和)
キーワード(1)(和/英) バックプロパゲーション / backpropagation
キーワード(2)(和/英) 貪欲法 / greedy algorithm
第 1 著者 氏名(和/英) 佐々木 駿也 / Shunya Sasaki
第 1 著者 所属(和/英) 慶應義塾大学(略称:慶大)
Keio Univercity(略称:Keio Univ)
第 2 著者 氏名(和/英) 萩原 将文 / Masafumi Hagiwara
第 2 著者 所属(和/英) 慶應義塾大学(略称:慶大)
Keio Univercity(略称:Keio Univ)
発表年月日 2018-03-14
資料番号 NC2017-97
巻番号(vol) vol.117
号番号(no) NC-508
ページ範囲 pp.175-180(NC),
ページ数 6
発行日 2018-03-06 (NC)