お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2004-09-14 10:50
ホモトピー法に基づく階層型ニューラルネットワークの学習アルゴリズムに関する研究
富田親弘静岡大)・吉田昌弘シャープ)・○二宮 洋湘南工科大)・浅井秀樹静岡大
抄録 (和) 階層型ニューラルネットワークにおける学習アルゴリズムには,学習速度の向上のために多くの勾配法が適用されている.しかし,勾配法に基づく最適化手法は,収束速度は速いが,局所的最小解に陥る可能性があるため初期値を慎重に選ぶ必要がある.

一方,回路シミュレーションの分野でホモトピー法と呼ばれる最適化手法が提案されている.この方法は,解曲線を探索することによって複数の解を求めていく方法である.また,この方法は大域収束性を持つ方法としても知られている.

本研究では,学習の成功率を向上させるため,ホモトピー法を階層型ニューラルネットワークにおける学習アルゴリズムに適用し,初期値によらず高い学習成功率を持つことを示す.また,ホモトピー法を用いることで汎化能力の異なる複数解を1つの初期値から求めることができることを示す. 
(英) Many kinds of gradient methods have been applied for learning of the feedforward neural networks in order to improve the learning speed and the convergence rate. However, the learning methods based on the gradient method are sensitive to the choice of initial values of the weight parameters and decrease the convergence because of the problem of local minima.

On the other hand, in the field of circuit simulation, the homotopy methods have been proposed to efficiently find out the solutions for the optimization problems. Homotopy methods trace the solution path for a problem and find some solutions.

In this research, we apply the homotopy method for the learning of the feedforward neural networks.This algorithm can prevent the problem of local minima. As a result, the proposed algorithm has better convergence rate for the learning. Fuerthermore, it is shown that this algorithm finds some solution from one set of initial values.
キーワード (和) 階層型ニューラルネットワーク / 学習アルゴリズム / ホモトピー法 / 最急降下法 / / / /  
(英) Multilayer Neural network / learning method / Homotopy method / Steepest Descent method / / / /  
文献情報 信学技報, vol. 104, no. 295, NLP2004-44, pp. 25-29, 2004年9月.
資料番号 NLP2004-44 
発行日 2004-09-07 (CAS, NLP) 
ISSN Print edition: ISSN 0913-5685
PDFダウンロード

研究会情報
研究会 NLP CAS  
開催期間 2004-09-13 - 2004-09-14 
開催地(和) 京大 桂キャンパス 
開催地(英) Kyoto Univ. 
テーマ(和) 通信システム,一般 
テーマ(英) (TBD) 
講演論文情報の詳細
申込み研究会 NLP 
会議コード 2004-09-NLP-CAS 
本文の言語 日本語 
タイトル(和) ホモトピー法に基づく階層型ニューラルネットワークの学習アルゴリズムに関する研究 
サブタイトル(和)  
タイトル(英) A study of the learning algorithm based on homotopy method for feedforward neural networks 
サブタイトル(英)  
キーワード(1)(和/英) 階層型ニューラルネットワーク / Multilayer Neural network  
キーワード(2)(和/英) 学習アルゴリズム / learning method  
キーワード(3)(和/英) ホモトピー法 / Homotopy method  
キーワード(4)(和/英) 最急降下法 / Steepest Descent method  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 富田 親弘 / Chikahiro Tomita / トミタ チカヒロ
第1著者 所属(和/英) 静岡大学 (略称: 静岡大)
Shizuoka University (略称: Shizuoka Univ.)
第2著者 氏名(和/英/ヨミ) 吉田 昌弘 / Masahiro Yoshida / ヨシダ マサヒロ
第2著者 所属(和/英) シャープ株式会社 (略称: シャープ)
SHARP corporation (略称: SHARP)
第3著者 氏名(和/英/ヨミ) 二宮 洋 / Hiroshi Ninomiya / ニノミヤ ヒロシ
第3著者 所属(和/英) 湘南工科大学 (略称: 湘南工科大)
Shonan Institute of Technology (略称: SIT)
第4著者 氏名(和/英/ヨミ) 浅井 秀樹 / Hideki Asai / アサイ ヒデキ
第4著者 所属(和/英) 静岡大学 (略称: 静岡大)
Shizuoka University (略称: Shizuoka Univ.)
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第3著者 
発表日時 2004-09-14 10:50:00 
発表時間 25分 
申込先研究会 NLP 
資料番号 CAS2004-32, NLP2004-44 
巻番号(vol) vol.104 
号番号(no) no.293(CAS), no.295(NLP) 
ページ範囲 pp.25-29 
ページ数
発行日 2004-09-07 (CAS, NLP) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会