講演抄録/キーワード |
講演名 |
2021-10-28 15:55
カオスニューラルネットによる学習能力向上に関する検討 ○長澤廉師・中川匡弘(長岡技科大) NC2021-23 |
抄録 |
(和) |
ニューラルネットワークにおける誤差逆伝搬法では, エネルギーが局所的極小値へ収束することが問題となる.一方, 生体内の神経系に見られるカオスダイナミクスを導入したカオスニューラルネットワークは, 局所的極小値を回避する能力を有することが報告されている. 本稿では, 活性化関数としてChebyshev 型の関数を適用した新たなカオスニューラルネットのモデルを構築した. 構築したモデルの学習能力について, 従来の周期型カオスニューロンモデル等と比較を行った. 具体的な学習問題として |
(英) |
In the backpropagation method in neural networks, the problem is that the energy converges to the local minimum. On the other hand, the chaotic neural networks, which is introduced chaotic dynamics found in the nervous system in vivo, was reported to have the ability to avoid local minimum. In this paper, we constructed a new model of the chaotic neural network by applying Chebyshev-type function as the activation function. We compared the learning ability of the constructed model with that of conventional periodic chaotic neuron models and so on. As a specific learning problem, we took up the n-bit parity problem. Each model was then applied to a three-layer neural network for
training. As a result, the learning ability of the constructed model is not as good as that of the conventional periodic chaotic neuron model. The differences between the two results are discussed by showing the distribution of the output. |
キーワード |
(和) |
カオス / ニューラルネット / 誤差逆伝搬 / nビットパリティ問題 / / / / |
(英) |
Chaos / Neural Networks / Back Propagation / n-bit Parity Problem / / / / |
文献情報 |
信学技報, vol. 121, no. 223, NC2021-23, pp. 28-33, 2021年10月. |
資料番号 |
NC2021-23 |
発行日 |
2021-10-21 (NC) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
NC2021-23 |
研究会情報 |
研究会 |
MBE NC |
開催期間 |
2021-10-28 - 2021-10-29 |
開催地(和) |
オンライン開催 |
開催地(英) |
Online |
テーマ(和) |
NC,ME,一般 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
NC |
会議コード |
2021-10-MBE-NC |
本文の言語 |
日本語 |
タイトル(和) |
カオスニューラルネットによる学習能力向上に関する検討 |
サブタイトル(和) |
|
タイトル(英) |
A Study on Improvement Learning Performance with Chaos Neurons |
サブタイトル(英) |
|
キーワード(1)(和/英) |
カオス / Chaos |
キーワード(2)(和/英) |
ニューラルネット / Neural Networks |
キーワード(3)(和/英) |
誤差逆伝搬 / Back Propagation |
キーワード(4)(和/英) |
nビットパリティ問題 / n-bit Parity Problem |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
長澤 廉師 / Renshi Nagasawa / ナガサワ レンシ |
第1著者 所属(和/英) |
長岡技術科学大学 (略称: 長岡技科大)
Nagaoka University of Technology (略称: NUT) |
第2著者 氏名(和/英/ヨミ) |
中川 匡弘 / Masahiro Nakagawa / ナカガワ マサヒロ |
第2著者 所属(和/英) |
長岡技術科学大学 (略称: 長岡技科大)
Nagaoka University of Technology (略称: NUT) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2021-10-28 15:55:00 |
発表時間 |
25分 |
申込先研究会 |
NC |
資料番号 |
NC2021-23 |
巻番号(vol) |
vol.121 |
号番号(no) |
no.223 |
ページ範囲 |
pp.28-33 |
ページ数 |
6 |
発行日 |
2021-10-21 (NC) |
|