講演名 2022-06-29
結合行列の対称性制御によるリカレントニューラルネットワークの構造最適化
藤本 ありさ(東北大), 山本 英明(東北大), 守谷 哲(東北大), 徳田 慶太(筑波大), 香取 勇一(公立はこだて未来大), 佐藤 茂雄(東北大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 本研究では,レザバーコンピューティングにおいてレザバーとして用いるリカレントニューラルネットワーク(RNN)の構造をタスクに応じて最適化することを目的として,対称性を制御したガウシアンランダム行列における対称性の強さと出力性能の関係を調べた.性能評価は,手書き文字筆記のための時系列信号を出力するタスクを用いて行った.出力ターゲットの速さと対称性を操作したレザバーが生成するダイナミクスの速さを比較したところ,出力ターゲットに応じて適切な対称性が生まれることが分かった.この結果は,従来行われているスペクトル半径の調整に加えて,結合行列の対称性操作が高性能・高効率なレザバーの設計方法の1つとなる可能性を示唆している.
抄録(英) In this study, we investigated the relationship between the strength of symmetry in a Gaussian random matrix of a recurrent neural network (RNN) and its reservoir computing performance for optimizing network topology of RNNs in reservoir computing models. The performance of the random network with various symmetry was evaluated based on a task that outputs time-series signals for writing handwritten digits. Matrix symmetry influenced the speed of the dynamics in the reservoir layer, and the highest performance was achieved when the speed of the target output was comparable to that of the network dynamics. This result suggests that, in addition to the conventional adjustment of the spectral radius, optimization of the matrix symmetry in the weight matrix could be used to efficiently improve the performance of reservoir networks.
キーワード(和) リカレントニューラルネットワーク / レザバーコンピューティング / 結合行列 / 対称性 / 固有値
キーワード(英) Recurrent neural network / Reservoir computing / Weight matrix / Symmetry / Eigenvalue
資料番号 NC2022-26,IBISML2022-26
発行日 2022-06-20 (NC, IBISML)

研究会情報
研究会 NC / IBISML / IPSJ-BIO / IPSJ-MPS
開催期間 2022/6/27(から3日開催)
開催地(和) 琉球大学50周年記念館
開催地(英)
テーマ(和) 機械学習によるバイオデータマイニング、一般
テーマ(英)
委員長氏名(和) 山川 宏(東大) / 杉山 将(東大)
委員長氏名(英) Hiroshi Yamakawa(Univ of Tokyo) / Masashi Sugiyama(Univ. of Tokyo)
副委員長氏名(和) 田中 宏和(東京都市大学) / 神嶌 敏弘(産総研) / 津田 宏治(東大)
副委員長氏名(英) Hirokazu Tanaka(Tokyo City Univ.) / Toshihiro Kamishima(AIST) / Koji Tsuda(Univ. of Tokyo)
幹事氏名(和) 寺島 裕貴(NTT) / 西田 知史(NICT) / 岩田 具治(NTT) / 中村 篤祥(北大)
幹事氏名(英) Hiroki Terashima(NTT) / Satoshi Nishida(NICT) / Tomoharu Iwata(NTT) / Atsuyoshi Nakamura(Hokkaido Univ.)
幹事補佐氏名(和) 田和辻 可昌(早大) / 栗川 知己(関西医科大) / 河原 吉伸(阪大) / 鈴木 大慈(東工大)
幹事補佐氏名(英) Yoshimasa Tawatsuji(Waseda Univ.) / Tomoki Kurikawa(KMU) / Yoshinobu Kawahara(Osaka Univ.) / Taiji Suzuki(Tokyo Inst. of Tech.)

講演論文情報詳細
申込み研究会 Technical Committee on Neurocomputing / Technical Committee on Infomation-Based Induction Sciences and Machine Learning / Special Interest Group on Bioinformatics and Genomics / Special Interest Group on Mathematical Modeling and Problem Solving
本文の言語 JPN
タイトル(和) 結合行列の対称性制御によるリカレントニューラルネットワークの構造最適化
サブタイトル(和)
タイトル(英) Optimization of recurrent neural network structure by controlling symmetry of weight matrix
サブタイトル(和)
キーワード(1)(和/英) リカレントニューラルネットワーク / Recurrent neural network
キーワード(2)(和/英) レザバーコンピューティング / Reservoir computing
キーワード(3)(和/英) 結合行列 / Weight matrix
キーワード(4)(和/英) 対称性 / Symmetry
キーワード(5)(和/英) 固有値 / Eigenvalue
第 1 著者 氏名(和/英) 藤本 ありさ / Arisa Fujimoto
第 1 著者 所属(和/英) 東北大学(略称:東北大)
Tohoku University(略称:Tohoku Univ.)
第 2 著者 氏名(和/英) 山本 英明 / Hideaki Yamamoto
第 2 著者 所属(和/英) 東北大学(略称:東北大)
Tohoku University(略称:Tohoku Univ.)
第 3 著者 氏名(和/英) 守谷 哲 / Satoshi Moriya
第 3 著者 所属(和/英) 東北大学(略称:東北大)
Tohoku University(略称:Tohoku Univ.)
第 4 著者 氏名(和/英) 徳田 慶太 / Keita Tokuda
第 4 著者 所属(和/英) 筑波大学(略称:筑波大)
Tsukuba University(略称:Tsukuba Univ.)
第 5 著者 氏名(和/英) 香取 勇一 / Yuichi Katori
第 5 著者 所属(和/英) 公立はこだて未来大学(略称:公立はこだて未来大)
Future Univeisity Hakodate(略称:Future Univ. Hakodate)
第 6 著者 氏名(和/英) 佐藤 茂雄 / Shigeo Sato
第 6 著者 所属(和/英) 東北大学(略称:東北大)
Tohoku University(略称:Tohoku Univ.)
発表年月日 2022-06-29
資料番号 NC2022-26,IBISML2022-26
巻番号(vol) vol.122
号番号(no) NC-89,IBISML-90
ページ範囲 pp.184-188(NC), pp.184-188(IBISML),
ページ数 5
発行日 2022-06-20 (NC, IBISML)