お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2017-03-06 16:30
積分表現とKernel HerdingによるNeural Networkの学習
松原拓央園田 翔村田 昇早大IBISML2016-103
抄録 (和) Neural Networkによる関数近似問題において, 近似誤差がパラメータ数$ n $に対して$ mathcal{O}(frac{1}{n}) $で収束する学習アルゴリズムを提案する.
まず, Neural Networkの積分表現を再生核理論の観点で再定式化し, 再生核積分表現を導入する.
そして, 再生核積分表現にkernel herdingを適用することで, Neural Networkの学習法を提案する.
Kernel herding と組み合わせることで, これまで得られていた収束レート $ mathcal{O}(frac{1}{sqrt{n}}) $よりも速い収束レート $ mathcal{O}(frac{1}{n}) $が達成される. 
(英) A new learning algorithm for neural networks that converges at $mathcal{O}(frac{1}{n})$ with respect to model complexity $n$ is proposed.
First, we derive an RKHS (reproducing kernel Hilbert space) version of the integral representation of neural networks.
Then, combined with kernel herding, we propose a new learning algorithm for neural networks.
Numerical experiments supported the theoretical analysis that our method converges at $mathcal{O}(frac{1}{n})$, which is faster than known rate, $mathcal{O}(frac{1}{sqrt{n}})$.
キーワード (和) Neural Network / 積分表現 / 再生核ヒルベルト空間 / Kernel Herding / 収束レート / / /  
(英) Neural Network / Integral Representation / RKHS / Kernel Herding / Convergence rate / / /  
文献情報 信学技報, vol. 116, no. 500, IBISML2016-103, pp. 25-31, 2017年3月.
資料番号 IBISML2016-103 
発行日 2017-02-27 (IBISML) 
ISSN Print edition: ISSN 0913-5685    Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード IBISML2016-103

研究会情報
研究会 IBISML  
開催期間 2017-03-06 - 2017-03-07 
開催地(和) 東京工業大学 
開催地(英) Tokyo Institute of Technology 
テーマ(和) 統計数理,機械学習,データマイニング,一般 
テーマ(英) Statistical Mathematics, Machine Learning, Data Mining, etc. 
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2017-03-IBISML 
本文の言語 日本語 
タイトル(和) 積分表現とKernel HerdingによるNeural Networkの学習 
サブタイトル(和)  
タイトル(英) New Lerning Algorythm of Neural Network using Integral Representation and Kernel Herding 
サブタイトル(英)  
キーワード(1)(和/英) Neural Network / Neural Network  
キーワード(2)(和/英) 積分表現 / Integral Representation  
キーワード(3)(和/英) 再生核ヒルベルト空間 / RKHS  
キーワード(4)(和/英) Kernel Herding / Kernel Herding  
キーワード(5)(和/英) 収束レート / Convergence rate  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 松原 拓央 / Takuo Matsubara / マツバラ タクオ
第1著者 所属(和/英) 早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.)
第2著者 氏名(和/英/ヨミ) 園田 翔 / Sho Sonoda / ソノダ ショウ
第2著者 所属(和/英) 早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.)
第3著者 氏名(和/英/ヨミ) 村田 昇 / Noboru Murata / ムラタ ノボル
第3著者 所属(和/英) 早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2017-03-06 16:30:00 
発表時間 30分 
申込先研究会 IBISML 
資料番号 IBISML2016-103 
巻番号(vol) vol.116 
号番号(no) no.500 
ページ範囲 pp.25-31 
ページ数
発行日 2017-02-27 (IBISML) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会