電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
‥‥ (ESS/通ソ/エレソ/ISS)
技報アーカイブ
‥‥ (エレソ/通ソ)
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2011-11-09 15:45
疎でないマルチプルカーネル学習の速い収束レートおよび最適な正則化に関して
鈴木大慈東大
技報オンラインサービス実施中
抄録 (和) 本報告では,マルチプルカーネル学習(MKL)の新しい汎化誤差評価を一般的な正則化に対して導出する.ここでは基本的に疎でない密な正則化項を扱う.例えばl1-ノルムの代わりにlp-ノルムを正則化項として用いるlp-MKL がその代表的な例である.近年の数値実験によると,MKL においては疎な正則化項は必ずしも良い性能を示すわけではなく,密な正則化項の方がしばし良い汎化誤差を示すことが報告されている.このような事実を動機づけとして,本報告では任意のノルム型正則化項に対して収束レートを導く統一的な枠組みを与え,どのような正則化項が最適かを議論する.そのために,我々は再生核ヒルベルト空間の複雑さが一様な場合と非一様な場合を分けて議論する.一様な場合の議論においては収束レートが簡潔に表せることを示し,それにより既存研究よりタイトなlp-MKL の収束レートが得られることを示す.さらに,ノルムが等方的な場合,得られた収束レートがミニマクスレートを達成することを示す.得られた収束レートから,複雑さが一様な場合は等方的ノルムの中でl1-ノルムが最適であることが示される.次に,複雑さが非一様な場合を考え,その場合にはℓ1 よりも密な正則化項の方が良い性能を示すことを示す. 
(英) In this paper, we give a new generalization error bound of Multiple Kernel Learning (MKL) for a general class of regularizations. Our main target in this paper is dense type regularizations including lp-MKL that imposes lp-mixed-norm regularization instead of l1-mixed-norm regularization. According to the recent numerical experiments, the sparse regularization does not necessarily show a good performance compared with dense type
regularizations. Motivated by this fact, this paper gives a general theoretical tool to derive fast learning rates that is applicable to arbitrary norm-type regularizations in unifying manner. As a by-product of our general result, we show a fast learning rate of lp-MKL that is tightest among existing bounds. We also show that our general learning
rate achieves the minimax lower bound. Finally, we show that, when the complexities of candidate reproducing kernel Hilbert spaces are inhomogeneous, dense type regularization shows better learning rate compared with sparse l1 regularization.
キーワード (和) マルチプルカーネル学習 / 収束レート / 非スパース学習 / lp-ノルム / エラスティックネット / / /  
(英) Multiple Kernel Learning / Fast Convergence Rate / Non-Sparse Learning / lp-norm / Elastic-net / / /  
文献情報 信学技報, vol. 111, no. 275, IBISML2011-64, pp. 147-154, 2011年11月.
資料番号 IBISML2011-64 
発行日 2011-11-02 (IBISML) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380

研究会情報
研究会 IBISML  
開催期間 2011-11-09 - 2011-11-11 
開催地(和) 奈良女子大学 
開催地(英) Nara Womens Univ. 
テーマ(和) 第14回情報論的学習理論ワークショップ 
テーマ(英) The 14th IBIS workshop 
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2011-11-IBISML 
本文の言語 日本語 
タイトル(和) 疎でないマルチプルカーネル学習の速い収束レートおよび最適な正則化に関して 
サブタイトル(和)  
タイトル(英) On Fast Convergence Rate of Non-Sparse Multiple Kernel Learning and Optimal Regularization 
サブタイトル(英)  
キーワード(1)(和/英) マルチプルカーネル学習 / Multiple Kernel Learning  
キーワード(2)(和/英) 収束レート / Fast Convergence Rate  
キーワード(3)(和/英) 非スパース学習 / Non-Sparse Learning  
キーワード(4)(和/英) lp-ノルム / lp-norm  
キーワード(5)(和/英) エラスティックネット / Elastic-net  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 鈴木 大慈 / Taiji Suzuki / スズキ タイジ
第1著者 所属(和/英) 東京大学 (略称: 東大)
The University of Tokyo (略称: Tokyo University)
第2著者 氏名(和/英/ヨミ) / /
第2著者 所属(和/英) (略称: )
(略称: )
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2011-11-09 15:45:00 
発表時間 180 
申込先研究会 IBISML 
資料番号 IEICE-IBISML2011-64 
巻番号(vol) IEICE-111 
号番号(no) no.275 
ページ範囲 pp.147-154 
ページ数 IEICE-8 
発行日 IEICE-IBISML-2011-11-02 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会