電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
‥‥ (ESS/通ソ/エレソ/ISS)
技報アーカイブ
‥‥ (エレソ/通ソ)
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2013-11-12 15:45
[ポスター講演]ベイズ最適なdictionary learningの統計力学
坂田綾香樺島祥介東工大
技報オンラインサービス実施中
抄録 (和) dictionary learning (DL) とは,対象とするデータがスパースに表現されるための基底(dictionary) をサンプルデータから学習する問題である.dictionary を一意に同定するために必要なサンプル数はsample complexity と呼ばれ,これまで様々な先行研究において評価されてきた.sample complexity の値は,学習に用いる規則により変化する.本研究ではsample complexity の最小値を見積もるという目的でベイズ最適な学習則を用いた場合のsample complexity の典型時評価を行う.その結果,dictionary の列ベクトルと行ベクトルの比 が1 より大きい場合には,sample complexity はデータ次元のオーダーで十分であるということがわかった.さらに, がある臨界値 M より大きい時,学習の成功を意味する巨視的な状態が大域的な安定解として存在することがわかった.この結果は,belief propagation などの局所探索型の推論アルゴリズムによってO(N) のサンプル数でDL が成功することを示唆するものである. 
(英) Dictionary learning is a problem to learn a dictionary matrix D (M times N dimension) and a sparse matrix X (N times P dimension), whose density of non-zero component is rho, from a training sample Y = DX/sqrt(N). We
focus on the minimum sample size Pc (sample complexity) necessary for perfectly identifying D of the optimal learning scheme. We show that Pc  O(N) holds when alpha(=M/N) >rho in the limit of N to infinity, and the posterior distribution given Y is condensed only at the planted solution when alpha > alpha_M(rho). This suggests that local search algorithms such as belief propagation may allow us to learn D with a low computational complexity using O(N) samples.
キーワード (和) 辞書学習 / 圧縮センシング / レプリカ法 / / / / /  
(英) dictionary learning / compressed sensing / replica method / / / / /  
文献情報 信学技報, vol. 113, no. 286, IBISML2013-40, pp. 31-38, 2013年11月.
資料番号 IBISML2013-40 
発行日 2013-11-05 (IBISML) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380

研究会情報
研究会 IBISML  
開催期間 2013-11-10 - 2013-11-13 
開催地(和) 東京工業大学 蔵前会館 
開催地(英) Tokyo Institute of Technology, Kuramae-Kaikan 
テーマ(和) 第16回情報論的学習理論ワークショップ & 第2回IBISMLチュートリアル 
テーマ(英) The 16th IBIS Workshop & The 2nd IBIS Tutorial 
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2013-11-IBISML 
本文の言語 日本語 
タイトル(和) ベイズ最適なdictionary learningの統計力学 
サブタイトル(和)  
タイトル(英) Statistical mechanics of Bayesian optimal dictionary learning 
サブタイトル(英)  
キーワード(1)(和/英) 辞書学習 / dictionary learning  
キーワード(2)(和/英) 圧縮センシング / compressed sensing  
キーワード(3)(和/英) レプリカ法 / replica method  
キーワード(4)(和/英) /  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 坂田 綾香 / Ayaka Sakata / サカタ アヤカ
第1著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Tokyo Inst. of Tech.)
第2著者 氏名(和/英/ヨミ) 樺島 祥介 / Yoshiyuki Kabashima / カバシマ ヨシユキ
第2著者 所属(和/英) 東京工業大学 (略称: 東工大)
Tokyo Institute of Technology (略称: Tokyo Inst. of Tech.)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2013-11-12 15:45:00 
発表時間 180 
申込先研究会 IBISML 
資料番号 IEICE-IBISML2013-40 
巻番号(vol) IEICE-113 
号番号(no) no.286 
ページ範囲 pp.31-38 
ページ数 IEICE-8 
発行日 IEICE-IBISML-2013-11-05 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会