講演抄録/キーワード |
講演名 |
2012-03-12 14:40
部分観測マルコフ決定過程ベルマン方程式のカーネル化 ○西山 悠(統計数理研)・Abdeslam Boularias(MPI)・Arthur Gretton(UCL)・福水健次(統計数理研) IBISML2011-92 |
抄録 |
(和) |
最近のカーネル法である分布埋め込みとカーネルベイズルール(KBR)を使って,部分観測マルコフ決定過程(POMDP)を再生核ヒルベルト空間(RKHS)上で扱うことを行う.
状態集合が作る再生核ヒルベルト空間の上に価値関数を定義し,ベルマン(最適)方程式を再生核ヒルベルト空間上の方程式に埋め込むことを考える.学習される方策は,再生核ヒルベルト空間の元から行動への写像となる.
埋め込んだベルマン(最適)方程式の有限サンプル経験表現を与え,カーネルベイズルールと組み合わせたカーネル価値反復アルゴリズムを提案する.実験では,カーネル価値反復アルゴリズムを,部分観測決定過程のオンラインプランニングのベンチマークに適用し,方策が真のモデルの方策を学習した数値結果を示す.また,このカーネル法の下でQMDP近似を提案し,カーネル価値反復の初期価値関数設定と行動枝の枝刈りに使うことを提案する. |
(英) |
We propose to handle POMDPs in reproducing kernel Hilbert spaces (RKHSs) using recent kernel methods of embedding distributions in an RKHS and kernel Bayes rule (KBR).
We embed Bellman equations to equations over an RKHS on the set of states and define value functions as functions over the RKHS. We then learn a policy as a mapping from elements of the RKHS to actions. We give empirical representations of the Bellman equations and use it for value iteration algorithms with the kernel Bayes rule. In experiments, we demonstrate the kernel value iteration with finite horizons on some benchmarks in POMDPs and show that the policy converged to the policy that the exact model computed. We also propose QMDP approximations with this kernel methods for the setting of initial values and for pruning action edges to make computationally efficient. |
キーワード |
(和) |
部分観測マルコフ決定過程 / 再生核ヒルベルト空間 / 分布埋め込み / 価値反復 / QMDP / / / |
(英) |
POMDP / RKHS / Distribution Embeddings / Value Iteration / QMDP / / / |
文献情報 |
信学技報, vol. 111, no. 480, IBISML2011-92, pp. 35-42, 2012年3月. |
資料番号 |
IBISML2011-92 |
発行日 |
2012-03-05 (IBISML) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2011-92 |