講演名 2010-03-10
強化学習における行動履歴テーブルに基づく状態空間の自律的構成法について
木村 迪郎, 中野 秀洋, 宮内 新,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 強化学習では一般的に状態空間を離散化し,離散化された各状態に対して方策を学習していく.実際の環境では,状態入力は多次元かつ細かな離散化が必要になることが多い.実用的なタスクを学習させるためには,状態数の増加による,計算量の増大の問題を解決する必要かおる.そこで本研究では大規模な環境における計算量の削減を目的として,自律的に設計した状態空間を利用した,より効率的な学習法について考察する.具体的には個々の状態における状態遷移ルールを考慮した状態空間の自律的構成法を提案する.
抄録(英) In the reinforcement learning, the discrete state space is generally constructed for red environments, and learning agents learn the policy in to each state. A high-dimensional and detailed discretization is often needed in the state input in the real environments. In order to learn practical tasks, it is necessary to reduce a huge computational complexity because of an increase in the number of states. Then, this study aims to reduce the computational complexity in large-scale environments. And, more efficient learning method based on an autonomous composition of state space is presented. Concretely, a method for designing state sets that considers state transitions is proposed.
キーワード(和) 強化学習 / 状態空間の自律的構成 / 高速化
キーワード(英) Reinforcement learning / Autonomous composition of state space / Speeding up
資料番号 NLP2009-185
発行日

研究会情報
研究会 NLP
開催期間 2010/3/2(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Nonlinear Problems (NLP)
本文の言語 JPN
タイトル(和) 強化学習における行動履歴テーブルに基づく状態空間の自律的構成法について
サブタイトル(和)
タイトル(英) Autonomous Composition of State Space Based on Action History Table in Reinforcement Learning
サブタイトル(和)
キーワード(1)(和/英) 強化学習 / Reinforcement learning
キーワード(2)(和/英) 状態空間の自律的構成 / Autonomous composition of state space
キーワード(3)(和/英) 高速化 / Speeding up
第 1 著者 氏名(和/英) 木村 迪郎 / Michio Kimura
第 1 著者 所属(和/英) 東京都市大学
Tokyo City University
第 2 著者 氏名(和/英) 中野 秀洋 / Hidehiro Nakano
第 2 著者 所属(和/英) 東京都市大学
Tokyo City University
第 3 著者 氏名(和/英) 宮内 新 / Arata Miyauchi
第 3 著者 所属(和/英) 東京都市大学
Tokyo City University
発表年月日 2010-03-10
資料番号 NLP2009-185
巻番号(vol) vol.109
号番号(no) 458
ページ範囲 pp.-
ページ数 6
発行日