講演抄録/キーワード |
講演名 |
2012-03-14 13:20
リカレントネットを用いた強化学習による探索行動と多値記憶の創発 ○柴田克成・後藤健太(大分大) NC2011-134 |
抄録 |
(和) |
著者らは,ニューラルネットを用いた強化学習を行うことでさまざまな機能が合目的的かつ調和的に創発することを提唱してきた.本稿では,記憶を利用した決定論的な探索行動の創発に焦点を当てる.ゴールが見えない3x3のランダム迷路タスクのQ学習において,リカレントネットを導入することでエージェントは過去の経験を考慮したより適切なQ値を表現し,より適切な探索行動を学習することができること,さらに,未知の環境でもある程度有効に働くことを確認した.また,分岐位置がランダムに出現する単純な環境での学習では,最適行動実現に必ずしも必要ではないが,適切なQ値を表現するために多値の分岐位置を記憶するようになることを示した. |
(英) |
The authors have propounded that various functions emerge purposively and harmoniously through reinforcement learning with a neural network. In this paper, emergence of deterministic ``exploration'' behavior utilizing memory is focused on. In the simulation of 3 × 3 random maze with an invisible goal task, by introducing a recurrent neural network for Q-learning, an agent could represent more accurate Q-values considering past experiences, and learn more appropriate exploration behaviors. The acquired knowledge could be generalized in some unknown environments to some extent. It is also shown that through the learning in a simple environment with a random-located branch, the recurrent neural network memorizes and keeps the multi-valued branch position to represent accurate Q-values even though that is not required to realize the optimal path. |
キーワード |
(和) |
強化学習 / リカレントニューラルネット / 探索の学習 / 記憶 / 機能創発 / / / |
(英) |
reinforcement learning / recurrent neural network / learning of exploration / memory / function emergence / / / |
文献情報 |
信学技報, vol. 111, no. 483, NC2011-134, pp. 75-80, 2012年3月. |
資料番号 |
NC2011-134 |
発行日 |
2012-03-07 (NC) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
NC2011-134 |
研究会情報 |
研究会 |
MBE NC |
開催期間 |
2012-03-14 - 2012-03-16 |
開催地(和) |
玉川大学 |
開催地(英) |
Tamagawa University |
テーマ(和) |
ME,一般 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
NC |
会議コード |
2012-03-MBE-NC |
本文の言語 |
日本語 |
タイトル(和) |
リカレントネットを用いた強化学習による探索行動と多値記憶の創発 |
サブタイトル(和) |
|
タイトル(英) |
Emergence of Exploration Bahavior and Multi-valued Memory through Reinforcement Learning with a Recurrent Neural Network |
サブタイトル(英) |
|
キーワード(1)(和/英) |
強化学習 / reinforcement learning |
キーワード(2)(和/英) |
リカレントニューラルネット / recurrent neural network |
キーワード(3)(和/英) |
探索の学習 / learning of exploration |
キーワード(4)(和/英) |
記憶 / memory |
キーワード(5)(和/英) |
機能創発 / function emergence |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
柴田 克成 / Katsunari Shibata / シバタ カツナリ |
第1著者 所属(和/英) |
大分大学 (略称: 大分大)
Oita University (略称: Oita Univ.) |
第2著者 氏名(和/英/ヨミ) |
後藤 健太 / Kenta Goto / ゴトウ ケンタ |
第2著者 所属(和/英) |
大分大学 (略称: 大分大)
Oita University (略称: Oita Univ.) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2012-03-14 13:20:00 |
発表時間 |
25分 |
申込先研究会 |
NC |
資料番号 |
NC2011-134 |
巻番号(vol) |
vol.111 |
号番号(no) |
no.483 |
ページ範囲 |
pp.75-80 |
ページ数 |
6 |
発行日 |
2012-03-07 (NC) |