講演抄録/キーワード |
講演名 |
2009-09-14 13:35
強化学習によるゲームの評価関数の獲得 ○但馬康宏(岡山県立大) COMP2009-28 |
抄録 |
(和) |
二人零和有限完全情報ゲームをプレイするアルゴリズムは,ゲームの途中局面を評価する評価関数を作成
し,ミニマックス法にてゲーム木を探索することによりよい手を探すことができる.本研究では,強化学習の代表的
な学習アルゴリズムであるQ 学習をゲームの評価関数獲得に用いてパラメータ調整を行った.とくに,Q 学習の状態
遷移における報酬を以下の3 通り,(1) ランダムシミュレーションの勝率とする方法,(2) UCB1 アルゴリズムの勝率
とする方法,(3) UCT アルゴリズムの勝率とする方法,とすることを提案し,それぞれのモデルについて評価実験を
行った.その結果,従来のモデル化よりも収束までの学習回数を改善することができた. |
(英) |
On finite two-person zero-sum perfect-information games, we can find the best move by minmax search
on the game tree with an evaluation function. In this paper, we propose a parameter acquisition method of an
evaluation function by Q-learning . In our method, there are three variations of rewards on a state transition: (1)
the winning rate of random simulations, (2) the winning rate of the output of UCB1 algorithm, and (3) the winning
rate of UCT algorithm. Then, we evaluate the effectiveness of our method in experiments. |
キーワード |
(和) |
Q学習 / ゲーム木探索 / 評価関数 / k本腕バンデット問題 / / / / |
(英) |
Q-learning / game tree / evaluation function / k-armed bandit problem / / / / |
文献情報 |
信学技報, vol. 109, no. 195, COMP2009-28, pp. 21-26, 2009年9月. |
資料番号 |
COMP2009-28 |
発行日 |
2009-09-07 (COMP) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
COMP2009-28 |