講演名 | 2020-03-06 強化学習に着想を得た人の移動モデルの検討 岩井 佑太郎(千葉工大), 藤原 明広(千葉工大), |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 強化学習とは,エージェントが行動した結果として環境からの報酬を繰り返し観測し,報酬の期待が高い行動を選択する機械学習の枠組みである.一方,人の移動パターンの統計的性質を満たす移動モデルが検討されてきた.しかし,強化学習に基づいた人の移動モデルの生成法については十分に検討されていない.本研究では,サンフランシスコにおけるタクシーの移動データを利用することで,客の乗車位置分布と運賃やガソリン代の報酬を与えることで行動選択を学習した移動モデルを生成する方法を提案する.強化学習のアルゴリズムとして$epsilon$-greedy法を用いた.探索パラメータ$epsilon$を変化させることで学習の度合いを比較した.その結果,タクシーの移動に暗黙の探索が含まれていることより,$epsilon=0$の時が最も累積報酬が高いことが分かった.強化学習を用いた移動モデル生成法の一般化についても考察する. |
抄録(英) | Reinforcement learning is a machine learning framework that an agent repeatedly observes reward from environment as a result of action to choose actions with high reward expectations. On the other hand, mobility models that satisfy the statistical properties of human mobility patterns have been proposed. However, a method of generating a mobility model based on reinforcement learning has not been sufficiently studied. In this paper, a dataset containing mobility traces of taxi cabs in San Francisco is used to propose a method of generating a mobility model that learns action selection by giving rewards, such as fare and gasoline charge, and also the distribution of passengers' positions. The $epsilon$-greedy method was used as the reinforcement learning algorithm. The degree of learning was compared by changing the search parameter $epsilon$. As a result, it was found that the cumulative reward was highest when $epsilon=0$ because the taxi movement included an implicit search. The generalization of the mobility model generation method using reinforcement algorithm was also considered. |
キーワード(和) | 人の移動モデル / 強化学習 / データ同化 |
キーワード(英) | Human mobility models / Reinforcement learning / Data assimilation |
資料番号 | IN2019-118 |
発行日 | 2020-02-27 (IN) |
研究会情報 | |
研究会 | NS / IN |
---|---|
開催期間 | 2020/3/5(から2日開催) |
開催地(和) | Royal Hotel 沖縄残波岬 |
開催地(英) | Royal Hotel Okinawa Zanpa-Misaki |
テーマ(和) | 一般 新型コロナウイルス感染症の状況を踏まえ、研究会および併催のワークショップを中止します。 |
テーマ(英) | General |
委員長氏名(和) | 岡崎 義勝(NTT) / 岸田 卓治(NTT-AT) |
委員長氏名(英) | Yoshikatsu Okazaki(NTT) / Takuji Kishida(NTT-AT) |
副委員長氏名(和) | 中尾 彰宏(東大) / 石田 賢治(広島市大) |
副委員長氏名(英) | Akihiro Nakao(Univ. of Tokyo) / Kenji Ishida(Hiroshima City Univ.) |
幹事氏名(和) | 谷川 陽祐(阪府大) / 水野 志郎(NTT) / 加島 伸悟(NTTコミュニケーションズ) / 持田 誠一郎(NTT) / 小畑 博靖(広島市大) / 樫原 俊太郎(KDDI総合研究所) |
幹事氏名(英) | Yosuke tanigawa(Osaka Pref Univ.) / Shiro Mizuno(NTT) / Shingo Kashima(NTT Communications) / Seiichiro Mochida(NTT) / Hiroyasu Obata(Hiroshima City Univ.) / Shuntaro Kashihara(KDDI Research) |
幹事補佐氏名(和) | 河野 伸也(NTT) |
幹事補佐氏名(英) | Shinya Kawano(NTT) |
講演論文情報詳細 | |
申込み研究会 | Technical Committee on Network Systems / Technical Committee on Information Networks |
---|---|
本文の言語 | JPN |
タイトル(和) | 強化学習に着想を得た人の移動モデルの検討 |
サブタイトル(和) | |
タイトル(英) | Considering a human mobility model inspired by reinforcement learning |
サブタイトル(和) | |
キーワード(1)(和/英) | 人の移動モデル / Human mobility models |
キーワード(2)(和/英) | 強化学習 / Reinforcement learning |
キーワード(3)(和/英) | データ同化 / Data assimilation |
第 1 著者 氏名(和/英) | 岩井 佑太郎 / Yuutaro Iwai |
第 1 著者 所属(和/英) | 千葉工業大学(略称:千葉工大) Chiba Institute of Technology(略称:CIT) |
第 2 著者 氏名(和/英) | 藤原 明広 / Akihiro Fujihara |
第 2 著者 所属(和/英) | 千葉工業大学(略称:千葉工大) Chiba Institute of Technology(略称:CIT) |
発表年月日 | 2020-03-06 |
資料番号 | IN2019-118 |
巻番号(vol) | vol.119 |
号番号(no) | IN-461 |
ページ範囲 | pp.237-242(IN), |
ページ数 | 6 |
発行日 | 2020-02-27 (IN) |