講演抄録/キーワード |
講演名 |
2017-10-12 10:00
Deep Spatio-Temporal Transformationを用いた逐次人物動作検出 ○髙垣幸秀・青野雅樹(豊橋技科大) PRMU2017-68 |
抄録 |
(和) |
本研究では、複数フレームのスケルトンデータを入力とするConvolutional Neural Network を用いた逐次人物動作検出について述べる.スケルトンデータを全結合層により,ある画像に変換し,その画像を3D畳込み層への入力とするネットワークを提案する.さらに,出力としてフレームの動作クラスの所属確率を出力し,精度向上のために複数フレーム間の所属確率に対し,平均フィルタを複数回適用する.実験では、人物動作のスケルトンデータ,画像データ,デプスデータからなるOnline Action Detection datasetを用いて,従来手法と提案手法との逐次人物動作検出精度の比較を行った.結果として,従来手法よりも高精度の検出結果を得ることが出来た. |
(英) |
In this research, we describe online human action detection using Convolutional Neural Network which inputs skeleton data of multiple frames. We propose a network that transforms skeleton data into a certain image by the Fully connected layer and uses the image as input to the 3D convolution layer. Furthermore, we output the probability of the action class of the frame, and apply an average filter multiple times to the probability among frames for improvement of performance. In the experiment, we compared online human action detection accuracy between conventional method and proposed method using Online Action Detection Dataset consisting of skeleton data, image data, and depth data of human action. As a result, we could improve the performance of our method against conventional methods. |
キーワード |
(和) |
スケルトン / 逐次人物動作検出 / Transform / CNN / Temporal Localization / / / |
(英) |
Skeleton / Online Action Detection / Transform / CNN / Temporal Localization / / / |
文献情報 |
信学技報, vol. 117, no. 238, PRMU2017-68, pp. 31-35, 2017年10月. |
資料番号 |
PRMU2017-68 |
発行日 |
2017-10-05 (PRMU) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2017-68 |