講演抄録/キーワード |
講演名 |
2015-03-19 16:10
一人称映像からの行動認識のための骨格推定 ○米本 悠・村崎和彦・大澤達哉・数藤恭子・島村 潤・谷口行信(NTT) BioX2014-56 PRMU2014-176 |
抄録 |
(和) |
撮影者の頭部に着けたカメラで撮影される一人称映像から,撮影者の動きを記述する特徴量として骨格姿
勢を推定する手法を提案する.関節角と関節間の長さによって表現される骨格姿勢により,人の動きを直接的に記述
でき,動きに対する見えの違いによらない記述が可能であるが,従来の骨格姿勢推定アルゴリズムは,対象となる人
物の全身が映っているという前提があり,撮影者の体が部分的にしか映らない一人称映像において骨格姿勢を推定す
ることはできなかった.提案手法では,一人称視点のデプス画像を入力とし,カメラの位置姿勢,ユーザの体型に関
する事前情報,デプス画像上の手腕関節の位置を骨格姿勢の制約として用い,時系列の情報を考慮した骨格姿勢追跡
手法を提案する.実験により,手先位置だけでなく,ひじ・肩・胸といった映像に映らない関節位置をも推定が可能
であることが示された.さらに,推定された骨格姿勢を行動認識において特徴量として用いることで,画像内での手
の動きを特徴量とする場合に比べ,よそ見などの視点移動に対し頑健に認識が可能であることが示された. |
(英) |
In this paper, we present a novel method to estimate articulated human pose for ego-centric action
recognition. Many researches of action recognition from third-person vision have shown that articulated human
pose is a feature which directly dscribes human motion, and is invaliant to the view from camera. However, they
assume the whole gure of subjects appears in the image and ,in our best knowlege, no method for estimating ar-
ticulated pose from ego-centric vision is proposed. Our method can extract the pose by integrating hand detection,
camera pose estimation, and time-series ltering with the constraint of body shape. The experimental evaluations
show that joint positions are correctly estimated even though they do not appear in the image, and that the accuracy
of action recognition is improved through motion features based on estimated poses compared with motion features
extracted from only hand position in the image. |
キーワード |
(和) |
一人称映像 / 行動認識 / 骨格姿勢推定 / / / / / |
(英) |
action recognition / articulated pose estimation / ego-centric vision / / / / / |
文献情報 |
信学技報, vol. 114, no. 521, PRMU2014-176, pp. 105-110, 2015年3月. |
資料番号 |
PRMU2014-176 |
発行日 |
2015-03-12 (BioX, PRMU) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
BioX2014-56 PRMU2014-176 |