講演名 2014-12-04
一人称視点映像を用いた対面会話における話者間の社会的地位の推定(人間と機械の協働過程から生まれる知のコンピューティング技術,人間と機械の協働過程から生まれる知のコンピューティング技術,及び一般)
樋口 未来, 木谷 クリス 真実, 佐藤 洋一,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) Google Glass, GoPro Heroといった頭部に装着可能なデバイスが普及しつつある.それらのデバイスにより取得した一人称視点映像を用いた研究が注目されており,ソーシャルインタラクションの解析,自己動作の認識が報告されている.本研究では,ソーシャルインタラクションのさらなる理解を目的に,一人称視点映像を用いて一対一の対面会話における話者間の社会的地位を推定する.社会的地位とは例えば,教授と学生,雇用主と従業員といった社会的な関係である.本研究では,これらの話者間の社会的地位の上限関係に注目し,一人称の社会的地位が二人称に対して(1)目上:Supervisor,(2)目下:Subordinate,(3)同等:Peerのいずれに該当するかを推定する.人は,会話をする際に言語のみでなく頷き等のノンバーバル言語を用いており,それらを相手の社会的地位に合わせて調整していると考えられる.例えば,目上の人と話をするときは正しい姿勢を取り,はっきりと頷くことが多い.また,同等の地位の同級生や同僚とと話をする場合は,より楽な姿勢を取り得る.そこで本研究では,頷きや姿勢の変化といった視覚的な非言語コミュニケーションの特徴から,社会的地位を推定する手法を提案する.社会的地位を推定する提案手法の有効性を確認するために,14個の一対一の対面会話映像を取得し,社会的地位の推定性能を評価した.評価の結果,視覚的な非言語コミュニケーションである頭部の動き特徴のみから,マルチクラス識別器を用いて社会的地位を推定できることを確認した.
抄録(英) We address the novel task of estimating relative social status using a wearable camera with the ultimate goal of allowing intelligent systems to understand and better support people during social interactions. As a first step towards this goal, we propose a data-driven regression technique that aggregates visual features to capture the characteristics of social interaction. In particular, we extract a set of visual non-verbal features that can be seamlessly extracted using a wearable camera (e.g., movement of head and change in posture) in order to detect subtle cues that are indicative of social dynamics. To validate our approach, we present a dataset of over two hours of realistic indoor face-to-face conversation. We evaluate the classification accuracy of our proposed system on 14 different conversational scenes. Our experiments confirm that our approach is able to robustly estimate relative social status using a wearable first-person point-of-view camera.
キーワード(和) 一人称視点映像 / 社会的地位 / ソーシャルインタラクション / 非言語コミュニケーション
キーワード(英) Egocentric vison / First-person vision / Social status / Social interaction / Nonverbal communication
資料番号 CNR2014-25
発行日

研究会情報
研究会 CNR
開催期間 2014/11/27(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Cloud Network Robotics (CNR)
本文の言語 ENG
タイトル(和) 一人称視点映像を用いた対面会話における話者間の社会的地位の推定(人間と機械の協働過程から生まれる知のコンピューティング技術,人間と機械の協働過程から生まれる知のコンピューティング技術,及び一般)
サブタイトル(和)
タイトル(英) Estimating Relative Social Status in Face-to-Face Interactions using First-person Vision
サブタイトル(和)
キーワード(1)(和/英) 一人称視点映像 / Egocentric vison
キーワード(2)(和/英) 社会的地位 / First-person vision
キーワード(3)(和/英) ソーシャルインタラクション / Social status
キーワード(4)(和/英) 非言語コミュニケーション / Social interaction
第 1 著者 氏名(和/英) 樋口 未来 / Mirai HIGUCHI
第 1 著者 所属(和/英) 東京大学生産技術研究所
Institute of Industrial Science, The University of Tokyo
第 2 著者 氏名(和/英) 木谷 クリス 真実 / Kris MAKOTO KITANI
第 2 著者 所属(和/英) / 東京大学生産技術研究所
Carnegie Mellon University
第 3 著者 氏名(和/英) 佐藤 洋一 / Yoichi SATO
第 3 著者 所属(和/英)
Institute of Industrial Science, The University of Tokyo
発表年月日 2014-12-04
資料番号 CNR2014-25
巻番号(vol) vol.114
号番号(no) 351
ページ範囲 pp.-
ページ数 6
発行日