講演名 2022-03-11
自己視点動作映像に対する厳密なアフォーダンスのアノテーション
于 澤程(東大), 黄 逸飛(東大), 古田 諒佑(東大), 郷津 優介(東大), 佐藤 洋一(東大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) Object affordance has attracted a growing interest in computer vision. It is an important concept that builds a bridge between human ability and object property, and provides fine-grained information for other tasks like activity forecasting, scene understanding, etc. Although affordance is investigated in many previous works, existing affordance datasets failed to distinguish affordance from other concepts like action and function. In this paper, We propose an efficient affordance annotation scheme for egocentric action video datasets to address this issue, which gives a clear and accurate definition of affordance. The scheme was applied to two large-scale egocentric video datasets: EPIC-KITCHENS and HOMAGE, and tested with various benchmark tasks.
抄録(英) Object affordance has attracted a growing interest in computer vision. It is an important concept that builds a bridge between human ability and object property, and provides fine-grained information for other tasks like activity forecasting, scene understanding, etc. Although affordance is investigated in many previous works, existing affordance datasets failed to distinguish affordance from other concepts like action and function. In this paper, We propose an efficient affordance annotation scheme for egocentric action video datasets to address this issue, which gives a clear and accurate definition of affordance. The scheme was applied to two large-scale egocentric video datasets: EPIC-KITCHENS and HOMAGE, and tested with various benchmark tasks.
キーワード(和) アフォーダンス / 自己視点 / データセット / アノテーション
キーワード(英) affordance / egocentric / dataset / annotation
資料番号 PRMU2021-81
発行日 2022-03-03 (PRMU)

研究会情報
研究会 PRMU / IPSJ-CVIM
開催期間 2022/3/10(から2日開催)
開催地(和) オンライン開催
開催地(英) Online
テーマ(和) 微分可能レンダリング
テーマ(英) Differentiable rendering
委員長氏名(和) 内田 誠一(九大)
委員長氏名(英) Seiichi Uchida(Kyushu Univ.)
副委員長氏名(和) 岩村 雅一(阪府大) / 安倍 満(デンソーアイティーラボラトリ)
副委員長氏名(英) Masakazu Iwamura(Osaka Pref. Univ.) / Mitsuru Anpai(Denso IT Lab.)
幹事氏名(和) 柴田 剛志(NTT) / 西山 正志(鳥取大)
幹事氏名(英) Takashi Shibata(NTT) / Masashi Nishiyama(Tottori Univ.)
幹事補佐氏名(和) 山口 光太(サイバーエージェント) / 松井 勇佑(東大)
幹事補佐氏名(英) Kouta Yamaguchi(CyberAgent) / Yusuke Matsui(Univ. of Tokyo)

講演論文情報詳細
申込み研究会 Technical Committee on Pattern Recognition and Media Understanding / Special Interest Group on Computer Vision and Image Media
本文の言語 ENG-JTITLE
タイトル(和) 自己視点動作映像に対する厳密なアフォーダンスのアノテーション
サブタイトル(和)
タイトル(英) Precise Affordance Annotation for Egocentric Action Video Datasets
サブタイトル(和)
キーワード(1)(和/英) アフォーダンス / affordance
キーワード(2)(和/英) 自己視点 / egocentric
キーワード(3)(和/英) データセット / dataset
キーワード(4)(和/英) アノテーション / annotation
第 1 著者 氏名(和/英) 于 澤程 / Zecheng Yu
第 1 著者 所属(和/英) 東京大学(略称:東大)
University of Tokyo(略称:Univ. of Tokyo)
第 2 著者 氏名(和/英) 黄 逸飛 / Yifei Huang
第 2 著者 所属(和/英) 東京大学(略称:東大)
University of Tokyo(略称:Univ. of Tokyo)
第 3 著者 氏名(和/英) 古田 諒佑 / Ryosuke Furuta
第 3 著者 所属(和/英) 東京大学(略称:東大)
University of Tokyo(略称:Univ. of Tokyo)
第 4 著者 氏名(和/英) 郷津 優介 / Yusuke Goutsu
第 4 著者 所属(和/英) 東京大学(略称:東大)
University of Tokyo(略称:Univ. of Tokyo)
第 5 著者 氏名(和/英) 佐藤 洋一 / Yoichi Sato
第 5 著者 所属(和/英) 東京大学(略称:東大)
University of Tokyo(略称:Univ. of Tokyo)
発表年月日 2022-03-11
資料番号 PRMU2021-81
巻番号(vol) vol.121
号番号(no) PRMU-427
ページ範囲 pp.133-138(PRMU),
ページ数 6
発行日 2022-03-03 (PRMU)