講演名 2023-05-19
Attention機構を用いた物体中心表現学習
中田 秀基(産総研), 麻生 英樹(産総研),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 動画像を用いた表現学習では、個々の物体をマスクで分離した上で個別に物体表現を教師なしで学習する手法が広く用いられている。これらの表現学習手法の性能は高く、多くのダウンストリームタスクで高い性能を示しているが、計算量が膨大であるという問題点がある。われわれは、従来の動画表現学習手法であるViMONをベースとし、これにAttention機構を導入することで、性能を維持しつつ計算量を低減することを試みた。Attention機構を導入する位置によって2つの手法を提案し、それぞれ実装を行い、再構成誤差、実行時間、ダウンストリームタスクの性能で評価を行った。その結果、ベースとなる手法と比較して、より高い性能を示しながら大幅な計算量の低減できることを確認した。
抄録(英) For object-centric representation learning, several slot-based methods, that separate objects using masks and learn the objects separately, are proposed. While these methods are proved to be useful on various downstream tasks, it is known that they require a significant amount of computation for training. We propose the introduction of attention mechanisms into slot-based method to simplify and speed up the computation. We pick ViMON as the base structure and propose two methods, named AttnViMON and SFA.We evaluate them in terms of reconstruction error and computation time, and a downstream task. The proposed methods demonstrate that they achieve significant speed-up while showing even better performance.
キーワード(和) 表現学習 / 教師なし機械学習 / Attention 機構
キーワード(英) Representation Learning / Unsupervised Learning / Attention Mechanism
資料番号 PRMU2023-13
発行日 2023-05-11 (PRMU)

研究会情報
研究会 PRMU / IPSJ-CVIM
開催期間 2023/5/18(から2日開催)
開催地(和) 名古屋工業大学
開催地(英)
テーマ(和) NeRF等のニューラルシーン表現
テーマ(英)
委員長氏名(和) 内田 誠一(九大)
委員長氏名(英) Seiichi Uchida(Kyushu Univ.)
副委員長氏名(和) 舩冨 卓哉(奈良先端大) / 安倍 満(デンソーアイティーラボラトリ)
副委員長氏名(英) Takuya Funatomi(NAIST) / Mitsuru Anpai(Denso IT Lab.)
幹事氏名(和) 山口 光太(サイバーエージェント) / 松井 勇佑(東大)
幹事氏名(英) Kouta Yamaguchi(CyberAgent) / Yusuke Matsui(Univ. of Tokyo)
幹事補佐氏名(和) 井上 中順(東工大) / 川西 康友(理研)
幹事補佐氏名(英) Nakamasa Inoue(Tokyo Inst. of Tech.) / Yasutomo Kawanishi(Riken)

講演論文情報詳細
申込み研究会 Technical Committee on Pattern Recognition and Media Understanding / Special Interest Group on Computer Vision and Image Media
本文の言語 JPN
タイトル(和) Attention機構を用いた物体中心表現学習
サブタイトル(和)
タイトル(英) Object-Centric Representation Learning with Attention Mechanism
サブタイトル(和)
キーワード(1)(和/英) 表現学習 / Representation Learning
キーワード(2)(和/英) 教師なし機械学習 / Unsupervised Learning
キーワード(3)(和/英) Attention 機構 / Attention Mechanism
第 1 著者 氏名(和/英) 中田 秀基 / Hidemoto Nakada
第 1 著者 所属(和/英) 国立研究開発法人産業技術総合研究所(略称:産総研)
National Institute of Advanced Industrial Science and Technology(略称:AIST)
第 2 著者 氏名(和/英) 麻生 英樹 / Hideki Asoh
第 2 著者 所属(和/英) 国立研究開発法人産業技術総合研究所(略称:産総研)
National Institute of Advanced Industrial Science and Technology(略称:AIST)
発表年月日 2023-05-19
資料番号 PRMU2023-13
巻番号(vol) vol.123
号番号(no) PRMU-30
ページ範囲 pp.68-73(PRMU),
ページ数 6
発行日 2023-05-11 (PRMU)