講演名 2020-03-06
リアルタイム配信に向けた分割自由視点映像のパイプラインベース分散生成手法
福元 真哉(慶大), 村上 正樹(慶大), 岡本 聡(慶大), 山中 直明(慶大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) スポーツ観戦などにおける新たな価値体験を提供する技術として,ユーザが特定のカメラからの視点に捉われず,様々な角度から視聴することが可能な自由視点映像が注目されている.自由視点映像には大きく分けて,リアルタイム性を重視した方式である「視点固定型」と,インタラクティブ性を重視した方式である「3Dモデル配信型」の二種類が存在する.しかし,各ユーザが任意に視点を決定することが可能な自由視点映像の生成には,画像処理に膨大な計算時間を要するため,インタラクティブ性とリアルタイム性の両立の実現は困難とされてきた.そこで本研究では,インタラクティブ性は確保しつつ,処理時間を削減しリアルタイムを目指すために,分散処理と差分処理を用いたパイプライン処理と視点分割を導入した生成手法を提案し,比較を行った結果,従来手法と比較して,約105倍のフレーム平均生成速度の向上を確認した.また,理論的な考察も行った結果,従来手法では30 fpsの動画を実現するのに約81秒の遅延時間と4,852台のサーバが必要であったが,提案手法を用いれば85台のサーバで遅延時間約3秒の動画が生成可能であることを見積もることができた.
抄録(英) A free-viewpoint video, which allows users to watch from various angles without being caught by a specific camera, have been attracting attention as a technology that provides a new value experience in watching sports. There are two types of free-viewpoint video systems: "fixed viewpoint type", which emphasizes real-time property, and "3D model distribution type", which emphasizes interactivity. However, it has been difficult to realize both interactive and real-time property because it requires a huge amount of calculation time to generate a free-viewpoint video that allows each user to freely determine the viewpoint. In this paper, a frame generation method that introduces pipeline processing by using distributed processing and difference processing, and viewpoint division in order to reduce processing time and achieve real-time while maintaining interactivity is proposed. As a result, it is confirmed that the average frame generation speed is improved almost 105 times compared to the conventional method. Moreover, as a result of theoretical considerations, the conventional method requires a delay time of 81 seconds and 4,852 servers to realize a 30 fps video. On the other hand, it is estimated that the proposed method requires a delay time of 3 seconds and 85 servers to generate a 30 fps video.
キーワード(和) 自由視点映像 / 分散処理 / 画像処理
キーワード(英) Free-viewpoint video / Distributed processing / Image processing
資料番号 NS2019-217
発行日 2020-02-27 (NS)

研究会情報
研究会 NS / IN
開催期間 2020/3/5(から2日開催)
開催地(和) Royal Hotel 沖縄残波岬
開催地(英) Royal Hotel Okinawa Zanpa-Misaki
テーマ(和) 一般
新型コロナウイルス感染症の状況を踏まえ、研究会および併催のワークショップを中止します。
初日午後に第36回情報ネットワーク・ネットワークシステム研究ワークショップを開催します。
テーマ(英) General
委員長氏名(和) 岡崎 義勝(NTT) / 岸田 卓治(NTT-AT)
委員長氏名(英) Yoshikatsu Okazaki(NTT) / Takuji Kishida(NTT-AT)
副委員長氏名(和) 中尾 彰宏(東大) / 石田 賢治(広島市大)
副委員長氏名(英) Akihiro Nakao(Univ. of Tokyo) / Kenji Ishida(Hiroshima City Univ.)
幹事氏名(和) 谷川 陽祐(阪府大) / 水野 志郎(NTT) / 加島 伸悟(NTTコミュニケーションズ) / 持田 誠一郎(NTT) / 小畑 博靖(広島市大) / 樫原 俊太郎(KDDI総合研究所)
幹事氏名(英) Yosuke tanigawa(Osaka Pref Univ.) / Shiro Mizuno(NTT) / Shingo Kashima(NTT Communications) / Seiichiro Mochida(NTT) / Hiroyasu Obata(Hiroshima City Univ.) / Shuntaro Kashihara(KDDI Research)
幹事補佐氏名(和) 河野 伸也(NTT)
幹事補佐氏名(英) Shinya Kawano(NTT)

講演論文情報詳細
申込み研究会 Technical Committee on Network Systems / Technical Committee on Information Networks
本文の言語 JPN
タイトル(和) リアルタイム配信に向けた分割自由視点映像のパイプラインベース分散生成手法
サブタイトル(和)
タイトル(英) Pipeline-Based Distributed Frame Generating Method with Divided Viewpoint for Real-Time Free-Viewpoint Video Cast
サブタイトル(和)
キーワード(1)(和/英) 自由視点映像 / Free-viewpoint video
キーワード(2)(和/英) 分散処理 / Distributed processing
キーワード(3)(和/英) 画像処理 / Image processing
第 1 著者 氏名(和/英) 福元 真哉 / Shinya Fukumoto
第 1 著者 所属(和/英) 慶應義塾大学(略称:慶大)
Keio University(略称:Keio Univ.)
第 2 著者 氏名(和/英) 村上 正樹 / Masaki Murakami
第 2 著者 所属(和/英) 慶應義塾大学(略称:慶大)
Keio University(略称:Keio Univ.)
第 3 著者 氏名(和/英) 岡本 聡 / Satoru Okamoto
第 3 著者 所属(和/英) 慶應義塾大学(略称:慶大)
Keio University(略称:Keio Univ.)
第 4 著者 氏名(和/英) 山中 直明 / Naoaki Yamanaka
第 4 著者 所属(和/英) 慶應義塾大学(略称:慶大)
Keio University(略称:Keio Univ.)
発表年月日 2020-03-06
資料番号 NS2019-217
巻番号(vol) vol.119
号番号(no) NS-460
ページ範囲 pp.215-220(NS),
ページ数 6
発行日 2020-02-27 (NS)