講演抄録/キーワード |
講演名 |
2011-03-10 16:00
物体運動の時間的・空間的な連続性を保持した視点移動を実現するビデオテクスチャ ○馬場口 豊・粂 秀行・佐藤智和・横矢直和(奈良先端大) PRMU2010-262 |
抄録 |
(和) |
動的環境を一定時間撮影したビデオ映像を適切なタイミングで繰り返し再生することで,任意時間運動し続ける物体の映像を合成する手法はビデオテクスチャと呼ばれる.ビデオテクスチャの生成手法として,従来,撮影した動画像中の物体の運動の連続性を考慮した視線方向が変更可能なビデオテクスチャを生成する手法が提案されているが,視点移動は考慮されていなかった.本報告では,離散的な位置で異なる時間に撮影した複数の動画像を入力とし,(1)周期運動物体を対象とした映像の繰り返し再生,(2)撮影地点間での類似フレームの接続による中間視点画像生成,を行うことで,物体運動の時間的・空間的な連続性を保持した視点移動を実現するビデオテクスチャ生成手法を提案する.実験では,実環境における周期運動物体を対象とした動画像を入力として用い,提案手法によって視点移動可能なビデオテクスチャを実際に生成可能であることを示す. |
(英) |
This report presents a method for generating viewpoint-varying video textures using asynchronous video sequences taken from different viewpoints.Video texture is a naturally looping video whose playback time can be infinity.As one of extensions for video textures, a method that enables users to change the line of sight considering the continuity of the movement of the object has been proposed.However, there is one limitation that users cannot change viewpoints.In this report, in order to make it possible to change viewpoints in video textures, video sequences taken from different viewpoints at different time are used as input data.The proposed method is constructed of two processes: (1)synthesis of naturally looping video for each viewpoint, (2)connection of frames between adjacent viewpoints considering temporal and spatial continuity.In experiment, we successfully generate viewpoint-varying video textures from real video sequences. |
キーワード |
(和) |
ビデオテクスチャ / 視点移動 / 繰り返し再生 / 中間視点画像生成 / / / / |
(英) |
Video textures / changing viewpoints / looping videos / view interpolation / / / / |
文献情報 |
信学技報, vol. 110, no. 467, PRMU2010-262, pp. 139-144, 2011年3月. |
資料番号 |
PRMU2010-262 |
発行日 |
2011-03-03 (PRMU) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2010-262 |