講演抄録/キーワード |
講演名 |
2015-02-23 15:00
AECを用いた奥行きマップに対する動画圧縮方式 ○伊藤一樹(中大)・チョン ジーン(NII)・久保田 彰(中大) ITS2014-58 IE2014-85 |
抄録 |
(和) |
本稿では,奥行マップにおける復号誤差と符号量のトレードオフな関係の最適化を,Arithmetic Edge Coding(AEC)とHEVC/H.265の予測モードにおいて,$16 times 16$ピクセルのブロックごとの処理を物体の形状に合わせた任意の形のサブブロックに分割し,動き補償予測を行う新たなモード“z-mode”を追加し検討する.
“z-mode”は,一般的な奥行マップ動画において同じ奥行きにある物体,すなわち同じ濃淡の部分は似た動きをするという性質を利用して,任意の形に分割したサブブロックで動き補償予測を行うことにより,予測誤差を小さくすることで圧縮効率を向上させる.
一方で本手法では,HEVC/H.265と同様の処理で符号化を行う他に,オーバーヘッドとしてエッジ情報を符号化する必要がある.
そこで本手法では,cite{AEC}に提案されているエッジ情報の符号化に算術符号化を適用したArithmetic Edge Coding(AEC)を用いて符号化を行う.
実験結果より,従来手法であるHEVC/H.265よりも最大で11.7[%] の符号量削減ができたことを示す. |
(英) |
We propose a method that optimizes coding rate and distortion of depth map coding via two techniques - arithmetic edge coding(AEC) and arbitrarily shaped sub-block motion prediction(ASMP) - for depth video coding.
We implemented them together into a new additional coding mode called "z-mode" for encoding of a $16 times 16$ code block in HEVC/H.265.
"z-mode" is the following key observation: in general captured video, neighboring pixels of similar depth tend to belong to the same physical object and hence have similar motion.
This method however incurs an overhead to transmit the dividing boundaries for sub-block identification at decoder.
To minimize this overhead, we use a scheme called arithmetic edge coding(AEC) to efficiently code boundaries that divided blocks into sub-blocks.
Experimental results showed that our method outperformed unoptimized HEVC/H.265 compression by up to 11.7[%] in coding rate. |
キーワード |
(和) |
奥行マップ / 動画像圧縮 / 動き補償予測 / / / / / |
(英) |
Depth map / Video coding / Motion prediction / / / / / |
文献情報 |
信学技報, vol. 114, no. 460, IE2014-85, pp. 213-216, 2015年2月. |
資料番号 |
IE2014-85 |
発行日 |
2015-02-16 (ITS, IE) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
ITS2014-58 IE2014-85 |
研究会情報 |
研究会 |
IE ITS ITE-AIT ITE-HI ITE-ME ITE-MMS ITE-CE |
開催期間 |
2015-02-23 - 2015-02-24 |
開催地(和) |
北海道大学 |
開催地(英) |
Hokkaido Univ. |
テーマ(和) |
画像処理および一般 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
IE |
会議コード |
2015-02-IE-ITS-AIT-HI-ME-MMS-CE |
本文の言語 |
日本語 |
タイトル(和) |
AECを用いた奥行きマップに対する動画圧縮方式 |
サブタイトル(和) |
|
タイトル(英) |
Depth Video Compression Using AEC |
サブタイトル(英) |
|
キーワード(1)(和/英) |
奥行マップ / Depth map |
キーワード(2)(和/英) |
動画像圧縮 / Video coding |
キーワード(3)(和/英) |
動き補償予測 / Motion prediction |
キーワード(4)(和/英) |
/ |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
伊藤 一樹 / Kazuki Itou / イトウ カズキ |
第1著者 所属(和/英) |
中央大学 (略称: 中大)
Chuo University (略称: Chuo Univ.) |
第2著者 氏名(和/英/ヨミ) |
チョン ジーン / Gene Cheung / チョン ジーン |
第2著者 所属(和/英) |
国立情報学研究所 (略称: NII)
National Institute of Informatics (略称: NII) |
第3著者 氏名(和/英/ヨミ) |
久保田 彰 / Akira Kubota / クボタ アキラ |
第3著者 所属(和/英) |
中央大学 (略称: 中大)
Chuo University (略称: Chuo Univ.) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2015-02-23 15:00:00 |
発表時間 |
15分 |
申込先研究会 |
IE |
資料番号 |
ITS2014-58, IE2014-85 |
巻番号(vol) |
vol.114 |
号番号(no) |
no.459(ITS), no.460(IE) |
ページ範囲 |
pp.213-216 |
ページ数 |
4 |
発行日 |
2015-02-16 (ITS, IE) |