3. 実時間CG技術の現状

   2.2で述べたシステムの映像発生法を大別すると物理現象模擬に重きをおく方法(Physic based rendering)と物理現象模擬精度は犠牲にしても表示リアリティに重きをおく方法(Appearance based rendering)に分かれる.前者に属するものとしてレイトレーシング,ラジオシティ,ボリュームレンダリング法などがあり,後者はイメージベースドレンダリング(IBR),ポリゴンレンダリング法(注1)などである.実時間化(注2)の観点から現状を見れば,前者は膨大な計算量を必要とするので一般的に実時間化が困難である.しかしボリュームレンダリングに関しては,1999年米国三菱電機研究所によりシストリックアレー構造(Systolic array)を持つチップが開発されPCクラスでの実時間化の端緒が開かれ(21),以後この方面の研究が広まりつつある(22).一方後者は実時間化が達成されている.ポリゴンレンダリング法は既に述べたように,1970代にフライトシミュレータ用窓外視界装置としてビジュアルシステムが実現され,今日では広くゲームにも用いられている.また,IBRは,実写映像を用いるため高現実感を得ることが容易でありVR用の実時間表示装置として用いられ始めた.

 3.1 実時間CGの構成とH/W化

 ここでは,主にポリゴンレンダリング法を用いた実時間CGの構成と実時間化の関係を述べる.歴史的淘汰を経て主流となった映像発生装置を図2に示す.これは,軍用シミュレータのビジュアルシステムとして初めて実現されたシステムから今日のゲーム用CGまで変らない構成である(23)〜(27).処理は図2に示すように,

@ ツリートラバース部(あるいはシーングラフ)
A 幾何計算部(あるいはジオメトリックプロセッサ部)
B レンダリング部

からなる.

 ツリートラバース部は,ゲーミングエリアを構成する階層化したデータベースから視野外のデータを処理の早い段階において,データの構成単位であるブロック単位に除去し,後段の計算部での無駄な計算をなくす.対象ブロックのモデルデータ(オブジェクト)は二進木で関係付けられており,プライオリティ部で,視点に近いオブジェクトから順に後段に送り出す.レベリング部では視点からの距離に応じた詳細度のオブジェクトを選択する.このとき,時間的に透明度を制御して詳細度切換時の突然の映像変化を防ぐ.

 幾何計算部はデータベース座標で記述されているオブジェクトの各頂点を視点座標系に変換(座標変換),クリッピング,透視投影処理などを行い,最終的にオブジェクトを構成する三次元情報をエッジ情報に変えて,後段のレンダリング部へ送る.

 レンダリング部では左右両エッジで挟まれた領域をスキャンライン方向にラスタライズ後,画素ごとの処理をする.画素の見え隠れ(隠顕処理)は奥行値(Z値)及びセパレートプレーンを用いて決定し,可視画素の色をフレームメモリに半透明度を考慮して書き込む(ポリゴンフィリング).このとき書き込む画素データには現実感を向上させるため,霧の効果,テクスチャマッピング,アンチエリアシングなどが施されている.

 各部分の計算量は条件により異なるが,文献(28)の評価によれば,10万ポリゴンを1,024×1,024画素の分解能で表示したとき,幾何計算とレンダリングの計算量比率は1:1,000である.また,筆者らの研究試作(19),(20)における経験でも,トラバース,幾何計算及びレンダリングの比は,ほぼ1:1:1,000であった.このため1990年代初めまでの実時間CGの構成は,レンダリング部を市販のVLSIと一部の専用VLSIを組み合わせて専用回路により構成し,幾何計算部は専用回路あるいは複数のCPUボードによる並列処理により構成する方法が一般的であった.シミュレータなどで用いる大規模ビジュアルシステムでは,広いゲーミングエリアを表示対象とするため,幾何計算部の負荷低減を目的としたデータトラバース部を持つことが一般的である.1994年3DLabs社が初めて,レンダリング部をワンチップ化し,PCクラスでの実時間CG実現の道を開いた.





(注1) 映像発生のもととなるデータにポリゴンを用いる現在の主流技術を仮にこのように呼ぶ.
(注2) 1秒間に30フレーム以上の映像発生.





3/5


| TOP | Menu |

(C) Copyright 2000 IEICE.All rights reserved.