| 従来までの三次元映像の動画生成作業というのは各フレーム毎に大量の時間をかけレンダリングを行いすべての画像の生成後にポストプロセスとしてコンポジティングを行うという工程を踏まえていました。しかし、一般の動画というものは前のフレームと大きな部分で共通点を持っており前に計算した情報をすべて捨て再計算しなおすのは非常に資源の無駄になります。また、コンポジティングの際はmpeg圧縮をかけるのが一般的ですがここでも再び情報を失うことになります。
私たちの手法ではまず大域照明の方法にフォトンマップ法を採用します。付加情報として各ピクセルに貢献のフォトンのリストを持たせそれらを複数フレームにおいて再利用します。またmpegが視覚に及ぼす影響を考慮し、トーンマッピング後のmpegによる情報のロスが視覚誤差範囲内になるようにレンダリングをプログレッシブに行うというすべての工程を単一のフレームワークに収める事を目標とします。また我々の方法はHDR(high dynamic range)動画にも応用する事が可能です。
具体的開発項目は以下である。
1.大域照明アルゴリズムの設計
フォトンマッピング法を改良した逆フォトンマップ法を実装する
2.MPEGの設計
MPEG2、もしくはH264のエンコーダーを組み込む
3.2つのフレームワークを単一化
独立した工程を一つのフレームワークに直接組み込む実装を行います
4.GPUを使ったアルゴリズムの加速化
ここではGPUの逆ファイナルギャザリングという独自の手法を使用してアルゴリズムを高速化します
5.完成
版権等で問題がなければオープンソースのソフトとして公開する予定です
|