« やらかしたか。 | トップページ | SA2-2。 »

2009年12月23日 (水)

SA2-1。

SIGGRAPH ASIA の話の続きなんですが。
2日目は朝イチからプロダクションセッションに行きましてね。



OLM の「リッチな背景美術」に関する発表の英語バージョンでした。これは2日後に日本語バージョンでもう1回見たので、ここではひとまずスキップ。


次にSPI(ソニーピクチャーズイメージワークス)の Hair な話。これは Hair 専用の独自ツールのデモで、俺はほとんど Hair をやったことがないのでどの程度ありがたいのか実はよくわかってないんですが、パッと見は便利そうなものでした。

Spi_hair

XSI のコンストラクションモードの Hair 専用版という感じですね。あるいは Max のモディファイヤとか、AfterEffects のエフェクトと同じようなしくみです。 例えば、XSI で言えば Merge して Subdivide して Extrude して、その後 Lattice して最後に Envelope する、みたいに、一連の手順を Freeze しないままオペレータを重ねてある状態を作り出しますよね。あれと同じ。 Hair のバラけ方、フォースの影響の受け方、移動・回転・変形など、個々のエフェクトが個別のオペレータになっていて、それらをレイヤのように積み重ねて最終的な状態にしているんですね。

そしてオペレータの順番が変われば結果も変わる。先に方向をバラけさせてから変形するのか、変形してから方向をバラけさせるのかで結果が違うわけです。当然これも XSI のオペレータと同じですわね。AfterEffects でもカラコレしてからキーイングするのとその逆では当然結果が違いますよね。

オペレータが個別であり、必要なものだけを、必要な順番で適用できる。後から順番変えるのも自由。それぞれのオペレータにはFカーブによるフォールオフの制御のようなパラメータがいっぱい入っていて、かなり細かく設定できる。 こんな感じのツールでした。

これ、売り出したら売れるんじゃないの。ほんとに便利そうですよ。まあそんなことしたら本業以外でめんどくさいことがいっぱい発生するわけで、よほどのことがないと市販なんてしなさそうですけどね。ちなみに Maya 用です。PyQT を使って実装してるだそうですが、PyQT ってなに? 調べなきゃ。 そしてそうやってスタイリングされた Hair は Arnold でレンダリングされるそうです。いまどきの SPI はほぼ全部 Arnold でレンダリングするみたいですからね。 ちなみに「くもりときどきミートボール」でもこのツールをガンガン使ったそうですよ。


次にカナダの による、映画「9」のワークフローのデモでした。こちらも後に日本語でもう一回見たのでスキップ。 ちなみにこの映画、日本ではまだ公開されてない(公開の予定がないのかな?)そうで、でも面白そうですよ。ティムバートンがプロデューサーだそうです。いかにもティムバートンな感じの絵ヅラですね。


次に DD が出てきて、超絶VFX のクソ映画 2012 のワークフローについて説明してました。・・・・が、登壇した人があまりにもジェントルでソフトな話し方をする人で、俺を気持ちよーく眠りにいざない、かろうじて目は開けていたけど、何がなんやら覚えていません。後で同僚に聞いて内容確認しとかないと・・・。 

Dd_2012pipeline

すげー大雑把に言えば、建物や地形をぶっ壊す時に1ショットの中に鬼のような数のモノがあるので(1000アセット以上あるショットもあると言っていたと思う)、それらをマトモに管理しながらレイアウトしていくシステムを構築しましたよ、って話だったと思います。 マトモに扱えるくらい軽いシステムであること・複数人が同時に作業を進められること(パラレルワークフローと言っていた)、スケーラブルであること(これの意味はわからない)、などがポイントのようですね。 今手元にあるノートには、まるで酒に酔っていたかのようなファンキーな文字で、ほんの数行メモが残されてます。よっぽど発表者の声が気持ち良かったのでしょう。




午後は展示会場内でピクサーの Tech Talk を聴きに行きました。前日のようなセッションとは違ってテクニカルな話を聞けるのかと思いきや、まあテクニカルな話もいっぱいありましたが、前日とかぶるようなコンセプト的な話もけっこう多かったですね。 Mary Blair さんの美術をインスピレーションのモトに、シアトリカルにシンプルな絵を目指しましたー、って話。はい、それは昨日聞いた。

実写のリファレンスは、南米のギアナ高地にあるテプイ台地?という場所でロケハンして撮ってきたそうです。ほんとに UP に出てきた世界そのまんまです。すげえなあ。行ってみたい。 昔 NHK のドキュメントか何かでギアナ高地を見たことがあって、その時もすげーーーって思ったんですよね。もう15年とか20年以上前だと思いますが。 そのときに出てきた滝のスケールに焦った記憶があるんですが、もしかしたらそのドキュメントで出てきた滝が、UP の Paradise Fall なのかもしれない。

あと、「カラースクリプト」というコトバが出てきていましたが、直訳すれば「色の台本」、要はシーンごとの色彩を設計した絵のことですね。これをあらかじめちゃんとやりましたよーって話をしてました。このカラースクリプトというもの、イメージボードとか美術ボードなどと呼ばれるものに近いかもしれない。 我々の仕事でも同じようなものは作りますが、まあピクサーなので、より徹底して、一貫して、ちゃーんとやりましたよーってことなんでしょうね。



あとはカールじいさんの家の開発の話。シェーディングは4週間で完成させたと言ってたかな。4週間。すげえなあ。家ひとつのシェーディングだけで4週間かけていいんですか。 でもまあ、ピクサー作品だし、しかもお話の中心になる家なので、これはもうプロップ扱いではなくキャラ扱いと言ってもいいと思うので、むしろ速攻で終わらせた部類なんでしょうね。っていうか確かピクサーの人も「時間やバジェットのしばりがあるから、4週しかかけられなかった」という意味のことを言っていたと思う。

家の玄関の階段のあたりを例にとって説明してましたが、汚れやクラックなどの経年変化によるダメージ表現には、テクスチャを描かずに全てプロシージャルなシェーダを開発して使用したと言っていました。家全体で1枚もテクスチャを描かなかったという意味なのか、ダメージ表現などのいわば「上乗せ」エフェクトに関してだけは1枚も描かなかったという意味なのか、そこがわかりませんでしたが、ともかく「テクスチャ描いてたんじゃ直しに対応できない。ひたすらペイントは避けた」という意味のことを強調してました。このプロシージャルなシェーダをマルチレイヤ的に何枚も重ねたそうです。

G-Prims って言っていたっけ? これの意味がよくわからなかったんだけど、なにやら AO をレンダリングしてこれをベイクしてしまい(XSI で言うなら Rendermap )、その AO の輝度情報が他の様々なパラメータを決める、というようなシステムだと言っていたように思います。Let geometory drive shaders というコトバを使っていました。 「ジオメトリにシェーダのパラメータを決定させる」というような意味合いだと思うんですが、つまり、AO はジオメトリ(モノの形状)によって決まるわけだから、AO の結果を他のシェーダで使うということはモノの形状がシェーダのパラメータを決めているということとイコールである、という概念なんだと思います。形が変われば AO の結果が変わり、それが他のシェーダに連鎖的に影響を及ぼす、という意味だと思うんですよね。 なのでモデリングさえちゃんとしてしまえば、汚れなどの表現はシェーダのパラメータを調整することなく、自動的に決まっていくということなんだと思います。これで合っているとすると、自動ウェザリングシェーダってことになりますわね。カドの部分は勝手にハゲチョロになる。上を向いている面は自動的に日焼けで色褪せる。複雑に入り組んだ部分は勝手に埃や泥が溜まる。こりゃ、喉から手が出るほど欲しい人が多いんではなかろうか。俺も欲しい。

うーむ、でも、正しく解釈できているかちょっと自信ないな・・・。もうちょっとコトバがわかると楽しいのになあ。想像で補完せざるを得ない。まだまだ英語の壁は厚いですね。わかんないことはプレゼン後に質問することもできたはずですが、わかんないからこそ質問できないわけでしてね。もうちょいその場でスッと頭に入って来てれば、「基本の考え方はわかった。あとは詳細を教えてくれ」って感じで質問できるのにねえ。 自分は何が理解できて何が理解できなかったのか、これがすぐに整理できれば質問できるわけですよね。俺はそのレベルではないわけで、つまりその場では「自分で何がわかってないかがわからない」という状態なんです。結局こういう質問ってものは、ちゃんとわかった人にしかできないんだなあと痛感しましたよ。


GI な表現については、Point-Based Color Bleeding というものを使ったと言ってました。これは今年の夏の SIGGRAPH の時にディズニーの人が「ボルト」でガンガン使ったというプレゼンをやっていたのを見まして、おそらくは同じような、もしくは全く同じ技術なのだろうなと思いながら聞いてました。

Point-Based というのは、サーフェスをいったん Point Cloud つまりツブツブの集合体に変換してしまうわけですね。サーフェスに割り当てられていたシェーダによって、1つ1つのツブツブが色や照度の情報を個別に持つんだと思います。そして変換済みのツブツブを再びシェーダが呼び出し、そこから色を拾って Color Bleeding(色にじみ)をやるということだと思います。いったん Point Cloud に変換してしまえばあとはそのキャッシュを読みに行くだけなので、FG なんかと比べればはるかに低いコストで Color Bleeding ができる、というのがポイントなんだと思います。 one bounce GI ってコトバを使ってましたね。つまり Point Cloud から色を拾ってきて1回だけ色を混ぜるというやり方の Global Illumination ですね。混ざった色がさらにバウンスして他に影響を及ぼすということは、重いからしないんでしょうね。同じ仕組みでやろうと思ったら1回色混ぜた後のサーフェスをまた Point Cloud に変換しなければいけないですからね。 夏 SIGGRAPH のボルトのプレゼンでは、炎とかそういう流体なものまでも Point Cloud に変換して周りのものを照らしていたと言ってました。

「Fake な GI は比較的軽いがセットアップが大変だし、結果が不正確。Ray Trace された GI は正確だが重くてやってられない。Point-based はいいとこどりで、コストフリーでできるぞ!」って言ってましたよ。この技術がオスカーにノミネートされているそうです。作品じゃなくて技術そのものがオスカーって、なんかカッコいいですね。そうなるとやはり DD の坂口さんが超カッコいいわけですが。

でも「コストフリー」ってことはないですよね。だって Point Cloud に変換する計算があるじゃないですか。いったん Point Cloud にさえなっちまえばその後は軽いんでしょうが、Point Cloud 化がどの程度のコストなのか、気になりますね。真面目に GI やるのに比べたらコストフリーと言っていいくらい軽いという意味なんでしょうか。 しかも、動かない背景とかはいいけどキャラクタなんかは毎フレーム動くんだから、やっぱり毎フレームごとに Point Cloud 化してるわけですよね? それでも十分軽いということなんでしょうかね? まだ勉強不足につきこの辺よくわかりません。頓珍漢なこと言っているかもしれません。
たしか 3Delight で Point-Cloud 化ができたような気がするんですがどうでしたっけ(Renderman 互換だし)。 少なくとも AO は同じ方式(Point-based AO)だったと思うんだが。 デモ版を入れているのに全く試せていないのがバレますね。C社さんすいません。

おや、杉山さんのページにピクサーの、まさに同じことが書かれている。
http://akiras.seesaa.net/article/129061932.html

あ、その中に Point Based Color Bleeding の論文とおぼしき PDF にリンクが貼られてますね。読んでおこう。う、やべえな、SIGGRAPH で聞いてある程度理解したつもりが、すげーテキトーなこと書いてたらどうしよう・・・。 しかたない、ちゃんと読むしかあるまいな・・・。うーー気合要るなあ。たのむから日本語で、しかも小学生でもわかるくらいのレベルで書いてくれ。



その後はパントマイムワークショップに参加したんだが、今日はもう疲れたのでまた今度書こうかな。


・・・などと、まだ記憶が残っているうちに少しでもまとめてしまわないと成果が薄れてしまう。
WEB やフルカンファレンスDVD などで詳しく調べるのはまず後回しにして、いったん自分が見てきたものをザーっと見返さないとすぐに忘れてしまいます。夏の SIGGRAPH は帰国後に仕事が忙しかった(忙しいさなか無理やり行ったとも言う)のを言い訳にしてこの作業をサボってしまったので、実にもったいないことをしてますわ。


.

|

« やらかしたか。 | トップページ | SA2-2。 »

コメント

コメントを書く



(ウェブ上には掲載しません)




トラックバック


この記事へのトラックバック一覧です: SA2-1。:

» 【CG】:海外チュートリアルコンテンツの日本語化署名活動の今泉さんからメールを頂きました [白石運送]
ふとメールをみると先日記事を取りあげた海外チュートリアルの日本語化活動をしてる... [続きを読む]

受信: 2009年12月26日 (土) 01時21分

« やらかしたか。 | トップページ | SA2-2。 »