« 2009年10月 | トップページ | 2009年12月 »

2009年11月

2009年11月26日 (木)

2012。

2012 観てきましたよ。

なんというか、やはり、すごい。
映像が。

映像が、ですよ。
映画が、ではありません。




さーネタバレ行きますよ。まだ観てない人は読まないで下さい。

観た後は、、是非感想というか、反論をして下さい。俺の映画の見方は偏ってると思うし、ボケっと見てて大事な要素を見逃すこともあるので、是非正して欲しいのです。


------------------------
箱舟に分かれて乗船している各国首脳のみなさんは、たった一人の科学者の正義感だか人間愛だかに簡単に動かされて、世界規模で何年もかけて準備したプロジェクトをやすやすと変更してしまうんですよね。このご都合主義。いや、こんなご都合主義は色んな映画でいっぱい出てくるから特筆することのほどではないけど、だからと言って安易に使ってよいパターンではない。実に安くさくなっちゃってますよね。



最後に科学者さんの熱い思いが他の舟にいる各国首脳に伝わったのは、臆病な通信オペレータのおかげですか? 本来の上司に制止されたにも関わらず、科学者にどやされて通信を始めちゃったあの臆病オペレータがいなかったら、科学者さんの演説は各国首脳に伝わらなかったわけですからね。彼が義憤に燃えていたようには見えず、どやされて思わずスイッチ入れちゃった、って感じでしたよ。 このオペレータさんが普通に真面目な人(職務権限を普通に遵守する人)だったら、外のみんなを船に乗せるとう大決断は下されなかったのでしょうねえ。ラストの大決断につなげるプロットとしては、あまりにも情けないですよね。

そうやって船に乗せてもらえた皆さんも、結局は政府側が選んだ人、金を積んだ人など、エラい人たちにとって都合の良い、ごく一部の人なわけですね。そんな奴らを救えと義憤に燃えて言い出す科学者さんの偽善者ぶりを映画最大のヤマ場に持ってきてるあたりが、どうにもアレですわね。



あのチベット人の坊さん?の一家?の扱いがちゃんと描写されてなかったような気がするんですが。船のスタッフ側である長男?がゲートを開けてくれたから主人公一家は船に乗ることができたわけですよね。重要な分岐点です。そしてそのゲートを開ける兄貴は、自分の母親に「みんな地球の子供だ! 乗せてやれ」って言われたことが、ゲートを開ける動機になったわけですよね。強い母、愛のある母という印象を残そうとしたように思えるけど、でもそもそもこの一家、スタッフである長男が裏口から入れてくれることをアテにして、村の人は全部置き去りに、自分たちだけ助かろうと思って船に来たんですよね? 愛もクソもねえって感じがするんですが。

だいいち、こんな簡単に裏口から入れる程度のセキュリティなんですか箱舟は。



主人公の元奥さんの新しい恋人はなぜ死んだんでしょう。現時点で奥さんの愛情を勝ち得ているので主人公に対しては優越感があるだろうし、でも血のつながった家族ではないため常に疎外感も感じている。この両方の感情を持ち合わせた、実に描きがいのあるキャラクタなのに、全く不必要に死んじゃったように見えましたよ。意味不明。 

それに恋人が死んだってのに元奥さんはケロっとしてるよ。 さらに、彼をあれだけ慕っていた主人公の息子も特に悲嘆に暮れているわけでもなさそう。なんだかねえ。



ロシア人飛行機パイロットはなぜ死んだのでしょう。逃げずに最後まで飛行機を安全に着陸させる!って宣言したその動機がわからねえ。ヒロイックな行動をとらせて観客を感動させようとしたとしか思えねえ。その目論見は超失敗してますよ。

その後崖に落ちそうなところで飛行機が止まったとき、嬉しそうな顔したよね。死を覚悟して着陸したのならその顔いらないよね? え?あんた助かりたかったの?って思っちゃうよね。 で、結局は崖が崩れ、彼は飛行機ごと落ちて死ぬ。 ヒロイックな行動を見せたいなら一度止まらずにそのまま落ちて死ぬ展開にすればいいのにそうしなかったのは、ギリギリ助かったと思わせてやっぱり死んだというドッキリ感(映像としてのハラハラ感)を出したかったとしか思えねえ。 ほんの数ショット内でのドッキリ感を優先したために、十数ショットにおよぶ彼のヒロイックな行動の動機がますます不明になったと思います。



ロシア人パイロットの恋人もいつのまにか溺死。途中から主人公たちとずっと一緒にいたのに、死ぬところはちゃんと描写されてないですよ? ネコを愛するやさしい人として死なせてあげたかったのか? 他の人の反応もないよ? 出したキャラクタはちゃんと最後まで責任もって描写しましょうねエメリッヒさん。



そもそもあの状況で、大統領は残ることを選ぶものでしょうかね。最後まで指揮を執るという責任は感じないのでしょうかね。 ま、エメリッヒさんが昔作った大統領自ら戦闘機に乗って出撃していくあのクソ映画よりはマシか。





なんてことを書き出すときりがないほど、突っ込みどころの多い映画でした。長い映画だったので後半はトイレに行きたくなってしまったんだけど、本当に行こうかなと思っちゃいましたよ。最後の箱舟のシーンで延々と続く安くさいヒューマンドラマ。そんなもの見ているよりすぐに排尿できた方がどれだけ幸福を感じられるだろうか。 などと考えてたら映画が終わってしまったんですがね。


エメリッヒさんは結局どうしたかったのか?
人間愛、家族愛、大自然を前にした科学技術の無力さやあきらめ、などなど表面的にはそんなキーワードが出てきそうな感じなんだけど、実際にはそのどれも描かれていない。全く描かれていない。見事に描かれていない。 嫉妬・愛憎・執着など心の動きの機微を描写するでもなく、人間の醜い心理を鋭く描いているわけでも全くない。表面的に実に安くさいヒューマニズムが流れているだけで、うすーい皮を一枚剥がすと中身は何もない。

どうしたかったのエメリッヒさん?

ド派手な VFX をやりたかっただけ?
であれば大成功ですよエメリッヒさん。

いやー VFX はそりゃもう、おなかいっぱいですよ。
壊せ壊せもっと壊せ。 沈め沈めもっと沈め。 燃えろ燃えろ燃え尽きろ。 破壊の限りを尽くしたかのようなディザスター描写は、そりゃもう燃えますよ。
火砕流と言うのかな、火山の爆発?の後に広がってくるモコモコ雲と飛行機のチェイスがカッコ良かったですね。よくある AfterBurn のようなスカトロボリュームレンダリング系の煙ですが、スケール感・量感が実に気持ちよく、そこをかいくぐるカメラの動きも気持ちよく。 地割れで崩落した地面の断崖絶壁、すげえ、こんな風景見たい、って思いましたよ。マットペインター大活躍なんじゃないですかね。 巨大輸送機もCGだよねえ? 水も、山も、箱舟の基地も? リアルはリアルですが、リアルかどうかよりもそのスケール感と物量に圧倒されるわけですね。どれだけのアーティストやエンジニアが泣きながら作業したんでしょうね。心から敬意を表します。

エンドロールでの VFX のクレジットは長かったですね。すごく多くのスタジオが参加していたように思えます。 とは言えこの規模と照らし合わせると少ないかな、とも思いましたけどね。 筆頭のスタジオはどこだっけ、忘れちゃった。 DDも当然のように入っていましたが筆頭ではなかったな。エフェクトアーティストの渡辺氏の名前もしっかりありました。流体野郎坂口氏の名前を見つけられなかったんだけど、見落としたのかな。きっと Fsim も使われていたのではなかろうかと想像してみる。

ただ、モニターCGっていうのかな、何かの状態を示している計器類とか、解析中のコンピュータ画面みたいな映像があるじゃないですか。アレが、実に安くさかったですね。意味なく3Dで視点がぐいーーんと動くようなやつとかね。実用性を考えるとあり得なさそうなんだよね。見た目の小奇麗さを優先している。ほとんどの映画やアニメのモニタCGはそんな感じですけどね。 ちなみにアイアンマンのモニタCGは超カッコ良かったですよ。雪風のもカッコ良かったと思う。


ま、2012 のVFX 関係はまだ調査不足ですね。今後 Cinefex なんかにも出てくるだろうし、Bluray や DVD の特典にも入るだろうし、来年の SIGGRAPH でも話題に上がりそうな気がするから、今後気にしておきましょうかね。


DVD 出たら買うかどうかは、悩みますね。
こんなクソ映画、VFX 以外のどこを見ろというのですか。
でも映像特典だけは見たいわけでね。
でもそのためだけに買うかなあ。もったいねえなあ。劇場ですでに金使っちゃってるわけだし。
レンタルDVDは特典ディスクとか無しの方が普通ですからねえ。
そうなるとやはり、誰かに買わせて借りるというのが一番正しいですね。


事前にあんだけ話題になっちゃったから、そしてそれを気にして見ていたものだから、観に行かないわけにもいかなくなっちゃった映画なわけですが、VFX に関しては期待通り満足、でも先にあれだけトレイラーなどを見ていると期待以上というほどにも思えないわけで、そうなると中身がクソな時点で総合的にはやはり期待以下の映画だったということになってしまいます。 ポールバーホーベンさんが作っていたら面白い映画になりそうだなあ。 すっげー偽善者が出てきてのうのうと生き残ったり、超悲惨な死に方したりしてね。 2012 にも偽善者はいっぱい出てきたけど、偽善を善として最後まで押し切っちゃった感じかしら。バーホーベンさんみたいに偽善者を偽善者として描かず、正義の味方として描いちゃうから、こんなに何も残らない映画になっちまったのではなかろうか。

ヘヴィに VFX を使っている映画のうち、本当に満足できる映画ってなぜか少ないですよね。CG とかに関わる身としては、残念なことだと思っています。VFX だけで引っ張れると思っているのかなあ。 ベンジャミンバトンはすごく良かったけどな。


っていうかエメリッヒさん、Day After Tomorrow はけっこう好きなんですよ俺。 今回は、大統領自ら戦闘機に乗って出撃していくあのクソ映画に次ぐくらいウンコじゃないですか。どうしたんですか。あ、紀元前1万年は見てないな。これもウンコなんですか。どうなんですか。あんまりウンコばっかりやってるともう同盟組んであげませんよ。伊太利亜と二人でやっちゃいますからね。





.

| | コメント (4) | トラックバック (0)

2009年11月24日 (火)

ハイクオリティテキスト。

XSI Base かどこかで出てた話だったか忘れたけど、ともかく、RenderTree の Preference を見てみたんですがね。

Hqt

この High Quality Text ってなんですか。
マニュアルを見ると、テキストをハイクオリティで表示するという意味のことが書かれている。そのまんまやんけ。

ってことでオンにしてみたけど、別に何も変わってないように見えるのですが?
ハイクオリティな文字なんですよね?
XSI のインターフェース上の文字がカッコいい毛筆体とかで表示されないかと期待したんですがね。

RenderTree を開き直したり、XSI を再起動させたりしてみたけど、何も変わってないように見えます。 XSI 7.5 です。 Windows Only って書いてますが、Windows XP32 でやってます。




なんなんですか。
文字が高品位になるはずなんですよね。
誰か教えて下さい。



追記:
肉団子氏よりのタレコミにより、Windows の設定によって効果が出ない場合があるとわかりました。詳細はコメント欄にあります。




.

| | コメント (5) | トラックバック (0)

2009年11月20日 (金)

羊さん。

特に意味はないです。
http://www.thecreativesheep.ca/cs/creativesheep.html
http://www.thecreativesheep.ca/creativesheepblog/
XSI 界で最も有名な羊さんの足跡を記録しておきたかっただけ。
他意はないです。

名前を変えてまで出てきては、周りを阿鼻叫喚の地獄絵図に塗り替え、
そして何事もなかったように去っていくか、何事もなかったように次の話題へ。
そんな彼のように生きられたら、俺の人生は何倍も楽になっただろうに。





.

| | コメント (0) | トラックバック (0)

2009年11月18日 (水)

emコンテスト。

em なコンテストがあるそうですよ。
http://www.si-community.com/community/viewtopic.php?f=4&t=385


以下概要。概要ですよ。逐語翻訳ではありません。
翻訳じゃないって明言してるのに、和訳ですとか翻訳レポートですとかわざわざ言う人がいるんだよね。もう。


誰でも参加可能(主催者側の3人を除く)
emFluid2 v2.25 デモバージョンを使ったアニメーション作品を作って提出
参加者一人につき1アニメーション/1シーン(XSI Scene)のみ


●アニメーションは以下の条件を満たさないといけない
・アニメーションの中核部分(根幹に関わる要素)は emFluid2 のデモバージョンを使ったものでなくてはならない
・解像度は X は 512ピクセル固定、Y は最大 384 ピクセル
・尺は最大20秒
・フレームレートは最大 30fps
・ICE Tree はコメント(注釈)付きにする
・レンダリングはメンタル霊だろうが Vray だろうが OGLキャプチャだろうが emRPC だろうが自由


●提出するもの
・アニメーション(mpg, mov, wmv)
・XSI のシーンファイル(テクスチャなどがあればそれも)


●評価基準
・独自性 (おわーー いいアイデアだっ)
・技術性 (どわーー どうやって作ったの? 天才ですか?)
・芸術性 (ぬわーー 美しいですっ)

(以上の基準全てで評価するので)スヴァらしい技術で作られたショボいアニメーションと、ショボい技術で作られたスヴァらしいアニメーションは、同じだけチャンスがある。


●賞品
・1等賞 emFluid2 + emRPC + emPolygonizer (フルバージョン1ライセンスずつ)
・2等賞 emFluid2 + emRPC(フルバージョン1ライセンスずつ)
・3等賞 emFluid2 か emRPC のどっちか1ライセンス

1等賞は 280USドル相当、2等賞は132USドル相当、3等賞は 88USドル相当


●不平不満御指導御鞭撻
「なんで俺の作品が入賞しないんだよ不公平だよゴルァ」などの不平不満は無視されます


●デモバージョンの emFluid2 は制限があるので、ちょいアドバイス
・デモ版は 1~250 フレーム目までしか使えないので、フレームレンジを -125 ~ 375 にするといいかも (※意味分かりません)
・デモ版は1つのPoint Cloud につき 10000パーティクルまでしか出せないけど、PointCloud 数は別に制限されてないよ
・emFluid2 のデモ&チュートリアルシーンを研究してね


●コンテスト後は
・Mootzoid さんが選んだシーンは、emFluid2 デモやチュートリアルに採用される
・応募された全てのアニメーションは si-communuty サイト内で公表される
・emFluid2 の WEB サイト上でも使われるかも


●締め切り
・2009年12月17日(中央ヨーロッパ時間)
・入賞の発表は 2010年1月初旬


●取り急ぎの法的事項
・審査員の決定は最終決定である
・コンテストに応募するにあたり応募者は Mootzoid に対し、応募作品を emFluid2デモやチュートリアルや WEBサイトで使うための、非排他的な権利を与えることとする
・Any recourse to courts of law is excluded. (※意味わかりません)



なんだか楽しそう。。。。もし em をいじくり倒してたら遊びで参加するのになあ。今からやってみるか・・・。いやいやこれは相当なエネルギーが要るなあ。ううむ。

レンダリングは何でもいいなら、ポイントキャッシュで Max なり Maya なりに持っていってレンダリングしてもいいんだよねきっと。 そっちの方がパッと見の訴求力があるものになりそうな気もするな・・・。 ソフトウェア混合のパイプラインでコンバートするワークフローも高い技術力のひとつと言えるだろうし。

共同制作じゃダメなんですかね? 個人制作じゃないとダメとは書いていないような・・・。どうなんだろ。

誰か猛者の方、応募しませんか。


最近 em で火を作ることにハマっているあなたはどうでしょう。
そうあなたのことです。
デコのマテリアルが異方性反射で硬いスペキュラなあなたです。
どうですか。応募してみませんか。
独逸人どもをビビらせてやりましょう。




.

| | コメント (2) | トラックバック (0)

2009年11月16日 (月)

Max お前もか。

Max にデータを持っていく必要があって、最近 Max 2010 を立ち上げたりしてるんですがね。

Maxcrash1

なーんだ。お前もか。 いいよいいよ、慣れてるよ。別のソフトウェアでだけどな。


Maxcrash2

ふーん。 「重大なエラーの場合」ってあんた、アプリケーションが落ちた時点でもうかなり重大なエラーだと思うんですけどねえ。 まあ、このすっとぼけ方も慣れてるよ。別のソフトウェアでだけどな。




Maxcrash3

その謝り方も慣れてるよ。別のソフトウェアでだけどな。



だいたいね、XSI から出した fbx を読もうとしただけですぜ?
変なインポータやエキスポータを使ったわけじゃなくて、最新版 Crosswalk 4.1 を使ってるんですぜ?



まあどのソフトウェアを使っててもあんまり変わらないですよねえこの辺は。
こんだけ時代が進化してるのに、
この状況は15年前とちっとも変わっちゃいない。

高い金出しているのに、説明書通りに動かなくても、なぜか許されるこの業界。
トヨタならリコールでとんでもない大騒ぎになるのに、
ブログで文句言われる程度のことにしかならないこの業界。

ストレスは溜まる。
納期は迫る。

この輪廻から逃れるには、
この仕事を引退するしかないですよねえ。




みなさん、さっさと稼いでさっさと引退しましょう。
こんなこと、60歳とかまで続くわけないじゃないですか。
引退しましょう。



.

| | コメント (7) | トラックバック (0)

2009年11月13日 (金)

em木。

おや、Mootzoid の Eric さんがまた新たなものを・・・。

http://www.si-community.com/community/viewtopic.php?f=5&t=358&view=next

独逸での Softimage ユーザミーティングのようなイベントみたいですね。上のリンクはその告知スレッドのようですが、何やら emTree というものを作っているらしい。

上のリンク、IE で見ると貼り付けられているビデオが見れました。Firefox だと表示されない。でもスレッドの中のリンクをたどって行くとストリーミングの wmv が見れます。
http://www.xsiforum.de/thread.php?threadid=6968
ここの最初の書き込みにビデオへのリンクがずらり。

あら? このイベントは9月? とっくに終わってるのか。 ってことは日本でやった SIGGRAPH Reply みたいな感じの、2010 発売に合わせたイベント in 独逸だったのかな。 でも emTree とかのニュースは今日まで知りませんでしたよ。


しかし Eric さん、すごい旺盛に開発してますねえ。
Fluid だの Mesher だの作って、今度は木ですか。
ニッチ突きまくりですね。
嘔吐デスク様が何もしてくれないから有志によって機能強化が図られていく XSI。
いいんじゃないですか。けけけけけけ。


Teaser のようなビデオなので機能の詳細はまだ不明。でも null のようなコントローラでうにょうにょと枝を動かしたりしてますね。 触手のようなものとかにも使えないかしら。



同じく上のスレッド内で Eric さん本人からの引用ですが、
I plan to release emTree in January 2010. Cannot make any promises, though, as there still is a lot of stuff to code. At the moment I have 4/5 "construction sites":
-emFluid2 (upgrade)
-emRenderPointCloud (upgrade)
-emPolygonizer (update)
-emTree (working on version 1.0)
-emNewton (R&D, maybe a new release)

おおう、既存のツールのバージョンアップもいっぱいあるみたいですね。すげえぞ em シリーズ。 確約しないけど2010年1月予定だそうで。


owei さんによれば、
OK, I´ll translate some things..:..Eric plans to release some bigger updates in early 2010. emFluid will be able to deal with densities, heat and all those things, emRPC will get some more render algorithms (selfshadowing...). There are also plans to implement CUDA accelerations in every plugin (where possible and usefull..)

おおう、emFluid は density(密度)や heat(温度)のような概念を持つみたいですね。流体の挙動を定義するパラメータが増えてより詳細にコントロールできることになるんでしょうか。 emRenderPointClould は、セルフシャドウとかができるようになると言ってます。 CUDA でのアクセラレートが全プラグインに付く計画もあるそうで。 すげえなあ。


彼はひとりで開発してるんでしょうかね? 個人でそこまでできるものなんですか。独逸人ってこういう開発力高いのかなあ。そんなイメージがあります。っていうか意欲が旺盛なのかな。スヴァらしい。 是非その技術と精神を、連合軍の目をかいくぐり、北極海経由のUボートで日本にもたらして下さい。亜米利加とか加奈陀とかエラソーにCG大国ヅラしている連中をコケにしてやりましょう。次回は伊太利亜抜きでお願いします。



.

| | コメント (2) | トラックバック (0)

愛霊Q&A。

XSI Base のスレッドで紹介されているのを見つけたのですが、先日も書いた iray なんですがね、メンタルイメージの人へのインタビューというか、Q&Aみたいなのがありました。

http://3d-test.com/interviews/mental_4.htm

インタビューに答えているのはメンタルイメージのチーフオペレーティングオフィサーとかいう肩書きの Ludwig von Reiche さんだそうです。 インタビューしている側は誰なんでしょう? 掲載しているサイトの人なんでしょうかね?  少なくともメンタルイメージのサイトにあった自作自演的なQ&Aではないように見えますが、でも答えている内容を見るといつものように美辞麗句のオンパレードで、現場の疑問にマトモに答える気があるようにも見えないし、聞いている側も本気で質問をぶつけているようにも思えない。どうとでも答えられそうな広くて薄い質問ばかりしている。 ってことはやはり自作自演系か・・・?



まあそんなことはいいとして、ホンヤクってどういうものなんだろうという好奇心からホンヤクじみたことをしてみました。ホンヤクじみているというだけで、翻訳ではありません。


以下は翻訳ではありません。解釈です。
あくまでも個人の解釈。個人による独自解釈が大いに混じった意訳とでも言うか。
オリジナルの文言を逐一追うようなことはしていません。
質問の意味さえよくわからなかった項目もあります。
従って麺樽イメージさんが公式に言っていることと内容が違っている可能性大です。
デタラメなことを書いているかもしれませんが、そんなこと知りません。
これを真実だと思い込んで何か損害を被っても、知りません。
カッコの中に書いてあることは、天から聞こえた声に従い、俺の手が自動書記したものです。俺が言っているのではありません。天の声です。ほんとですってば。




------
Q1
メンタル霊 3.8 では iray という新しいテクノロジが導入されてるッス。 これは、メンタル霊で使えるレンダリングエンジンを補完するような形で供給されるんスかね? それとも、例えばファイナルギャザリングのようなイルミネーション方法と取って代わるようなもんなんスかね?

A1
iray レンダリングテクノロジは、メンタル霊の通常のレンダリングモードに追加される形で供給されやす。現存するメンタル霊の機能に取って代わるようなものではありやせん。iray 付きのメンタル霊 3.8 は2009年11月下旬に一般に出始めやす。メンタル霊をすでに使っている旦那方に追加のコストがかかることはございやせん。

(11月ってほんとかよ どうせ XSI に来るのは来年だろうけどなこのヴォケ)



Q2.
メンタル霊 3.7 のマテリアルを使ってすでにシーンを構築しちまった場合は、メンタル霊 3.8でそのままレンダリングできて、かつ、GPU アクセラレーションの恩恵に与れるんっスかね?

A2.
へい。3.7 でシーンを作ってしまっても、3.8 へ持っていって新機能の恩恵を得ることができやす。iray のレンダリングスピードは一貫して速く、使用する GPU の数を増やせば鬼のようにスピードが向上しやす。しかしですね旦那、iray はメンタル霊のシェーダを使わないんでやすよ。だからシェーダの変換が必要なんでやす。もしオリジナルのシーンで使っているマテリアルが mia_Material セットの一部ならこの変換はほとんど楽勝でやすが、そうでなければ妥協や制限がありやす。iray は物理的に正確なレンダラでやすからね、物理的に正確なマテリアルと物理的に正確な光源しか扱わないんでやすよ旦那。


(ほとんど楽勝とか言ってどーせ再現性悪いんだろ? 再現性高めようと思ったら変換が楽勝じゃなくなるんだろヴォケ)



Q3.
100%CPUバージョンの iray はあるんスか? あるとすると、GPU の恩恵を確認するために、メンタル霊をベンチマークすることは可能っスかね?

A3.
へい、100%CPUバージョンの iray はございやす。このインタビューを受けているまさに今、ベンチマークやってるところでございやす。近々見れるようになりやす。


(あんまり突っ込みようがない答え方するんじゃねえヴォケ)




Q4.
メンタル霊 3.8 は NVIDIA のボード全部をサポートするんスか? それとも Quadro なプロ用ボードだけっスか? iray で良いパフォーマンスを出すためには、あんただったら NVIDIA のどこいらへんのレンジを選ぶんスか?

A4.
iray がサポートするのは CUDA1.1 のボードだけでございやす。シーンの複雑さにもよりやすが、最適の選択は Tesla か Quadro でございやしょうか。


(俺のボードで動くのかどうかちゃんと言えよヴォケ)



Q5.
メンタル霊が NVIDIA でしかアクセラレートできないってのは、メンタル霊の普及にダメージにならないっスかね?

A5.
いや旦那、全く正反対でありやす。CUDA ベースのパイプラインには強力な需要がありやしてですね、それどころかこの超絶新技術をフルで使えるソフトウェアへの要望はもっとあるんでやすよ。次世代GPUアーキテクチャのフェルミ降臨で、そういう需要は単純に増えていきやす。


(とか言ってどうせ1~2年でやめちまったりサポートするハードウェア変えたりするんだろヴォケ)




Q6.
メンタル霊の色んな技法が、今後どんな風に共存していくと思ってるのか説明して欲しいっス。

A6.
メンタル霊は、フルにプログラム可能なソリューションでございやす。トゥーンレンダリングやノンフォトリアルなやつも含めて、どんなシェーダでも書くことができやす。事実、アーティストの旦那方はこれらのシェーダをどんな風にも組み合わせて無限の可能性を作り出すことができやす。メンタル霊というものは、色んなタイプのお仕事をする旦那方にフレキシブルなソリューションを提供することに主眼を置いてやす。
一方 iray はフォトリアルなレンダリングと、クオリティ~パフォーマンス~使いやすさの間で絶妙なバランスを提供することに主眼を置いてやす。iray が表現できるのはリアル世界の物質と光源だけでやすから、間接光を表現するのに複雑なセットアップは必要ありやせん。旦那方はボタンを押すだけ、あとは iray が最善のやり方で全てお世話しやす。iray は、フォトリアルなレンダリングを習得するために高度な最新技術をいちいち勉強しているヒマがない、自分の本業に集中しなければならないとう旦那方、さらなるフォトリアルレンダリングが必要だという旦那方向けのものでございやす。 さらに iray は、本番前のプレビューレンダリングと本番レンダリングを1本のインタラクティブステージで統合する、という新しいコンセプトにも注力しておりやす。


(勉強や努力をせずともボタンひとつでこんなにできますっていうその態度がこの業界をダメにするんだよヴォケ)




Q7.
ファイナルギャザリングは特に静止画では威力が出るけど、アニメーションではちらつきのために使えないのが惜しいっス。iray のライティング方式ではちらつきは出るんスかね?

A7.
iray ではFGやAOみたいな近似値的なアルゴリズムを使っておりやせん。簡単に言うと、 iray は妥協せずに物理的な光の挙動をシミュレートしておりやす。iray の結果はモノホンのフォトリアルでございやす。


(答えになってねえよ ちらつくのかどうかって聞いてんだよヴォケ)



Q8.
iray のレンダーファームってのはどんな感じスかね? 複数の Tesla 使うといいことあるっスかね?

A8.
へい。現在ベンチマークをやっておりやして、2009年12月に公表する予定でございやす。


(超っ速レンダリングしたけりゃハードに金使えってことかよヴォケ)



Q9.
現在のメンタル霊のライセンスはノード(CPU)ごとになってるけど、iray でライセンスの分割はどうなるんスかね?

A9.
ライセンスの方針はそんなに変わりやせん。CPU に加えて、GPU の全部がノードとして扱われやす。私どもの目標は、新規のお客様にも既存のお客様にも、私どもの技術をできるだけ使いやすくし続けることでありやす。


(だから意味わかんねえよヴォケ)




Q10.
現在 Architectural マテリアル は iray でサポートされてるっスけど、これって Arch mat 内の AO とか Reflection の Gloss みたいなパラメータも含めて、全部のパラメータが iray で再現されてるってことッスかね?

A10.
iray は、物理的に正確なマテリアルを作るのに関係するパラメータなら全部サポートしていやす。 明らかに近似値的・人工的な効果を出すために作られた他のパラメータは、無視されやす。とは言っても、アーティストの旦那方から要望が多ければそれに応えるために、将来的には iray で色んな種類のマテリアルをサポートすることを計画しておりやす。


(計画とか言っときながら永遠にやらねえのがメンタル霊なんだよ いつまで同じバグほっとくんだよヴォケ)




Q11. 
Reality Server で利用するためにメンタル霊 3.8 でライティングされたシーンをエキスポートするってのか可能なんスかね?

A11.
iray はメンタル霊 3.8 と RealityServer 3.0 の両方に実装されやすから、メンタル霊でレンダリングされたシーンは RealityServer でも問題なくレンダリングされやす。iray ではなく通常のメンタル霊 3.8 のレンダラを使っている場合は、そこで使っているマテリアルの種類によって、RealiyServer でレンダリングする時に近似化したりしなかったりしやす。


(iray ならそのまんま、通常レンダラならシェーダによってはそのまんまだったり変換が必要になって見た目が変わることもある、って意味ですか? わかんねえよヴォケ)


Q12. 
iray ってのは、うちらが期待する「GPU でメンタル霊」ってのを実現する、マジ革命だと思うっスか? グラフィック業界を変えたり発展させたりってことになるっスかね?

A12.
あっしらは、iray がレンダリングに革命をもたらすと思っていやす。特定の用途では特にそうだと思いやす。iray ってのは、プレビューレンダリングと最終レンダリングを1本のインタラクティブなプロセスに統合し、フォトリアルなレンダリングをする新しい方法をもたらすものでございやす。さらに、CUDA GPU の力でレンダリング時間は劇的に短縮され、レンダリングパイプライン中のコスト最適化をもたらしやす。そして、美しいフォトリアルレンダリングを生成することができながらも、そのシンプルな使い勝手のおかげで、レンダリングTDの助けを借りたり自分がレンダリングTDになる必要もなしに、プロの旦那方はご自分の本業に集中することができるというものでございやす。


(おめえ美辞麗句が過ぎるよ 不完全なものリリースして後で泣くなよヴォケ)
------



ふーー いやあ、ただの解釈とは言え、文章にするのはなかなか大変ですね。かなり苦しい部分が多々あります。XSI の日本語マニュアルのようなアクロバティックな文章を作る人の気持ちが、よくわかりました。ウソです。わかりません。マニュアルは高い商品の一部なんだからちゃんとわかる日本語で書いてください。

話はそれますが Cinefex の日本語版も毎回すんげぇ日本語が並んでいるんですよね。まさに原文の単語を逐一変換していますという感じで、全体として意味が素直に通じるかどうかは二の次になっている気がします。まるでパズルのようで、読んでいるうちに眠くなります。その映画を一度見ていれば比較的素直に意味が通じることもあるんですけどね。
原文をどこまで尊重するのかという翻訳方針にもよるんでしょうが、個人的には原文に出てくるコトバを犠牲にしてもいいからストレートに意味が通じるように意訳して欲しいですね。あえて例えれば映画の字幕のようにね。 映画の字幕は今見ている映像で補完されるから通じやすいというのもあるけど、字幕のコトバだけ見れば思いっきり意訳ですからね。一瞬で意味が通じないといけないわけですからね。 この方針を、テクニカルな記事にも導入して欲しいものです。 でもそのためには技術的なこと、業界的なことに対する深い造詣が必須ですわね。 知識や経験があり、検証できる人が翻訳に関わるべきです。 でも現実は、翻訳者自身やその監修をする人がちゃんと内容をわかってないまま翻訳しているってのが実情なんでしょうね。翻訳の必要さえない某CG雑誌なんか見ていてもそれを感じます。 単語レベルでは原文をことごとく破壊してでも全体の意味を正しく伝えるという、覚悟のある翻訳をして下さいね嘔吐デスクさん&ボンデジさん。





と大幅に話はそれましたが、ええと、今日は愛霊の話でしたね。まあ今回のQ&Aで特段新しい情報が得られた感じもしないですね。がんばって解釈文書いてはみたが、まあどうでも良かったなあ Orz 
基本的にマテリアルは Arch material と、もしかすると Car Paint のようなのも含めて、 mia プロダクションシェーダ系のみを受け付けてくれるように見えますね。しかも mia 系を使ってでさえ、光の物理的な挙動に関係しているパラメータ以外は無視されるということのようですね。 これくらいかな、今回新たにと言うか具体的にわかったことは。  それ以外は全部、前に書いたときにもう触れられている感じか。まあいいや。


NVIDIA のカードのみで恩恵があるというのは、これはもう方針なんですね。 需要があるからやるんだよ、とは言ってますが、NVIDIA は麺樽イメージの親会社なんだからまあ当たり前の方針ということになりますかね。 でも、マイクロソフトが MS Office の Mac 版を開発して売ろうと望んだように、あるいはアップルが MS Office の Mac 版開発を後押ししたように、魅力のある敵の商品というものは自己の売り上げを伸ばす販促ツールにもなり得るわけでしてね、NVIDIA はそういう風には考えないんですかね。 ま、市場の規模が小さすぎるため、対応プラットフォームを広げたところでその開発コストに見合うだけの利益が見込めない、というのが実情なんでしょうけどね。
それにしても ATI ユーザは納得行かないだろうなあ。 iray がよっぽど魅力的で、NVIDIA へ乗り換える人が増えればそれこそ NVIDIA の思う壺なんでしょうがね。


iray はやはり、建築屋さんには良さそうですね。 残念ながら俺にはあんまり関係なさそうな気もするなあ。 物理的に正確だということは、ウソな状態は作りにくくなるわけですよね。こいつだけカゲ落としたくないとか、カメラへの距離はおかしいけどスケールで調整して正しい遠近に見えるからまあいいやとか、カメラのフレーム外は作らないとか、そういうウソのことね。 画面に入ってこないからという理由でオブジェクトが急に無くなったりしていると、ライティングに思いっきり素直に現れて不自然になるとかそういう弊害が、物理的に正確であればあるほど出てきそうな気がします。 ウソつけないレンダリングはつらすぎますよ。 GIによるリアルレンダリングなどをまずやらない俺などにとっては、かえって使いにくい道具のように見えてしまいます。でもまあ、サブスクリプションさえ入っていれば特にそれ用のコストを払わなくても使えるようだし(サブスクリプションが高いわけですが)、そのうち XSI に来たらいじってみましょうね。遊びとしては楽しそうだし。


ところで iray はメンタル霊に含まれるひとつのモードだということで、つまり Max でも Maya でも XSI でも、メンタル霊を搭載さえしていれば平等に使えるようになるはずですが、ホストアプリケーションが違うとレンダリング結果が違うとかってないんでしょうかね? この互換性が高いと嬉しいユーザも多いんじゃないですかね。 色んなソフトウェアが混ざったパイプラインにおいて、どのソフトウェアからレンダリングしても同じ結果が出るなら、大きいスタジオとかでライセンスをフルに使った効率的なレンダリングができるのではないでしょうか。どうでしょう。

っていうか今はどうなんでしょう? 今でもメンタル霊は色んなソフトウェアから使えるわけですが、レンダラ部分は同じわけですよね。シェーダレベルでも互換性あるはずですよね? もともと Maya で書かれたメンタル霊シェーダを、SPDL だけ XSI 用に作り直して移植するとかってのもよく見ますからね。  ってことは、XSI 独自のミックスの仕方とか、そういう独自なことさえしなければ、ホストアプリケーションが違っても完全に一致したレンダリング結果を作れるはずですよね? ライトシェーダもメンタル霊のものを使ってね。 アンチエイリアスとかはレンダラが担当するので同じはずだし。 原理から言えば、できるはずですよね。 どうなんでしょう。






あ、日本語でも発表自体は出てたんですね。
http://www.nvidia.co.jp/object/io_1254419299199.html
まあこちらも普通に美辞麗句です。技術的に興味のある話は無し。



ためしに Google 翻訳してみたら、いやあ面白い。 「精神レイ」 と来たか。なんかすごい威力ありそうだな。



追記:だから翻訳じゃねえって言ってんだろがヴォケ
.

| | コメント (0) | トラックバック (0)

2009年11月10日 (火)

鳩ぽっぽ降臨。

何度も何度も何度も書いている Lucas Martell さん作のショートフィルム Pigeon:Impossible が、ついにフルバージョンで公開されましたよ。


ここにムービー貼るのは彼にとって本意じゃないかなあ。どうだろうなあ。
でもまあ、広めてくれーって感じのようだからよいのではないか。

でかすぎか。重いかな。まあいいや。なるべくでかいサイズで見るべきだ。

でもやっぱり、彼のサイトでも見ましょう。
ブログ面白いですよ。
Podcast は絶対に見ないとダメです。ためになります。個々の話題についてあまり深くは語ってないけど、アイデアというか要点を、映像を使いながら実に上手く説明しています。これは自分の仕事にも活かせますわよ。



この作品は完成までに5年もかかったそうですね。シナリオの書き直しのような根本からの大改造もあったそうだし、キャラクタのデザインも変わったようだし、研究や実験にも大いに時間を割いたみたいですね。だから実プロダクションに5年かかったわけではなく、プリプロダクションも含めて5年ということですね。その辺のことは Podcast やブログでも触れられています。


3Dは 100% XSI で作ったというのもなかなかすごいですね。よくもまあ XSI なんかで長い制作作業に堪えられましたね。けけけけけ。


XSI Base の彼のスレッド
を見ると、ライティングに相当時間をかけたようにも見えます。朝の空気感を表現しようとしたカラーグレーディングなんだと思います。アンビエント色っていうんですか、この青いカゲがいい感じですよね。
わあ、このスレッドの最初の書き込みは、2006年だ。すげぇなあ。


男の一発レンダではなく、盛大にコンポジット大会してますね。2Dで大幅にいじっているように見えます。素材分けまくり。最近の Arnold などの流れとは逆ですかね。 コンバッションがメインのように見えます。


アニメーションも上手いですね。ちゃんとしてますよ。やられたな。 毛唐にありがちなあの感じが無い。同じルーカスでもルーカスフィルムアニメーションさんとは大違い。 いやあ、改めて見るとすげえな。ヤヴァいよこれ。まさかスタイルとしてわざとこの動きをやってるわけじゃないよな? シンガポールの君たち、見習いなさい。


ただ、ルーカスさん個人が個々のCG作業にどこまで関わったのかはまだよくわかりません。大勢のアーティストが参加したとのことなので。 無償で? 5年も? ブログなどじっくり読み返すとわかるかもしれません。 また、ブログを読むとルーカスさんはシナリオや演出への興味がものすごく強いということがわかります。なので彼が監督をしたのはいいとして(ルーカスさんの作品なので当たり前ですが)、彼自身が技術隊長でもあったのか、あるいは技術面は他に隊長的存在がいたのかなどは、もうちっと調べてみないとわかりません。




そういえば10月の札幌の短編映画祭にも出品したんでしたよね。さっき結果を見てみましたが、残念ながら受賞はなかったように見えます。 でもね、言わずと知れた SIGGRAPH 2009 in New Orleans の Electronic Theater にも入選してますし、ブログを見ると他にも色んなアニメーションフェスティバルとかに出品しまくって、いっぱい受賞しているようですよ。すげえなあ。


そして来月、SIGGRAPH ASIA 2009 in 横浜 でも上映されますよー
ルーカスさん日本に来ないかね。
ビール呑みましょうよ。
今度は俺の早口日本語を浴びせてやる
待ってるぜ巨匠。




.

| | コメント (0) | トラックバック (0)

2009年11月 9日 (月)

親方日ノ丸素材。

日本放送協会様が、なにやら面白いことを始めたような。
http://cgi4.nhk.or.jp/creative/cgi/page/Top.cgi

わあ、すげえ。日本放送協会様が持っている映像素材を放出してくれるんですか。すげえ。 音もあるし、ダウンロードもできるし、撮影時期や場所の簡単な説明もあるし、いいですねこれは。


このリンクの説明によると、
http://cgi4.nhk.or.jp/creative/cgi/page/Static.cgi?filename=about.html

みなさん、どうぞ自由に素材を使って下さい。
あなたの作品に活かして下さい。

ただし営利目的で使うんじゃねえぞゴルァ 
金とって見せるもの作ったら殺すぞオルァ
日本放送協会の著作権表示忘れんじゃねえぞノルァ
日本放送協会のロゴを消さずに使えばそれをもって著作権表示とみなしてやるぜドルァ

ということのように見えますね。



あ、もちろん利用規約は各自で確認しましょうね。
鵜呑みにしないで下さいね。
とか書かないといけない馬鹿らしさ。
ええ自衛策ですとも。アフォ対策とも言う。




ちょっと前にこの素材放出のニュースを見たんですがね、その時点でシステムにトラブルがあったみたいで、しばらく公開中止してたみたい。今日見てみたら復帰してたという。

自分の作品作りの素材にすると言うよりは、こりゃもう、資料でしょう。 超上質な資料の宝庫。 使わない手はありませんね。 日本放送協会様、ありがとう。太っ腹だね。


あとは、プレゼン用とかアニマティクスのようないわゆる下準備的な作業でダミー素材として使うみたいなのはどうなんでしょうね。 それを直接見せて金取るわけじゃないにせよ、いずれ利益になった時に貢献したことになるから、商業利用禁止の規約に引っかかるんでしょうか。どういうもんでしょうか。



まだ全然中身は少なく、今後増やしていく予定のようですよ。
是非がんばって中身を充実させて欲しいですね。
大自然系などはもちろん、メカとかね、歴史上の有名人とかもね。



.

| | コメント (0) | トラックバック (0)

2009年11月 7日 (土)

巨頭。

XSI List で誰かが紹介していたんですが。
http://testroete.com/index.php?location=head#

Eric さんというお方のページです。
ハロウィンの仮装で、自分の頭のペーパークラフトを作って実際に被り、街で撮影したようです。いや、最初に見たときはすげーよくできたCG合成かと思ったんだけど、なんだ、リアルマスクかw どうりでリアルなはずだー



デカ頭マスクは、Max でモデリングし、ペパクラデザイナーで展開したみたいですね。へえ、ペパクラデザイナーって海外でも使われているのか。 Pepakura って書いてますね。右の方にスクロールしていくとメイキングが見れます。わあ、楽しそー 俺もやりてぇ


このお方、すごいですね。バンクーバーのゲーム屋さんだそうですが(EA なんかにもいたみたい)、このサイトにはすごく良い作品がいっぱい載ってます。 15歳から3Dやってるんだって。すげー。 ゲームのグラフィック屋としては9年のキャリアだそうで。
写真も思わず息を呑むようなスヴァらしいのがいっぱい載ってますね。 日本にも来た事があるようで、日本の写真もたくさんありました。外国に行ったときの、未知の文化なり雰囲気なり人なりに対する好奇心がよく表れていてニヤリとしてしまいます。 俺もどっか行った時はこんな気分でいっぱい写真を撮るんですがね、でもこんなにデキのいい写真は撮れねえ orz



俺は自分のことをアーティストだと思ったことは多分なくて、職業として今これをやっているという意識が強いのですが、この Eric さんなどはやはり、自分は職業人である前にアーティストだと自覚しているものなんでしょうかね。 仕事だから絵を作るというのではなく、アーティストだからアートをやっているという意識なのかしら。 彼の WEB サイトからは職業人とアーティストのバランスがとれた、でもアーティスト寄りな、すごく良い匂いがする気がします。なんとなくね。勉強や研究が好きみたいだし。

この仕事は、本来であればそういう人がやるべき職業だと思うのですが、そうでもない人間も必要であろうということで、そのニッチを埋めることに存在意義を無理やり見出して続けていくしかありません。たぶん今さら戻れません。 今日も誰かに嫉妬しながら生きてます。

.

| | コメント (4) | トラックバック (0)

2009年11月 4日 (水)

組ミ。

いや、Color_Share も使えたのかあ、というだけのメモですよ。


カメラから見て、オブジェクトAの手前側(カメラに近い側)に存在するオブジェクトBがあるとして、AがBによって隠された部分はレンダリングしたくない、アルファチャネルも黒(つまり絵がない状態)になって欲しい、という場合があるじゃないですか。

素直にAとBを別レンダリングして合成すればいいだけなのですが、諸般の都合でそれができないこともあるわけでね。 BがやがてAの後ろに回りこむので別レンダリングすると合成時にレイヤの上下を入れ替えねばならず面倒だ、とかね。 あるいはパーティクルがオブジェクトの周りを縦横無尽に飛び回るなどという場合は、オブジェクトに対する上下関係が頻繁に入れ替わるので、上レイヤと下レイヤでレンダリングを分けるのは事実上不可能、とかね。 あるいは、1オブジェクトのある部分は上レイヤ、ある部分は下レイヤになるべき時は、1オブジェクトなので部分で分けてレンダリングできねえよゴルァとかね。

普通はマスクを別レンダリングするんでしょうが、わざわざレンダリングする Pass を増やし、合成時にマスク指定するなんて面倒くさいことをするほどのショットでもない、という場合も多いわけですよ。

結局、単純にBが居る部分に絵が全く生成されなければ、それでよい。


という時に、Bに対しては Constant シェーダを与えて、RGBA を全部 0 にすれば良いんですよね。 昔からやってます。 便利です。


余談ですが俺はこの状態のシェーダを「組ミ(くみ)シェーダ」などと呼んだりしています。主にアニメ作品の手描き作画素材などで、いわゆる組ミを切った作画のような状態だから。 ある素材が、手前にある物体に一部隠れるとき、隠れている部分は絵を作らずヌケにしておく状態ですね。

例えば背景に建物があり、その建物の柱のカゲに体が半分隠れているキャラクタがいるとします。 このとき、キャラクタの柱に隠れている部分は、最初から絵を作らないわけです。合成時、本来であればキャラクタは柱レイヤの下に来るはずですが、組ミで作っているので柱よりも上のレイヤにすることができます。 つまり柱を含む建物レイヤが、背景と柱の2レイヤに分けずに済むわけです。建物が複雑でパーツごとにレイヤ分けが難しい場合などに威力を発揮します。  ・・・って、まあこれは組ミの話ですが、3Dで作ったこの状態を組ミシェーダとか組ミマテリアルなどと呼ぶのはきっと俺くらいだろうな。 組ミというものをたまたま知ってたのでそんな風に呼び始めちまったというだけであり、決して一般的な用語ではありません。


で、XSI Base 読んでたら、誰かが Color_Share でもいいって言っていて。


なので、試しに Constant の代わりに Color_Share を出して、同じく RGBA を 0 にしたら、完全に同じことができました。 わあ、Constant じゃなくても良かったのか。知らなかったよ。

Color_Share はパラメータが RGBA の Color タイプ1つしかないから、シンプルでいいですわね。おそらくレンダリングも最も軽いんじゃないでしょうかね。 Constant は Transparency だのなんだの、組ミの目的には必要のないパラメータもいっぱい搭載してますからね。まあこれらの不要なパラメータも使わなきゃレンダリングを重くすることもさほどないでしょうが、不要なら最初から無いほうがスッキリしていいですよね。


というだけのメモでした。
いちおう画像載せておきます。


こういう状態。
Kumi1
XSI 男と、それ以外のもの(手前の赤い壁、奥の緑の壁)は別レンダリングしたいとします。 

壁2枚は一緒にレンダリングしたい。でも2つの壁の間には XSI 男がいる、という問題。
そして、XSI 男の体全体は赤い壁の奥、手だけは赤い壁よりも手前、という問題。


こういう場合に、XSI 男をレンダリングする Pass では、2枚の壁に Constant の RGBA 0,0,0,0 をくれてやります。
Kumi_constantrt

Kumi_constantppg

Kumi2
ま、この例の場合は、奥の壁はハイドしてしまってもいいんですけどね。大事なのは手前の赤い壁と XSI 男の間で組ミにすることです。


それをレンダリングすると、
Kumi3
当然こうなります。


アルファチャネルを見ると、
Kumi4
こうなります。
壁がある部分には、XSI 男の絵がまったく生成されていないのがわかります。
これでこの XSI男レイヤは、合成時に全ての壁よりも上レイヤにすることができますね。壁で隠れている部分には絵がないので、上から重ねても前後関係がおかしい絵にはなりません。 そして壁2枚は1レイヤとしてまとめてレンダリングすることが可能です。

もちろんショットの都合によってはこの逆の場合、つまり XSI 男の方に組ミシェーダを与えてレンダリングする場合も多いですね。




で、今日書いてるのは、この Constant を、Color_Share に代えても良かった、という話でした。知らなかったよ。
Kumi_colorsharert

Kumi_colorshareppg

レンダリング結果は上と全く同じです。パラメータ少ない分、Constant よりもこっちの方がいいんじゃねえの、ってだけの話です。はい。

ちなみに Ray_Type でもできると言っていたので試してみたら、できました。Eye レイに 0,0,0,0 をくれてやれば同じこと。 でもまあ、Color_Share の方がシンプルでいいですよね。はい。

------
追記:コメント欄における msk さんからの情報によると Scalar to Color でも同じことができるという話だったのでやってみたら、できました。

・Constant 0,0,0,0
・Color_Share 0,0,0,0
・Ray_type - Eye 0,0,0,0
・Scalar to Color 0,0

現在わかっている限りでは、上記のどれも同じ結果が得られるように見えます。
------


さらに追記:
コメント欄で Yot さんより更なるタレコミがあり、StoreInChannel でも同じ結果が得られました。独立させたいオブジェクトのマテリアルに Color_StoreInChannel を挿入し、どっかの Pass のチャネルに追加するだけです。
------





組ミ状態のレンダリングは合成時に便利なんだけど、まさに「その部分に絵がない」という組ミの性質そのものから来る欠点もありますわね。 例えばレンダリングした絵にポスト処理でブラーかけたりすることはよくあるわけですが、組ミだとその部分にピクセルがないので、背景の黒などがボケによって見えてくる(バレ)が出ちゃいますよね。 こればっかりは仕組み上どうしようもないですよねえ。そこに絵がないんだからねえ。 2Dで DOF 系のことをやるときも問題が出そうですね。手前のものがボケたためにその奥の部分がより見えてきたけど、組ミのためそこに絵がない、という状態ね。
だからやっぱり、素直に別レンダリングできるものはしちゃった方がいいですよね。ヌケがなく全体で絵が生成されている方が問題が少ないに決まってます。 ま、それができない素材にこそこの組ミをかますわけですが。


あるいは Zpic みたいな奥行きの情報が書き出せれば、そして合成ソフトウェア側でそれを正しく扱ってくれれば、それでもいいのかもしれませんね。 でもこの Zpic、少なくとも AfterEffects との組み合わせにおいて、マトモに使えないですよねえ。
他のファイルフォーマットで、前後の位置関係を指定できるものってありますか? いまどきならありそうだけどな。どうなんでしょう。


.

| | コメント (8) | トラックバック (0)

2009年11月 2日 (月)

JJJ検索。

このブログもいつの間にやらけっこうな数の記事が溜まってきてましてね。

なんとなく書き始めたのは、いつだっけ。2年くらい前だっけ。それ以来、270回だか280回も書いたみたい。主に罵倒罵声罵詈雑言で構成されたロクでもない記事ばかりですがね。けけけけけけ。 でもそれがきっかけでビールをもらったりお友達ができたりしたんだから、なかなか役に立ってるじゃないですか。ブログ書くのに別に元手がかかってるわけじゃないしね。


ともかくも記事の数が多くなってきて、しかも自分用のメモ的な性格の記事もあったりするもんだから、最近は自分のブログ記事を検索するなんてこともしばしばありましてね。 ブログのページの右下の方にも検索フィールドが付いてはいますが、なんとなく使いづらくて、あまり使ってなかったんですが。


なので、Google のカスタム検索というやつで、このブログ用の検索を作ってみました。
http://www.google.com/cse/home?cx=006887538697772344694:k5faz-opaio

あんまりしくみをわかってないんだけど、要は普通の Google 検索で site: オプションを付けるという、いわゆるサイト指定検索になるってだけの話ですかね? どうなの? 誰か教えて下さい。


試しに、上のJJJ検索から検索ワード 「 ゴルァ 」 で検索した場合と、普通の Google で 「 ゴルァ site:http://junkithejunkie.cocolog-nifty.com/blog/」 とした場合の結果を比べてみたんですが、微妙に違いますね。 でもまあ、いちいち site オプションを付けなくてもいい分、カスタム検索の方が簡単ですね。 ま、最初からブログページ右下の検索使うのが一番手っ取り早い気もするんですがね、でもやっぱ使い慣れた Google でやりたいなあとも思うわけです。



このカスタム検索も、対象サイトを複数にしたりとか、いろいろ拡張できそうなんだけど、めんどくさくてあんまりいじってません。誰か活用法を教えて下さい。


.

| | コメント (0) | トラックバック (0)

« 2009年10月 | トップページ | 2009年12月 »