イベント
未来の映画やドラマはゲームエンジンで作られる? 「王様戦隊キングオージャー」で使われた最新の撮影技術とは[CEDEC 2024]
本講演は,2023年3月から2024年2月にかけて放送された特撮テレビドラマ「王様戦隊キングオージャー」(以下,キングオージャー)の撮影の技術的な裏側を,制作陣自ら解説するもの。
登壇者は,監督を務めた上堀内佳寿也氏,ソニーPCL コンテンツクリエイション部 VPプロデューサーの遠藤和真氏,同じくソニーPCL ビジュアルエンジニアリング部 ボリュメトリックキャプチャテクニカルディレクターの増田 徹氏。モデレーターとして,セガ 第3事業部 第3オンライン研究開発プログラム2部 テクニカルサポートセクション テクニカルアーティスト:マネージャーの麓 一博氏が参加した。
ゲーム開発と特撮。一見関係なさそうに見える組み合わせだが,キングオージャーは撮影にゲームエンジンを活用し,東映特撮史上始めて,「バーチャルプロダクション」や「ボリュメトリックキャプチャ」といった先端映像技術を駆使したのだという。もしかしたらドラマの撮影にゲームエンジンが欠かせなくなる,そんな未来も伺えた講演の様子を紹介しよう。
※初出時,ゲームエンジンの名称に誤りがあったため,2024年8月28日20:43に記事を修正しました
「バーチャルプロダクション」とは何か?
実際の講演では説明は後回しになっていたのだが,先に本稿の主題である「バーチャルプロダクション」について説明しておきたい。
バーチャルプロダクションとは,撮影エリアの背景に映像を表示させ,カメラの撮影対象(演者やセットなど)と組み合わせて映像を撮影する技術のことだ。背景は非常に高精細なLEDディスプレイになっており,例えば森林の画像や動画と組み合わせればスタジオにいながら森の中にいるシーンの撮影ができるし,手前に自動車を設置して背景に動く市街地を流せば,車両で移動している様子を撮ることができる。
一見すると,従来の(グリーンバックなどで撮影する)「クロマキー合成」と大して変わらないと思うかもしれないが,流す映像をリアルタイムかつ自在に変えられるので,撮影時点で合成(演者やセットとの融合)が完成するのが大きな強みとなる。また,単色の背景で撮影し,あとから映像をはめ込む合成と違い,実際のロケと同じように撮影時点で実際の背景が存在するので,演者にとっても撮影クルーにとっても,イメージどおりの映像を作りやすいメリットがあるとのことだ。
日本いながらリアルタイムで異世界を撮影
キングオージャーは,東映として初めて,本格的にバーチャルプロダクションで撮影した作品になったという。日本のドラマ撮影ではまだ珍しい撮影方法だが,上堀内氏は「ロケも行ったが,全体としては8割程度がバーチャルプロダクションでの撮影だった」と振り返る。
バーチャルプロダクションを採用した理由の1つは,キングオージャーが「5つの国家と5つの文化」という設定で作られていたことにある。
例えば赤の国は中世のヨーロッパがモチーフで,青の国は近未来的なテクノロジーを有するといった設定だが,そのようなファンタジックな絵作りをしたくてロケに出かけても,現代の日本にそのような場所はない。ならば最初から,デジタルデータで作ってしまえばいい……という理屈だ。
また“戦隊モノ”というジャンルのため,ある意味で一種のアニメ的な質感になってしまう可能性があるCGの絵作りでも,比較的受け入れられやすいのではないかと考えたそうだ。 そして東映側にとっては,全編バーチャルプロダクションが撮影コストにどう影響するのか知るための,一種のテストだったのではないかと上堀内氏は語っていた。
今回実際に撮影に利用したのは,ソニーPCLの「清澄白河BASE」。こちらのバーチャルプロダクションスタジオ(以下,VPスタジオ)では,背景として27.36×5.47mのLEDディスプレイが設置されており,その解像度は1万7280×3656ピクセルというスペックを誇っている。また天井用と移動式のLEDディスプレイも別途用意されており,撮影に応じて使用できる。
VPプロデューサーの遠藤氏によると,清澄白河BASEのVPスタジオでの撮影手法は,大きく分けて「LED WALL + Screen Process」と「LED WALL + In-Camera VFX」の2種類があるという。どちらもLEDスクリーンを使用するのは変わらないが,前者はLEDディスプレイに撮影した静止画や動画を映し出し,被写体を含めてカメラで再撮影する,比較的シンプルな方法だ。
一方の「LED WALL + In-Camera VFX」はさらに進んだ仕組みになっており,スタジオにある撮影カメラを動かすと,LEDに映し出された映像がそれに同期して動き出す。
分かりやすく書けば「3Dゲームで(ゲーム内の)カメラを動かしたときと同じ」であり,単に平面的な画像や動画を映し出すだけでは違和感が出てしまうシチュエーションでも,(3Dのアセットを作っておけば)極めて自然な撮影ができる……というわけだ。
Unreal Engineを使ったバーチャルでデジタルな絵作り
3Dゲームを例に出したことで想像できる通り,実はこの撮影で使う背景用アセットの作成には,ゲームエンジンのUnreal Engineが利用されている。3Dグラフィックスゲームのフィールドを作るのと同じように,撮影用のセットを作成することが可能であり,そうして作られた空間を自由に活用して,リアルタイムで望みどおりの撮影ができるのだ。
一昔前は,実際の人間をゲーム内に登場させたいとき,実写取り込みを使うか,単純にそっくりなモデルを用意するしかなかった。
だが実写の領域で「Unreal Engine+VPスタジオ」というテクノロジーを使えば,“バーチャル世界を現実に持ってくる”あるいは“バーチャル世界を切り取って現実に融合させる”といったことが可能……と言ってしまってもいいだろう。VRやARの分野に近い部分もあるが,実に夢のある話だと思う。
またUnreal Engineの利用には,もう一つ副次的なメリットがあるとのこと。それは「撮影時にデータもリアルタイムで修正できる」という点だ。例えば実際のロケに出かける場合,自前の照明は明るさを調節したり角度を変えたりできるが,一番大きい光源である太陽の位置はどうしようもない。だがデータとして存在するバーチャル空間なら,太陽の位置すら任意の場所にできる。実際に上堀内氏は,シーンごとに太陽を移動させていたと語った。
調整担当スタッフが常に2名ほどいたそうだが,監督が思い描いた映像を自分で作り出せるのは,やはり大きかったようだ。
また,スクリーンを緑一色にすればグリーンバックとしても使えるため,状況に応じてハイテクとローテクを柔軟に使い分けられるのも,演出の面で嬉しいそうだ。上堀内氏は,通常のドラマ撮影にも十分利用できるのではないかと語った。
「ボリュメトリックキャプチャ」で,さらに進んだ絵作りを
講演ではもう一つ,「ボリュメトリックキャプチャ」という技術も紹介された。これは対象の周囲にいくつものカメラを設置して撮影し,その対象を含む空間そのものを精細な3Dデジタルデータに落とし込むといったイメージの手法だ。従来のモーションキャプチャは動作のみをデータ化するが,ボリュメトリックキャプチャでは動きを含めて“丸ごとデータにする”と考えれば分かりやすいかもしれない。
この技術の特筆すべき点は,単にデータに落とし込むだけでなく,前出のUnreal Engineと組み合わせれば,自由かつリアルタイムにキャラクターを編集,加工,複製できることだ。
キングオージャーではタイミングの関係から全編で本格的には使用できなかったものの,後半でいくつかのシーンに利用し,エキストラが演じたキャラを複製してモブを増加させたり,ロボットを取り込んで派手な戦闘シーンに仕上げたりしたとのことだ。
また上堀内氏は,ボリュメトリックキャプチャを使って取り込んだキャラクターで,劇場版につながるようなPVを自身で作り上げたという。
氏曰く「自分は絵コンテが描けないので,イメージを直接スタッフに伝えるのが難しいのだが,これ(Unreal Engine)なら自分自身の手で思った通りに作れるので,作業段階を何段も省略できた」とし,非常に手応えが良かったこと語っていた。
さらに,複数チームに渡るデータの加工やブラッシュアップがスムーズに進み,想像以上のクオリティのものが短時間で仕上がったことも嬉しかったという。今後はさらにこの手法を活用していきたいそうだ。
結果的に上堀内氏は,バーチャルプロダクションを使用することで,ドラマや映画などの映像業界にさらなる可能性を感じたそうだ。その一方で,業界には新しい技術に対する“食わず嫌い”が少なからず残っているらしい。氏としてはあまり身構えず,単なる撮影手段の1つとして利用していけば,業界はさらに発展していくのではと語り,講演を締めくくった。
技術の進歩によって映画やドラマに多くのCGが使われ,ゲームでも映画と見まごうようなカットシーンが流れることは珍しくなくなった。とはいえゲーム業界と映像業界は遠い存在と感じていた人は,結構多いのではないだろうか。筆者もそうだ。
だが今回の講演を聞くと,技術の進歩はその距離を大幅に縮めているのではと感じるようになった。ドラマの裏でゲームエンジンがゲーム以上にゴリゴリに動いている……そんな時代も,そう遠くないのかもしれない。
4Gamer「CEDEC 2024」記事一覧
- この記事のURL: