イベント
[GDC 2010]シーケンサーで音を当てるのはもう古い? 「ファイナルファンタジーXIII」で採用された自動サウンド生成システム「MASTS」とは
なかでも今回レポートするセッションは,主にサウンド周りにフォーカスが当てられた内容で,その名も「FINAL FANTASY XIII's Motion-Controlled Real-Time Automatic Sound Triggering System」というものだ。戦闘シーンでの斬撃音や魔法といった,ゲーム中で発生する各種効果音,カットシーン(ムービーシーン)におけるキャラクターの挙動音(足音など)の発生(指定)などを,モーションやコリジョンの判定によって自動的に行ってしまう技術の解説である。
登壇したのは,スクウェア・エニックスの土田善紀氏と矢島友宏氏の二人。土田氏は,元々はモーションやレンダリングなどグラフィックス関連のプログラミングに従事しており,「ファイナルファンタジーXII」でも開発ツール類の設計に関わった。一方の矢島氏も,スクウェア・エニックスのサウンドデザイナーとして,「ベイグランドストーリー」や「ファイナルファンタジーXI」など,同社の数々の作品に携わってきた人物だ。
さて,昨今のハイエンドゲーム開発においては,その映像技術が飛躍的に高まっていくなかで,モーションやAIなどと同時に,リアルなグラフィックスに当てても違和感のないサウンド作りも求められるようになってきており,結果として,ゲーム全体の開発コスト――すなわち“物量”が問題となっているのは,いまさら指摘するまでもないことだろう。
なんだかんだで見た目的に分かりやすいグラフィックスの陰に隠れてしまいがちだが,もちろんサウンド関連の制作コストも例外ではなく,高性能な現世代機に移行するにあたって,それこそハリウッド映画並みの物量とクオリティが求められる場面も少なくないという。
国産の超大作ゲームといえば,やはりFF13がその代表的なタイトルとなるわけだが,本作においても,そのサウンドに関する作業は膨大なものになっていた模様。今回の講演は,そうしたゲームサウンドに関わる作業を少しでも軽減すべくFF13の制作過程で開発した,“MASTS”と呼ばれる独自システムの話が中心となっていた。
講演の口火を切ったのは,サウンドデザイナーの矢島友宏氏だ。矢島氏は,まず自身が携わったタイトルでの実例を挙げながら,専用のツール(シーケンサー)を使って手動で音を当てていく方法や,イベントテーブルを用いて状況に合わせて音を鳴らしていくという従来型の手法について触れ,「このやり方では限界があると感じた」のだと語る。
イベントテーブルを使うというのは,例えば,歩く音のパターンを何種類か用意しておき,キャラクターが歩いている地形によって,鳴らす音を変えるというやり方だ。これは今でもよく使われる,とてもポピュラーな手法の一つではあるが,これでは,発生する音が単調になってしまうなど,現在のリアルなグラフィックスに対応した“よりインタラクティブ”で“自然に聞こえるサウンド”には程遠い。また,モーションキャプチャーや物理演算を使うことで,きめ細やかなキャラクター/オブジェクトの動きが表現できる現在。その動きに対して自然に聞こえる音を当てていくことは,もう手動では追いつかないという問題もあるのだという。
矢島氏は,こうした問題意識から新しいサウンドシステムの必要性を感じ,それが「Motion-Controlled Real-Time Automatic Sound Triggering System」――すなわちMASTSの開発へと繋がっていくわけだが,この構想を社内で説明してまわっていた当初は,プログラマ陣からの反応はあまり芳しくなかったらしい。
これからのゲーム開発を見越して開発されたMASTS
サウンド周りの作業に関する効率化という命題自体については重々理解していたという土田氏だが,「MASTSを開発するには,サウンドだけではなく,モーションや物理演算など多岐にわたって高度な知識が求められる。そして,そういう人材はほとんどいない。さらにはグラフィックスチームなど,ほかのチームとの連携も必要になる。……完成させられる確信が持てなかった」のだと語る。
最終的には,矢島氏の熱意に,そしてほかのゲーム制作でも応用できる汎用性などを考慮して開発に賛同するのだが,「これはかなりの挑戦である」というのは,コンセプトを聞いた時点でかなり覚悟していたらしい。確かに,音を自動的にアサインする(ゲームのみならずカットシーンまでも)というのは,素人目に見てもかなりの曲芸技が必要そうに感じられる。
MASTSというのは,簡単に言ってしまえば,ゲーム中のキャラクターの情報を解析して,それに合ったサウンドをプロデュースするシステムである。キャラクターの動きやその角度/速度,そして材質などといった情報を計算し,適切なサウンドを直ちにシステムが叩きだす。
これによってキャラクターのモーションに合わせて音を当てる必要はなくなり,例えば,キャラクターのモーションを変更した場合でも,サウンドは自動的にそのモーションに合わせた適切な音で奏でられるわけだ。これまでのサウンド制作は,モーションの制作が終わらないと始められない,モーションの変更に伴なう調整が面倒などといった問題があったのだが,そうしたコスト(時間)の掛かる要素も,これで一挙に解決できるというわけだ。
これを端的に説明すると,例えば,人間(2足歩行のキャラクター)を想定したロジックが組まれていたシステムで,多足型のモンスターや空中飛行しているキャラクターのサウンドをどうするか? などという問題である。もちろん,例外処理としてその都度対応……ということもできなくはないのだが,それをやってしまったら「自動化によって効率化をはかる」という当初の目的からは大きく外れてしまう。カットシーンでも同様だ。「画面に映らない」対象のサウンドを演出として入れたい場合などは,これもまた例外処理をしなくてはならなくなった。
ちなみに土田氏は,こうした問題に対してサウンドデザイナーが自在に操作できる,グラフィカルなUIを持ったスクリプト機能を実装させることで対応したそうだ。また本当にイレギュラーなシーンでは,一時的にMASTSを切って,昔ながらの手動で音を当てるやり方でも作業ができるようにし,サウンドデザイナー側で,すべてのアクションを完結できるよう配慮したのだという。入力したサウンドを即座に画面上で確認できるデバッグモードを含め,効率性を求めた機能を実装させていく姿勢は,過去にも数々の社内ツールを手がけてきたという土田氏らしい一面かもしれない。
ともあれ,そうした試行錯誤を繰り返しながらFF13のサウンド制作は終了。土田氏は「今回は,システムをゼロから構築することになったので大変だったが,次の作品からは,FF13で培ったデータ/テンプレートを応用できる。よりブラッシュアップしていくことで,理想的なゲームサウンドを低コストで作れるようになるはずだ」として,今回の講演を締めくくった。
さて,今回の講演は,どちらかというとサウンド制作におけるシステマティックな話が中心だったわけだが,個人的には,矢島氏が「足音でキャラクターを表現する場合に〜」という発言がとても印象的であった。
サウンドクリエイターは,そのサウンド一つでプレイヤーに何かを訴える職種であり,そのこだわりがゲームの出来栄え,それこそ「触り心地」や「爽快感」などというような,面白さそのものに直結することも少なくない。
肥大化する昨今のゲーム開発において,何を自動化し,逆にどこに人間の“感性”を入れ込むのか。今後MASTSをバージョンアップさせていくにあたって,そうしたサウンドクリエイターの“こだわり”と“自動化”をどう両立させていくのか,実に興味深いところである。
- 関連タイトル:
ファイナルファンタジーXIII
- 関連タイトル:
FINAL FANTASY XIII
- この記事のURL:
キーワード
(c)2009 SQUARE ENIX CO., LTD. All Rights Reserved. CHARACTER DESIGN: TETSUYA NOMURA
(c)SQUARE ENIX CO., LTD. All Rights Reserved. CHARACTER DESIGN:TETSUYA NOMURA