イベント
[CEDEC 2015]Unity上でVOCALOIDの歌声をシームレスに利用できる開発環境「VOCALOID for Unity」の可能性を開発者に聞く
ヤマハ「VOCALOID for Unity」特設サイト
Unityから直接VOCALOIDをコントロール
しかし,この方法でVOCALOIDを使う限り,ゲームの状況に応じて歌の調子を変えたり,ゲームの中でVOCALOIDによる歌が自動生成されたりといったことを実現するためには非常に手間がかかる。Unity側からデータをVOCALOIDに渡して,そのデータを元に歌声を動的に生成するということができないため,「変化した結果」や「自動生成される歌のパーツ」をVOCALOIDで作っておく必要があり,それをパズルのように組み合わせるしかなかったのだ。
ところがVOCALOID for Unityによって,VOCALOIDの歌声生成エンジンに対してUnityから直接データを渡せるようになり,その生成された歌声データをUnity側が直接受け取ることも可能になるという。従って,「ゲームの中でVOCALOIDの歌い手がダメージを受けたら,そのダメージに応じて声を変化させる」といったことが,ただのパラメータの受け渡しだけで実現できるのだ。
なお,正式リリースは2015年12月に予定されている。
VOCALOID for Unityの使い方はユーザー次第
さて,この画期的な統合環境を用いることで,実際にどのような可能性が開けるのだろうか。
すぐに思いつくのは,ゲームの進行に応じて歌い方が変わる,VRで一緒に歌う,あるいは究極的な話として「歌う人工知能の誕生」といったことが挙げられる。また,アイドル系の音ゲーでは現状,キャラクターのパラメータが成長しても,歌い方や歌声そのものが成長することはないが,これを成長していくようにして,より「ライブ」を感じさせる演出も可能になるだろう。
近年では,Unityがゲーム以外のシーンでも利用されるケースが目立つようになった。それらに対して,VOCALOIDが提供されるという点でも期待が持てる。
ただ,「VOCALOID for Unity」を開発したヤマハでは,まだ具体的に将来のビジョンを固めていないという。彼らもまた思いつくことは無数にあるものの,まずはユーザーの手に委ねて,その可能性を模索してほしいというのが,真の狙いなのだ。ヤマハのVOCALOIDプロジェクトリーダーである石川克己氏は,その点についてはっきりと「これで何ができるか,試してみてほしい」と語っていた。
ちなみに今回のプロジェクトは,ヤマハからUnity側に持ちかけたものだという。VOCALOIDプロジェクトの新しいリーダーとなった石川氏は,VOCALOIDをインタラクティブツールとして提供することで,新しい驚きをVOCALOIDにもたらしたいと考えているのである。
ヤマハからの挑戦状
最後に,技術的な面を多少補足しておこう。
まず,「VOCALOID for Unity」によって,UnityからVOCALOIDをどの程度までコントロールできるのかという疑問については,「VOCALOIDの操作パラメータは全部いじることができる」との回答を得た。理屈の上では「VOCALOIDに自然な感じで歌わせるデータへと,自動的にデータを補正してくれるUnity用プラグイン」も作成可能だという。
また,どのようなデータをVOCALOIDに渡せば「それらしく歌うか」という点については,7月に発売された「VOCALOID4 Library Sachiko」(※歌手 小林幸子さんの歌声を元に制作されたライブラリ)において,「こぶし」や「しゃくり」を再現するためにはどう加工すればいいかという知見を確立しているそうだ。「VOCALOID for Unity」の開発にあたって,さらにどうすればへたな歌に聞こえるかという研究も進めているという。VOCALOIDが「人間らしいへたさ」で歌うと,独特のインパクトがあるとのことなので,いろいろな意味で期待したい。
ゲームに詳しい人であれば,音を作るための「操作」が加わることによって,遅延が生じるのかということが気になるかもしれない。音ゲーのようにシビアにタイミングが問われるゲームでは,ほんのわずかな遅延であっても結果に大きな影響を与えうる。
ただ,そもそも歌声の生成においては,遅延は避けられないという問題がある。子音+母音で作られる歌声は,子音が先に発声されるが,音符は母音が発声されるタイミングに置かれている。そのため,音符をトリガーにする限り,「ちゃんとした歌声」として生成し,かつ遅延をゼロにすることは不可能なのだ。
とはいえ,「VOCALOID for Unity」では,「遅延は起こるもの」として放置しているわけではなく,2つの動作モードを用意するという対策を講じている。
1つめのモードは,子音の発声を短くして,同期を重視したモードだ。この場合,歌声のクオリティは低下するが,リアルタイム性は向上する。音ゲーなどに適しているモードといえるだろう。
もう1つは,500ms (ミリ秒) +α程度の固定レイテンシを持つモードで,こちらは子音を先行して生成することになる。これにより,歌声の品質が向上するので,0.5秒程度の遅延があっても構わないゲームであれば効果的というわけだ。
ある意味,「VOCALOID for Unity」はヤマハからの挑戦状と言えるだろう。強力なユーザーコミュニティの中で育ってきたVOCALOIDが,同じく強力なコミュニティを持つUnityとリンクすることで,どんな新しい体験が生まれるのか。大いに期待しつつ,その動向を注目したい。
ヤマハ「VOCALOID for Unity」特設サイト
4Gamer「CEDEC 2015」記事一覧
- 関連タイトル:
Unity
- この記事のURL: