イベント
ゲーム会社の業務効率化に生成AIは役立つ? スクウェア・エニックス社内での取り組みとは[CEDEC+KYUSHU 2024]
スクウェア・エニックスでは,生成AIを開発支援に活用していくための技術検証や,社内向けワークショップおよび勉強会,AI技術のキャッチアップと社内共有などを目的とした「AI&エンジン開発ディビジョン」を2024年4月に発足し,生成AIの活用に取り組んでいるという。
そんな取り組みの一つが「ひすいちゃん」と名付けられた多機能チャットボットだ。
このひすいちゃんは,専用のチャットツールとSlack(主にビジネスで活用されるコミュニケーションツール)上で動作し,文章で質問を投げかけると,同社の内製ゲームエンジンの知識から適切な回答を返し,さらに回答の元となったドキュメントを提示してくれる。
つまり社内の人間しか知りえない知識に対しても,ChatGPTなどと同じように自然言語でのやり取りを可能にしている。
なお使用しているLLM(大規模言語モデル)はGPT-4oで,システムプロンプトを使って「ひすいちゃん」らしい話し方を実現しているのだとか。
もちろん画像を解析してコメントしたり,日本語での質問に英語で回答したり,さらには要約するといったLLMらしい対応も可能だ。なお入力された言語の判定や翻訳には,Azure AI Translator(マイクロソフトが提供するクラウドベースのニューラル機械翻訳サービス)を利用しているとのこと。
ちなみに,ひすいちゃんがどのように内製エンジンについての知識を得ているかといえば,ここにはRAG(Retrieval-Augmented Generation)という技術が用いられている。
これはLLMから見て外部の情報を利用するための方法の一つで,ユーザーが入力した質問を数値情報化し,それをデータベース内のドキュメントの数値情報と比較することで,関連性の高いドキュメントを検索。それに基づいた答えをLLMが生成するというプロセスである。
ひすいちゃんの導入後,人間相手だとちょっと聞きにくい質問,誰に相談していいか迷うような質問なども気軽にできるようになったという。これによってエンジンがより活用されやすくなり,かつ情報共有の負担も軽減されたそうだ。
さらにエンジン開発メンバーが「ひすいちゃんの回答を詳しく正確なものにしたい!」と望むようになり,ドキュメントを書くモチベ―ションにもつながったとか。
続いて,テキストの作成支援についての活用例が紹介された。といってもゲームのシナリオなどのテキストではなく,社内向けの勉強会や情報共有のためのテキストの話である。例えば冒頭で紹介したAI&エンジン開発ディビジョンは,生成AIに関する社内共有の文章作成に生成AIを使うことで,その有効性を示している。
もちろん,こうした文章は生成AIを使わずとも作成は可能だ。しかし実際に生成AIを「使って見せる」ことで,その利便性がよりはっきり伝わるとする。さらに文章の作成者が思いつかなかった説明例が含まれ,より幅広く伝えるべきか,話を絞って伝えるべきかを判断する材料になったりもする。
さらに,CEDEC+KYUSHU 2024のようなカンファレンスなどで社外に技術を紹介するときに,伏せておくべき情報の代わりとなるダミーデータを「それらしく」作ることもできる。例えばユーザーアンケートの分析の話をする際に,実例をそのまま発表することはできないため,それらしいダミーの文章を作るといったことが可能だという。
講演は,そこから大規模マルチモーダルモデル(LMM)――つまりは文章でも画像でも音でも処理・学習できるAIの話題にもおよんだ。
こうしたLMMの特性を,社内の他部署にも周知するために作られたアプリが「魔法生成システム」だ。これは任意の画像を魔法陣に見立て,そこからどんな魔法が発現するのかを自動生成するという,遊び心のあるアプリである。とはいえ任意のデータを抜き出せるようフォーマットを整えて出力できるなど,実際の開発にも役立つような便利な機能も組み込まれている。
実際の生成例を見てみよう。以下は手書きの画像や写真をベースに生成したもので,LMMが画像を「解釈」「推論」し,それに相応しそうなものを生成していることが見てとれる。
続いては,RAGを搭載したチャットボットの作成例が紹介された。
これはGoogle Colaboratory(無料版)を使用し,LLMにTanuki-8B(AWQ 4bit量子化)を使用して構築したものとのこと。なおGoogle Colaboratoryで使用するコードやLLMのシステムプロンプトといった資料は,後日CEDiLにて配布予定とのことである。CEDiL会員なら実際に作成してみることも可能とのことなので,気になる人は試してみるといいだろう。
セッションの最後に,森氏は「AIはつねに望ましい応答を返すわけではない」とし,すべてを任せようとするのではなく,ワークフローに組み込む考え方が大事だと語った。
例えばシナリオの生成にAIを使う場合,生成物が倫理的・権利的に問題がないかは大いに気になるところだろう。だが,仮にその問題が解決されたとしても,また別の問題が生まれる。一般人とは異なった倫理感を持ち,権利をないがしろにするような「悪役」のセリフが生成できないのだ。
またハーフエルフが差別される世界の文章を生成するとき,作中世界の倫理観を反映しつつも,「商業作品」として我々の世界の常識や倫理観も考慮するという部分にも,難しさが生まれるという。これを同社内では「ハーフエルフ・ハーフ問題」と呼んでいるそうだ。
結局のところ,現状の生成AIは「使い方次第では便利な道具」であることは間違いないが,まだまだ「人間」の力がいらない域にはほど遠いものがある。本セッションで伝えられたような生成AIについての知見が共有され,技術やその使用方法が進展していくことにより,より頼もしい「アシスタント」に近づいていくのかもしれない。
- この記事のURL: