ACESとバンダイナムコ研究所は1月20日、AI技術を用いたキャラクターモーション作成に関する研究・開発プロジェクトを発足したことを発表した。ACESはこれまで、スポーツや製造業、小売、保育などの業界にAIアルゴリズムの開発・提供を行ってきた企業だが、エンターテインメント業界向けに開発・提供を行うのは今回が初となる。
プロジェクト発足の背景には、昨今のバーチャルキャラクター市場拡大に伴って、キャラクターの属性や場面に応じた自然で多様なキャラクターモーションの作成需要が高まっていることにあった。
ユーザーの分身となるアバター(バーチャルキャラクター)は現状、細かい動きに対応するだけのモーションがなく、ぎこちない動きになってしまいがち。
バンダイナムコ研究所においても、メタバース及びxR技術※の研究を進めるうえで様々なキャラクターで複数のモーションを検証する必要があり、そのためには膨大な数のモーションデータを用意しなければならないという課題があったようだ。
※xR(クロスリアリティ/エックスリアリティ) 技術……AR(拡張現実)、VR(仮想現実)、MR(複合現実)といった現実世界と仮想世界を融合する表現技術の総称。
そこで、人の知見や行動のデジタル化に強みを持つACESの技術と、バンダイナムコ研究所のエンターテインメントにおけるモーション制作のノウハウを生かし、AI技術である「モーションスタイル変換」を用いて、より多様なキャラクターモーションの生成を手軽に行うための研究開発を本格的に開始。
「モーションスタイル変換」とは、多彩なキャラクターモーションを生成するために用いるAI技術で、モーションを動作の内容を表す「コンテンツ」(例:歩く)と動作のニュアンスを表す「スタイル」(例:楽しそうに)に分解し、2つのモーションをかけ合わせた時に、一方のモーションの「コンテンツ」を維持し、もう一方のモーションの「スタイル」を反映した新しいモーション(例:楽しそうに歩く)を作成する技術のことを指す。
そして、エンターテインメント向けデータに適用可能な「モーションスタイル変換」モデルを作成するためには、多種多様なキャラクターのモーションのデータセットが必要だという。
今後、同プロジェクトではACESがこれまで培ってきた人の行動をデジタル化する技術ノウハウを基に、バンダイナムコ研究所にて、プロの演者による移動や格闘等の動作に喜怒哀楽の感情、老若男女といった属性はじめキャラクターらしさや状態に応じた個別のスタイルを適用させたモーションを撮影し、アルゴリズムを各種エンターテインメントに実装することを目指す。
バンダイナムコ研究所は、これらの技術に関して「キャラクターの自然で複雑な表現が可能になると、見ている側のユーザーはより深く感情移入することができるため、ゲームや映像などコンテンツの価値向上につながります。また、メタバースをはじめ、オンライン上でユーザー同士のコミュニケーションを活性化させることは、新しいエンターテインメントの創出にもなると考えています」と説明している。
実装時期はまだ定まっていないが、メタバース市場が盛り上がるにつれて「AIによる自然で多様なモーションの自動生成」はより重要な技術となっていくと言えるだろう。