ForgeVision Engineer Blog

フォージビジョン エンジニア ブログ

バーチャルYouTuberの要素技術を試してみる

概要

こんにちは。VR事業部の小林です。
Unity+HTC VIVEでバーチャルYouTuberの要素技術を試してみました。
Unityにある程度慣れていれば、思いのほか簡単にできると思います。 表情の変化などは試していません。

動作環境

  • Unity 2018.1.0f2 (64-bit)
  • HTC VIVE + コントローラー

開発環境

  • SteamVRPlugin(2.0.1)
  • FinalIK(1.8)
  • OVRLipSync(1.28.0)
  • AniLipSync(1.2.0)

VRIKの設定

以下のはるねずみさんのエントリを参考に、VRIKを設定します。

qiita.com

ただし、今回はユニティちゃんを使用するため、以下のRyota Yokoteさんのエントリを参考に、各targetのtransformの回転を修正します。

qiita.com

ここまでで、ヘッドセットを頭、コントローラーを両手として、ユニティちゃんになりきることができました。

リップシンクの設定

OVRLipSyncをインポートした後、AniLipSyncをインポートします。 AniLipSyncの設定は以下のGitHubのページを参考にしました。

github.com

OVRLipSyncとAniLipSyncの違い

AniLipSyncはOVRLipSyncを拡張したものです。 OVRLipSyncは滑らかな口の動きが実現できますが、AniLipSyncではアニメらしい口の動きになります。

以下がOVRLipSyncを使用した動画です。

そして、以下がAniLipSyncを使用した動画です(冒頭と同一)。

ライセンス表記

f:id:nyanko_omori:20181208095047p:plain

この作品はユニティちゃんライセンス条項の元に提供されています。
また、AniLipSyncを使用しています。