たとえばもっとも安価な VIVE Tracker や Perception Neuron はひとりで6畳の部屋で運用することもできます。しかしそれ以外の Xsens MVN, OptiTrack, VICON となるとひとりでスーツを着用することもできませんし、キャリブレーションもひとりではできません。一方で生放送に使うには機器の安定性が重要ですが、安価なほど耐障害性は低くなります。特に VIVE Tracker や Perception Neuron Pro の 2.4GHz 帯無線接続はイベント会場で使用することは絶望的です。, Perception Neuron, Xsens MVN, OptiTrack, VICON はアクタの体型情報を事前入力、または計測で得ることができ、動きも計測します。ここで、得られた体型情報と動きはアクタ自身のものであり、キャラクタのものではありません。愚直にアクタの動きの関節角をキャラクタに与えると歩幅は違いますし、接地感もなくなってしまいます。したがってアクタとキャラクタの体格差を吸収して動きを適用する必要があります。これを一般にはリターゲティングと言います。リターゲティングには例えば以下のソフトウェアや機能を使います。, 自然な動きをキャラクタに落とし込めるかどうかはほぼこの部分にかかっています。バーチャルキャストを始め、各社・各個人のアプリケーションの数だけリターゲティングの実装はあるだろうというくらい、奥が深くクリティカルな要素技術です。, また唯一 VIVE Tracker は取得できるアクタの情報が不完全です。他のモーションキャプチャシステムには存在する「センサの情報からアクタの体型情報と動きを生成する」システムを用意しなければなりません。またはリターゲティングと一体化したシステムでキャラクタを直接 IK で操作する方法もあります。これには例えば以下のソフトウェアや機能を使います。, この記事で挙げた5つのモーションキャプチャシステムは物理的な仕様で二種類に大別できます。ひとつは慣性センサ式、もうひとつは光学式です。具体的には慣性センサ式は Perception Neuron と Xsens MVN 、そして光学式は OptiTrack, VICON と VIVE Tracker です。 最後にフレームアウトするところで、「クリップを分割」を選択。 「User」タブ »「UI Settings」 »「Language」のポップアップメニューで「日本語」を選択して、右下の「Save」ボタンをクリック。 3dcg モデルのキャラクタに対して動きを与える方法のひとつとして、モーションキャプチャシステムを用いたフルボディトラッキングがあります。 本記事では主要なモーションキャプチャシステムを VTuber 向けにフルボディトラッキングに使用する際の比較を行います。 さらに白い服の人の影から出てくるところで、「クリップを分割」を選択。 下の「カラー」を選択。, 新しいノードを追加して、それに対して変更を行います vrゴーグル・vrヘッドセット人気売れ筋ランキング!今売れている人気製品をランキングから探すことができます。価格情報やスペック情報、クチコミやレビューなどの情報も掲載しています macOS Mojave 10.4.1, カテゴリー: Mac | 公開 : 2018年3月8日、更新 : 2018年11月20日 | 0件のコメント, せっかく動画をとっても、他の人が映っているとネットにアップするには色々と問題が出てきます。, なので、モザイクをかけなければなりませんが、対象が動いている場合、モーショントラッキング機能があるソフトでモザイクをかけていくのが楽です。 UnrealEngine4 SkeletalMesh AnimationRetargeting, VIVE Tracker はセンサ情報のみなのでアクタの情報を推定する別種のソフトウェアが必要, 慣性センサ式は大掛かりな設備を必要としないが、時間経過要因や複数アクタ間の位置関係はズレる, 光学式は大掛かりな設備が必要だが、現実空間の絶対位置を取るため複数アクタ間の位置関係を得ることがシンプル, どちらもプロユース想定なのでソフトウェアやハードウェアの使用方法を熟知する必要がある, Base Station 2.0 でも同時に最大 4 つまでしか Base Station を認識しないため、ロストしやすい, you can read useful information later efficiently.  次に同時収録人数の違いです。まず光学式は現実の絶対位置での測定を行うので歩き回ったあとに元の位置に戻ってもズレませんし、複数のアクタがいてもその相対位置関係は保たれます。一方で慣性センサ式は身体の慣性センサの時間積分なので誤差が溜まり、姿勢がどんどんズレていきます。例えば Perception Neuron に比べれば格段に精度の良い Xsens MVN でも 10 分も動き回っていれば 1m は位置がズレてしまいます。, 慣性センサ式の 2 種について、それぞれ説明します。まず値段は圧倒的に Perception Neuron のほうが安いです。Xsens MVN は高価なので、個人ならば Perception Neuron を買うことになるでしょう。  まず設備面での違いを挙げます。慣性センサ式はアクタの身体に這わせた慣性センサを用いて測定するので、アクタ本人以外の大掛かりな設備は必要ありません。したがってセンサの上から着物を着ることができたり直射日光下の屋外でも使用できるという利点があります。一方で光学式はアクタに取り付けた再帰性反射材と、多数の赤外線カメラや照射装置を用いて測定するので、三脚やトラス組みを用いたモーションキャプチャシステムスタジオを構築する必要があります。また赤外線を使用しているため、直射日光下での測定は非常に難しいです。 Help us understand the problem. 富士通がVRに参入!「Windows Mixed Reality」対応のヘッドセットを11月下旬に発売する。他社からも発表されており、普及が広まるか注目だ。 この記事は VTuber Tech #1 Advent Calendar 2018 11 日目の記事です。, こんにちは。株式会社バーチャルキャストで開発をしている さんたーP です。最近は VTuber 生放送のシステム構築、3D モデルモデリング&セットアップ、放送オペレーションをしています。具体的には こちら 。, 3DCG モデルのキャラクタに対して動きを与える方法のひとつとして、モーションキャプチャシステムを用いたフルボディトラッキングがあります。本記事では主要なモーションキャプチャシステムを VTuber 向けにフルボディトラッキングに使用する際の比較を行います。対象システムは以下の 5 つです。, そもそもモーションキャプチャによるフルボディトラッキングが自らのユースケースに必要なのかどうか、という技術選択の判断は以下のスライドを御覧ください。, #CEDEC2018「一万人規模音楽ライブからトークイベントまで、バーチャルキャラクターをリアルイベントへ召還する技術」, まず辛辣な話をします。同じジャンルの仕組みの機器ならば、値段が高いほうが精度が良く、ソフトウェアの出来やサポートも充実しています。一方で値段が高いほど、運用に必要な人員や土地は増えます。 パーマリンク, Proudly powered by WordPress 5.5.3 | Theme: Yoko by Elmastudio, 【Davinci Resolve】使い方解説「セッティング・素材の読み込み・編集・レンダリング」 | | 動画素材.com/ブログ, https://blog.macfeeling.com/archives/images/2018/03/Blackmagic-DaVinci-ResolveScreenSnapz001.mp4, https://blog.macfeeling.com/archives/images/2018/03/5b6e1ccc057b4a642d014f6f4e33c688.mp4, 起動可能なインストーラ作成(macOS Sierra、OS X El Capitan用).  モーションキャプチャスタジオという安定した環境で運用することを前提としているので、その環境下にある限りは落とし穴はさほどないでしょう。挙げるとすれば、赤外線を使用するためスタジオ内の金属部品・眼鏡などが反射し、トラッキング精度が落ちることがあります。, Vive は Tracker はあくまで VR 機器なので、他の 4 機材と比べると安定性に欠けます。トラッキングの要となる Base Station は 2 つまで、2.0 でも同時には 4 つまでしか認識されないため、どうしても死角が多くなるからです。また通信の問題もあります。基本的に 2.4 GHz 帯無線通信前提なので、電波環境にも左右されてしまいます。幸いにも Tracker は有線接続での認識が可能なので、慣性センサ式のようにケーブルを身体に這わせることで解決ができます。, モーションキャプチャシステムは値段が高ければ高いほどクオリティは上がります。しかしそれに伴って人員や土地のリソースの要求量が上がります。また方式の違いにより使用に適さないシチュエーションも多々存在するので、使い分けることができれば良いでしょう。(いや、買えないんだがね……欲しい……). Why not register and get more from Qiita?  どちらともモーションキャプチャスタジオ向けの製品となるので、使用するにはソフトウェア・ハードウェア、そしてセットアップについて熟知する必要があります。  しかし値段の差はそのまま精度に直結します。センサ自体の精度もそうですが、それに加えて Perception Neuron は周囲の磁場環境にとても左右されます。これは周囲に PC やスマートフォンが立ち並ぶオフィスで Perception Neuron を使用すると使い物にならないレベルです。Perception Neuron を使用する際は磁場クリーンな環境を用意する必要があります。 マックなソフトはないかとググってみたところ、Blackmagic Design社のDaVinci Resolve 15というのが、無料で使えるとのことで、ダウンロードしてみました。(ダウンロードリンクはページの一番下にあります。), ダウンロードしてzipファイルを解凍したら、「DaVinci_Resolve_15.x_Mac.dmg」をダブルクリック、中にある「Install Resolve 15.x.pkg」をダブルクリックしてインストールを。, 「アプリケーション」フォルダ »「DaVinci_Resolve」フォルダ内の「DaVinci_Resolve.app」を選択して起動。, 参考サイト 1つ目のクリップを選択して「カラー」メニューの「ノード」»「シリアルノードを追加」を選択します。, 追加した「ノード02」を選択。下の「ウインドウ」を選択して、その中の「カーブ」を選択。黒い服の人の顔に合うようにクリックしていきます。(なるべく顔全体が映っている、設定しやすい画面で行ってください。), 大まかにクリックしていき、最初のポイントをクリックするとマスクが完成します。そのあとポイントを移動したり、線の部分をクリックしてポイントを新たに追加して微調整していきます。, 「トラッカー」を選択。順方向、逆方向にトラッキングボタン(トラッカーの方にあるボタンを使うこと)やキーボードの左右矢印キーを使って移動し、作成したマスクが黒い服の人の顔に追従するかを確認します。, もしマスクがずれてしまっている箇所があったら、「クリップ」を「フレーム」にして修正します。(「クリップ」のまま修正をすると、クリップ全体に反映されてしまいます), モザイクを設定します。 モーショントラッキングとは ノンリニア編集などのエフェクトで、画面内のあるオブジェクトに、別の映像が貼り付いているように見せる機能。 って言うけど、 マッチムーブ やん! 「DaVinci Resolve 15」を一旦終了して、再び起動すれば。日本語化されています。, プロジェクトの一覧が表示されている画面で先程の「Untitled Project」が「名称未設定のプロジェクト」になっているのでこれをダブルクリック。, 素材は、Free stock videos – Pexels Videosのこちらのものを利用してみました。, 「クリップのフレームレートと現在プロジェクトの設定のフレームレートが一致していません。」と言われたら、「変更」ボタンをクリック。(本当は事前に設定をしておくのが良いのですが...), 今回は中央の黒い服の人の顔にモザイクをかけてみることにします。 PowerDirector - モーショントラッキングの使用方法 お気に入りに追加 このチュートリアルでは、モーショントラッキングの使用方法と、1フレームごとの精度の高いトラッキング方法を紹介します。 もっと詳しく: https://jp.cyberlink.com/products/powerdirector-video-movie-editor/features_ja_JP.html 1番目のクリップを選択して、右上の「OpenFX」をクリック » ライブラリ » ResolveFX ブラー » ブラー(モザイク)を、ノード02にドラッグ&ドロップします。, 環境 vr用語においてトラッキングとは、漠然とした表現で言うと、動きを感知し追跡する機能。 最近ではトラッキングという言葉は三つの言い方をすることがある。この記事ではこの三つがどう言ったものなのか、何の動きを感知するのかをそれぞれ紐解いていく。 【Davinci Resolve】使い方解説「セッティング・素材の読み込み・編集・レンダリング」 | | 動画素材.com/ブログ, アプリケーションメニューから「Preferences」を選択。 Mac mini (Late 2012) SSD+HDD (Not Fusion Drive) By following users and tags, you can catch up information on technical fields that you are interested in as a whole, By "stocking" the articles you like, you can search right away. CyberLink アカウントでログインして、チュートリアルをお気に入りに入れて管理できます。, このチュートリアルでは、モーショントラッキングの使用方法と、1フレームごとの精度の高いトラッキング方法を紹介します。 都合4つに分かれます。, 1つ目と3つ目のクリップで黒い服の人の顔にモザイクをかけます。 VideoStudio 2018 初級講16回目です。今回はモーショントラッキング機能の基本について触れてみたいと思います。覚えておくと応用の効く機能です。 モザイクはクリップ単位?でかけるようなので、途中で前にいる白い服の人の影に入ってしまうところと出てくるところ、それとフレームアウトする箇所でクリップを分割します。, 再生しながら、さらにキーボードの左右矢印キーで調整しながら、白い服の人の影に入るところで、「タイムライン」メニューの「クリップを分割」を選択。  取れる情報も差があります。Perception Neuron は指も含まれますが Xsens MVN は指は含まれません。ただ Xsens MVN も指グローブ(Prime Xsens)を購入することで指の情報を取ることができます。Xsens MVN の Unity Plugin に指の更新は来ないですが…… Unity Plugin を用いれば Unity でも指グローブの情報を用いることができます。(2020/03/31 更新), 光学式の 2 種について、それぞれ説明します。VICON はこのモーションキャプチャシステム分野における先達で、モーションキャプチャスタジオを持つ企業用途では一般的です。その分非常に高価です。OptiTrack は VICON と比較すれば安価ですが、やはり個人で手を出せる金額ではありません。 What is going on with this article? 30日間体験版: https://jp.cyberlink.com/downloads/trials/powerdirector-video-movie-editor/download_ja_JP.html, Cyberlink.com は当社の Web サイトでの最適な体験を提供するため、分析的なCookie とその他トラッキング技術を使用しています。当社の Web サイトを使用することにより、お客様は Cookie ポリシーを承認し同意するものとします。 Cookie の詳細や Cookie 設定の変更については、U の Cookie ポリシーをお読みください。, {"LastModifiedDate":"2018/04/23","RefreshDays":7}, 最新のAI顔認識ビジネス・パートナー各社のソリューションを学ぶ 無料オンラインセミナー実施中 >>. タグ: モザイク, モーショントラッキング | モーショントラッキングでモザイクを [DaVinci Resolve 15編] 公開 : 2018年3月8日 、更新 : 2018年11月20日 | 0件のコメント この記事は最終更新日から 約2年が経過しているので情報が古い可能性があります。