![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/1b6df841-42c3-4393-93ff-5a725d51386f_rw_1200.png?h=562e41bca48adb58ad85cbe93eea4bfb)
1. はじめに
ここでは、Azure Kinect DKを利用して人体スキャンで作成した自分自身のアバターをコントロールすることを目標としている。実験段階で完成とは至っていないが、途中経過として紹介する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/7e817ea3-074d-4a3b-b5ce-7d5c3c2cded8_rw_1200.jpg?h=4c9fde0ed547fcf3c8a2a4075945c701)
以下、現時点の状況と課題
・初代KinectやKinect V2の実験例はあるが、Azure Kinectでの事例が少ない
・Azure Kinectでは初代KinectやV2とスケルトン構造が異なるため同じリグ構造では使えない
・mixamoモデルのスケルトンの対応付けを調整することで上半身の動作まで実験したが、Armatureの構造自体が異なるので無理がある
・理想としては、Azure Kinect用のスケルトンと同じ構造でリギングし直すことが必要
・Azure Kinectでは初代KinectやV2とスケルトン構造が異なるため同じリグ構造では使えない
・mixamoモデルのスケルトンの対応付けを調整することで上半身の動作まで実験したが、Armatureの構造自体が異なるので無理がある
・理想としては、Azure Kinect用のスケルトンと同じ構造でリギングし直すことが必要
3. Azure Kinect用オペレータの使い方(画像解析用)
① Kinect Azure TOP
※オペレータの名前にAzureがついていないものは初代Kinect及びV2用
Azure Kinectを接続した状態で、Kinect Azure TOPを追加すれば、すぐに認識される(下図)。TouchDesingerを起動した後にAzure Kinectを接続した場合は、パラメータウィンドウのSensorのプルダウンリストからシリアルナンバーを選択する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/2397f93c-db43-4650-8e32-665ee227f98f_rw_1200.jpg?h=38a674f0d41722dc3293454b8b5a03ca)
TouchDesigner Non-Commercial盤では1280 x 1280が最大解像度なので、Kinect Azure TOPのパラメータColor Resolusionを1280 x 720(16:9)へ変更する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/0cd59a53-44d4-4a92-a1d6-34a7dc259571_rw_600.jpg?h=f691ff91ef048b0569c3a716492325e2)
パラメータのImageは初期状態でDepth表示となっている。以下に変更可能。
・Depth(深度カメラ)
・Color
・IR(赤外線)
・Payer Index
・Point Cloud(点群)
・Color
・IR(赤外線)
・Payer Index
・Point Cloud(点群)
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/55f11898-aca2-4e4d-965a-4197d27663f9_rw_600.jpg?h=f0a94ecc22c3fda63091e0c558204805)
左からColor、Point Cloud、Depth表示。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/9f7d2e36-8144-4b3b-bdd9-2c80dc5fae62_rw_1200.jpg?h=78d8c0b04396d4e7323225825251a79a)
② Kinect Azure Select TOP
Kinect Azure Select TOPを追加して、Kinect Azure TOPをKinect Azure Select TOPの上にドラッグ&ドロップする。このことを「Kinect Azure TOPをKinect Azure Select TOPに食わせる」と呼ぶこともある。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/4a58fba7-099e-46a6-be1b-40b2bb30b838_rw_1200.jpg?h=3bc4bebcd82bf48eaf719e5a227e8861)
Kinect Azure Select TOPにPoint Cloudが表示される。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/24a45c5b-b23c-4fb2-ba35-d6eae3e95242_rw_1200.jpg?h=a54b706d772fdd96012c50a878aa1526)
パラメータのImageから表示を切り替えることができる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/9f1c85f9-5a1b-4613-9d1e-64df59bf878a_rw_600.jpg?h=8966dd5875bacfd722bd3f3128f917ee)
Kinect Azure Select TOPを複数使うことで、複数の表示状態を同時に見ることができる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/bdda6a36-5e56-4e92-aac9-0b833d7475e8_rw_1200.jpg?h=9c8ac6075b871efa0ff1bb31aa93a88c)
4. Azure Kinect用オペレータの使い方(ボディトラッキング用)
Kinect Azure TOPとKinect Azure CHOPを追加する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/05e72065-92a1-42d0-9710-20d278845017_rw_1200.jpg?h=dcb2dff8b446e6f5041b10c43c3dd30f)
Kinect Azure CHOPにKinect Azure TOPを食わせる(ドラック&ドロップ)。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/86e76f5a-0f2f-4b8a-a7ef-98189e4d0c19_rw_1200.jpg?h=15dd9bcfcafbdd207350c81e05fbf7ac)
Kinect Azure CHOPにモーションデータが読み込まれる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/5db6af8b-dbbf-4647-bc08-e7c476667aea_rw_1200.jpg?h=dc0601852fa7ff0dc5ad5b5fc159fdeb)
データ数が多いため、拡大して確認する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/0ab39cfb-d845-47dc-9961-89725132204d_rw_1200.jpg?h=354ff5d53cfacfa4ffd466d9df458c47)
下表の99データが受信されている。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/b07f909b-63e4-4f27-829c-866a94cb3633_rw_600.jpg?h=91f63f0b63da08c5546ad1e3fa401d89)
上記データは、pelvis(骨盤)、spine(脊椎)、neck(首)、clavicle(鎖骨)等、下図のスケルトンの関節位置の座標(参照元Azure Kinect ボディ トラッキングの関節)に対応している。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/4ea4074d-a3d6-4c9b-bf50-f85572e11d9d_rw_1200.jpg?h=96963034ec9248084a031ff97116615a)
各関節の位置と向きによって、独自の関節座標系が形成されている。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/47945221-9c1d-47ac-bc3f-935b3f9d9cee_rw_1200.jpg?h=877b387587ff78d3e0ab76394c115ff7)
5. 応用知識① Value、Sample、Channel
・Channel:Value、Sampleのラベル
・Value:CHOPで扱う最小単位の値
・Sample:Valueが複数集まったデータ構造
・Shuffle CHOP:複数ValueからSampleへの変換(Method: Swap Channels and Sample)
・Value:CHOPで扱う最小単位の値
・Sample:Valueが複数集まったデータ構造
・Shuffle CHOP:複数ValueからSampleへの変換(Method: Swap Channels and Sample)
TouchDesinerで多くのデータを一度に扱うためには、Valueではなく、Sampleのデータ構造に変換して処理する必要がある。Sampleにすることで順序入替やSample同士のマージ等、効率的にデータ処理を行うことができる。一般的プログラムで言えば、Valueは変数、Sampleは配列に近い。
下図のように、Valueの段階ではchan1、chan2、chan3それぞれに1つの値が入っている。Shuffle CHOPでSampleに変換した後は、chan0に3つの値が入っている状態となる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/92a8c0e2-2773-484c-accd-a6b84e7a75b2_rw_1200.jpg?h=8682b10cfa31be705bdfcdcc4d1e2c42)
下図のように、Sampleはグラフ表示されるため、Valueの時間変化と混同しやすいので注意。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/1aa745ee-85c4-4d5c-b2c3-bfd8f3883dac_rw_1200.jpg?h=a15c469e452128f07eb933f426239a05)
6. 応用知識② インスタンシング
Box部分
・Box SOP、Divisions設定、Display Options頂点表示
・SOP to CHOP(Sampleデータ形式)
・SOP to CHOP(Sampleデータ形式)
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/98338225-ffff-404e-926a-86da5b88539d_rw_1200.jpg?h=295b3a74186a8c8656ed51ba3683419e)
Sphere周り部分
・Sphere SOP
・Transform SOP
・Geometry COMP
・Camera COMP
・Light COMP
・Render TOP
・Out TOP
・Geometry COM、Instancing: ON
・SOP to CHOPをGeometry COMPにドラックアンドドロップ、Params: Default Instance OP(要確認)、Translate X:tx、Translate Y: ty、Translate Z: tz
・TransformのUniform Scale: 0.1
・Camera COMPをActiveにしてビューを回転して確認
・Transform SOP
・Geometry COMP
・Camera COMP
・Light COMP
・Render TOP
・Out TOP
・Geometry COM、Instancing: ON
・SOP to CHOPをGeometry COMPにドラックアンドドロップ、Params: Default Instance OP(要確認)、Translate X:tx、Translate Y: ty、Translate Z: tz
・TransformのUniform Scale: 0.1
・Camera COMPをActiveにしてビューを回転して確認
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/57c39d1b-51c1-46c1-986a-909fce60b6bd_rw_1920.jpg?h=ec85098aab06f22ca79fbad4ce9ef08b)
7. 実験① Sphereインスタンシング
スケルトンの関節位置にSphereをインスタンシングして表示する。
以下、授業内で指示する。
・Select CHOPのChannel Names: *tx (ty, tz)
・Shuffle CHOPのMethod: Swap Channels and Samples、Use First Sample Only: ON
・それぞれのSampleをx, y, zにRenameしてもよい
・Shuffle CHOPのMethod: Swap Channels and Samples、Use First Sample Only: ON
・それぞれのSampleをx, y, zにRenameしてもよい
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/9549ba33-b42b-4e2a-8646-52b6d2c6956c_rw_1200.jpg?h=2fde30915859de92c9f23b09ec7fdcf4)
以下のデータをダンロードして実験する。
Sphereのスケールを変更したり、Box SOPに変更してみよう。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/5efc62a2-6fe2-43d9-8f0c-525dbe824249_rw_1200.jpg?h=c9a1bda5c7bb418525c113e7f89203cb)
下図はさらにアレンジしたTMU Man。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/d1818685-ff25-48ea-af5d-d4dd5be60db8_rw_1200.jpg?h=ecea06357d33e41b6ef66653ea68b152)
8. 実験② Skeleton for Kinect Azure(gormonboza氏)のプロジェクト
① プロジェクトファイルのダウンロード
元ネタはTouchDesignerのフォーラム記事
gormonboza氏がGoogle Driveで公開しているデータを利用する。下記4つあるが、上2つだけで動作する。残り2つはAzure Kinectサイトで公開されているスケルトン構造の画像と同じ。
・Kinect Azure.toe
・Skeleton _Azure_09.fbx
・y2al3lm5.bmp
・joint-coordinates.png
・Skeleton _Azure_09.fbx
・y2al3lm5.bmp
・joint-coordinates.png
下記URLのGoogle Driveから必要なデータをダウンロードする。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/292c7a14-7dd3-4a7b-985a-d9dbe17d592f_rw_1200.jpg?h=765e5cc69682cde0a203e4a25bda6717)
② プロジェクトファイルの起動
Kinect Azure.toeをダブルクリックして起動する。Skelton_Azure_09.fbxも読み込まれるので同じ階層に置く必要がある。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/07310b34-ccb9-4ca2-83bf-b9e73fbd53a4_rw_600.jpg?h=1b7743551541b3e89cfa7743100a9195)
③ Kinect Azure TOPの設定
以下の2つを設定する。
・Sensor:プルダウンリストからAzure Kinectのシリアルナンバーを指定
・Color Resolution: 1280 x 720(16:9)を選択 ※Non-Commercial版
・Color Resolution: 1280 x 720(16:9)を選択 ※Non-Commercial版
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/d5667adf-5a50-4d3d-b739-4ba7130a5308_rw_600.jpg?h=3b0055e91a57c6af4839741a4f51b4b6)
④ Render TOPの設定
・Resokutionを1280 x 720(16:9)に設定 ※Non-Commercial版
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/16cce146-83bb-4a67-a852-3f82f78769d2_rw_600.jpg?h=9365cba124ac1b41d0fe820329c6caaf)
下図のようにリアルタイムにFBXのサンプルキャラクターを動かすことができる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/0663f4d0-4891-4221-8439-99dd8d572f1e_rw_1200.jpg?h=b5b96a321c5f59b39c3485d5dcf64832)
9. 実験③ mixamoキャラクターを動かす
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/00a67c9e-c5ff-4834-9f1e-ce50507a3bd1_rw_1200.jpg?h=667074ad34d49673c034d0fd547600a0)
キャラクターはどのキャラクターでもよい。アニメーションは付けていない状態で、以下の設定でダウンロードする。
・Format: FBX 7.4(おそらくBinaryでも可)
・Pose: Original Pose
・Pose: Original Pose
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/01956e0f-1313-4702-a67f-5fa63422a464_rw_1200.jpg?h=9050be60ce4bf12cd47ebeff599edd1b)
FBXをTouchDesignerにドラックアンドドロップする。自動的にFBX COMPとして読み込まれる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/a4e42927-ae13-4b58-bc63-36dce428be4d_rw_1200.jpg?h=96a80628a9d2dc21c9017a7b33958860)
ズームインするか、FBX COMPを選択した状態でENTERキーを押して、FBX COMPの中に入る。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/73d427c0-4a3d-43bd-abd5-407b705069e9_rw_1200.jpg?h=2b8abe422a510363abb1e94a241b447b)
下図のように、キャラクターのGeometry COMPに対して、スケルトンの関節にあたるNull COMPが多数リンクしていることがわかる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/f7660e58-1780-459b-8a2b-8516cce08de0_rw_1200.jpg?h=92a9ab52a073c96c0ea63dcebd842edd)
下図は、mixamoからダウンロードしたFBXをBlenderに読み込んで構造を解析したもの。人体スキャンデータにAuto Riggingしたものなので指関節はなく、関節名称も異なる。
mixamoからダウンロードしたFBXは、関節構造は元々mixamoに準備されているキャラクターであれば共通(違うものもあるかも)だが、関節名称がキャラクター毎に異なる。このため、FBXの差し替えによるキャラクターの入替えというような単純な方法は行うことができない。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/5f8432d3-985d-479b-9b12-0f19c95c6853_rw_1200.jpg?h=d43c158fb1909753b40495e60be1c1b4)
Azure Kinectのモーション取得データからmixamoキャラクターを動かすには、異なる構造のスケルトンの関節データを対応付けし直してから、受け渡す必要がる。本来は、mixamoキャラクターに対して、Azure Kinectのスケルトン構造でリギングし直すことが理想的だが、ここでは扱わない。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/4bc4552c-dc62-4547-a530-624c5081a7de_rw_1200.jpg?h=c1500f9a3477eec6871b492ba46d92b6)
以下、実験。
Kinect Azure CHOPにKinect Azure TOPを食わせる。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/a69babb8-e050-4704-b61a-6179dfd1f10e_rw_1200.jpg?h=ba514a910c6b09f23b06cee68b62aa8b)
まだまだ実験段階。以下、課題まとめ。
・Kinect Azure CHOPのデータとキャラクターFBXの中の関節Null COMPとの対応付け分析
・関節の座標系に合わせた回転角度の分析
・関節の座標系に合わせた回転角度の分析
下図のように画面を2分割した上で、左にKinect Azure CHOP、右にFBXの中が見える状態で設定する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/ed2a672d-f0f5-423e-8a3b-1e299687358a_rw_1200.jpg?h=312ef802dd91323244e665b203caac7b)
以降、詳細は授業内で指示。
FBX読み込み部分
・FBX、Import Scale: 0.01
・Comera COMP
・Light COMP
・Render TOP
・Transform TOP、Background Color: 0, 0, 0, 1、Comp Over Backgorund Color: ON 背景黒用
・Out TOP
・Comera COMP
・Light COMP
・Render TOP
・Transform TOP、Background Color: 0, 0, 0, 1、Comp Over Backgorund Color: ON 背景黒用
・Out TOP
Azure Kinect部分
・Kinect Azure TOP
・Kinect Azure CHOP、Relative Bone Rotations: ON、World Space Positions: OFF
・Select CHOP、Channel Names: *head*、必要に応じてTrail CHOPで確認
・Filter CHOP、Type: Gaussian(ガウシアンフィルター)、Filter Width: 0.8程度、必要に応じてTrail CHOPで確認
・Null CHOP
・Kinect Azure CHOP、Relative Bone Rotations: ON、World Space Positions: OFF
・Select CHOP、Channel Names: *head*、必要に応じてTrail CHOPで確認
・Filter CHOP、Type: Gaussian(ガウシアンフィルター)、Filter Width: 0.8程度、必要に応じてTrail CHOPで確認
・Null CHOP
モーションデータのパラメータリンク部分
・FBXのmixamorig_Head(Null COMP)にパラメータリンクする
・Azure Kinect → FBX
・rz → rx
・rx → ty
・ry → rz
・それぞれパラメータリンクしながら、姿勢の誤差を+-で調整する。
・Azure Kinect → FBX
・rz → rx
・rx → ty
・ry → rz
・それぞれパラメータリンクしながら、姿勢の誤差を+-で調整する。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/e81f1651-ee0c-4215-a4eb-97d9af63192a_rw_1920.jpg?h=b8c6e63ec7ac534eab03f19e40d61485)
10. 実験④ Point CloudをCircle SOPインスタンスで表示
Azure Kinect Viewer ***でプレビューしていた状態をTouchDesigner風に実現したもの。
![](https://cdn.myportfolio.com/9dc1d2d9-3bfc-4c09-8745-b82529bfc2d1/883138e4-5fca-4b2d-a674-a6bde4eb956a_rw_1920.jpg?h=a358200dc97eae5c800e8d51306104f9)
うまく使えば、映像表現としても利用できる。