# Azure Kinect
# Einrichtung
SDK installieren
Um die Kinect nutzen zu können muss das SDK installiert sein. Dieses kann unter folgendem Link heruntergeladen werden. Azure Kinect SDK Download Seite (opens new window)
Die Kinect muss mit Strom verbunden werden, und per USB mit dem PC. Bei langen Kabeln oder Kabelverlängerungen kann es zu Problemen kommen.
Ist das SDK installiert und die Kinect verbunden kann zum Testen der Azure Kinect Viewer gestartet werden. Die eingehenden Daten lassen sich über einen Klick auf Open Device und anschließend auf Start anzeigen.
# vvvv / vl
- vvvv gamma starten
- Klick auf das graue Kästchen oben links
- Auswahl Manage Nugets
- Klick auf Commandline
- Im so geöffneten Kommandozeilen Editor folgende Zeile eingeben:
nuget install VL.Devices.AzureKinect
Link zum GitHub Projekt
https://github.com/vvvv/VL.Devices.AzureKinect (opens new window) ist der Link zum GitHub Projekt.
- Enter drücken und warten, bis die Installation durchgelaufen ist.
Azure Kinect Viewer schließen
Der Azure Kinect Viewer darf nicht laufen, wenn die Kinect in VL genutzt werden soll.
- Klick auf den Patch Namen oben.
- Auswahl Dependencies -> VL Nugets
- Rechtsklick auf das kleine graue Kästchen neben
VL.Devices.AzureKinect
(das Kästchen wird hierdurch hell).
- Die Kinect ist jetzt bereit für den Einsatz in VL. Einen guten Start bieten die Beispielpatches, die auch unter
VL.Devices.AzureKinect
geladen werden können.
# Body Tracking in vvvv / vl
Um Body Tracking zu verwenden wird ein zusätzliches Nuget benötigt. Dieses wird mit folgendem Befehl über den Kommandozeilen Editor installiert (genau wie im vorherigen Abschnitt beschrieben):
nuget install VL.Devices.AzureKinect.Body
Link zum GitHub Projekt
https://github.com/vvvv/VL.Devices.AzureKinect.Body (opens new window) ist der Link zum GitHub Projekt.
Auch hier ist es sinnvoll, mit den Beispiel Patches zu starten.
# Unity
Ein guter Startpunkt um Azure Kinect in Unity nutzen zu können, ist dieses Beispielprojekt:
Sample Unity Body Tracking Application
Hier kann den Schritten in der Readme gefolgt werden, um das Projekt zum Laufen zu bekommen.
Die Transform
Daten können dann aus den Children des Kinect4AzureTracker
prefabs genommen werden.