Move.ai bietet eine Plattform, die natürliche menschliche Bewegung direkt aus Video extrahiert. Die Lösung kombiniert Computer Vision, Biomechanik und Physik, um markerlose motion capture technology ohne Anzüge oder Marker bereitzustellen.
In der Praxis heißt das: Aufnahme mit einer Kamera, Verarbeitung in der App und Export von stabilen 3D animation-Daten. Das beschleunigt Prototyping und reduziert manuelle Keyframe-Arbeit.
Für Spieleentwickler liefert die Plattform schnellen, verlässlichen Bewegungs-Output als Grundlage für Character-Animation und Iteration. Erwartung: solide Ausgangsdaten, nicht immer fertig-polierte Endanimation ohne Nachbearbeitung.
Social Proof: Studios wie HaloVFX/ILM und Expertinnen wie Ana Kadela/Blurscope bestätigen professionelle Ergebnisse. Das macht die Plattform für kleine Teams und größere Studios attraktiv.
Im weiteren Verlauf zeigen wir, warum die Lösung Zeit spart, wie Single-Camera-Aufnahmen funktionieren, welche Exporte möglich sind und wie sich Workflows auf Multi-Cam skalieren lassen.
Wesentliche Erkenntnisse
- Markerlose Erfassung: keine Suits, keine Marker, nur Kamera und App.
- Schnellerer Weg von Performance zu verwertbaren data für Games.
- Gute Grundlage für Character-Animation und Iterationen.
- Professionelle Nutzung belegt durch Studio-Testimonials.
- Skalierbar: Single-Camera Einstieg, Multi-Cam Ausbau möglich.
Warum markerloses Motion Capture mit Move.ai die Spieleentwicklung beschleunigt
Ein normales Video reicht, um präzise 3D-Bewegungen für Spiele zu erzeugen. Die Plattform wandelt Footage per markerlosem motion capture in ein sauberes 3D-Skelett und nutzbare animation-Clips um — ganz ohne Suit, Marker oder Spezialbühne.
Von Video zu 3D-Animation: natürliche Performance, kein Studiobudget
Aus einem einfachen Clip entsteht direkt verwertbare motion-Daten. Das macht Tests von Movesets und Gameplay-Iterationen planbar. Indies und kleine studios können so Prototypen schneller validieren.
Weniger Foot Drift, mehr Stabilität
Typische Probleme wie Foot Drift werden durch Modelle aus KI, Computer Vision, Biomechanik und Physik minimiert. Nutzer berichten von „little to no foot drift“ und Qualität, die mit etablierten Lösungen vergleichbar ist.
Für Games und Film gleichermaßen geeignet
Die gleiche Motion-Grundlage lässt sich für game-Retargeting, Looping oder Film-Continuity aufbereiten. Ziel ist flexible Weiterverarbeitung, sodass Regiearbeit statt lästiger Frame-by-Frame-Korrektur im Vordergrund steht.
„80% headache eliminated“ — Art Miroshin
- Kern-Workflow: Video → markerloses capture → 3D-Skelett → exportierbare animation.
- Nutzen: Schnellere Iteration, weniger Setup-Aufwand.
- Qualität: Natürliche motion für Locomotion, Idle und Trefferreaktionen.
move ai in der Praxis: Motion Capture mit einem einzelnen iPhone
Mit nur einem iPhone lassen sich schnelle, markerlose Sessions starten, die echte Performance in nutzbare 3D-Animation verwandeln. Das senkt die Einstiegshürde für Teams ohne teures Equipment.
Kompatibilität: Unterstützte Geräte reichen vom iPhone 8 bis zum iPhone 15. Voraussetzung ist iOS 16.4 oder neuer. So können viele Teams vorhandene Hardware nutzen statt neu zu kaufen.
Die Aufnahme erfolgt direkt in der app. Aktuell ist kein Import aus der Foto‑Mediathek vorgesehen, weshalb Clips live aufgenommen werden müssen. Das sorgt für konsistente video-Datenqualität.
Capture anywhere: Studio, Sportplatz oder on location — das Setup ist in Minuten startklar. Single‑Subject-Aufnahmen funktionieren im Portrait- oder Landscape‑Modus.
Für bessere Ergebnisse gilt: saubere Sicht auf den Performer, ausreichender Abstand und eine klare Silhouette. Bei sehr schnellen oder komplexen Bewegungen kann Nachbearbeitung nötig sein, doch der Großteil der motion entsteht deutlich schneller als manuelles Keyframing.
„Capture anywhere“ ermöglicht spontane Referenz-Sessions und schnelle Iteration zwischen Entwicklungs-Sprints.
- Praktische Einordnung: Markerloses motion capture mit einem single iphone.
- Wichtig: iPhone 8–15, iOS 16.4+; Aufnahme direkt in der app.
- Setup: Minuten, Portrait/Landscape, ideal für mobiles Studio‑Work.
Workflows für Game Animations: Motion Data exportieren, retargeten und weiterverarbeiten
Für Game-Studios beginnt die Pipeline erst, wenn saubere 3D-Bewegungsdaten exportiert sind. Ziel ist verwertbare motion data, die sich direkt in Rigs retargeten und als animations in DCC- und Engine-Pipelines integrieren lässt.
Exporte für gängige Tools
Die Plattform bietet einen .blend-Export, kompatibel ab Blender 4.0, sowie direkte iClone-Integration. Das spart Konvertierungsschritte und erlaubt schnelle Tests in Blender oder iClone.
Saubere Weiterverarbeitung
Namespaces vereinfachen das Einbinden in Maya- oder MotionBuilder-Szenen und reduzieren Namenskonflikte beim Zusammenführen von data. Zudem werden Animationen auf den Ursprung (0,0) gesetzt, was Retargeting und Root-Motion-Management erleichtert.
Preview und Reprocessing
Für Reviews erzeugt die Plattform Picture-in-Picture-.mp4s, die Input video und Output-Animation kombinieren. So laufen Feedback-Schleifen schneller.
Bereits erstellte Takes lassen sich reprocessen, um von verbesserten Tracking-Modellen wie besserer Floor-Plane- oder Hintergrund-Schätzung zu profitieren.
Library aufbauen
Teams können eine Bibliothek aus wiederverwendbaren Bausteinen anlegen: Locomotion, Turns, Jumps oder Gestures. So wird jede Aufnahme zu einem wiederholbaren Asset für Prototyping und production.
„Basisdaten liefern, Feinschliff in der Pipeline“
- Export: .blend (Blender 4.0+), iClone-Support
- Production: Namespaces, Origin (0,0) für konsistente Platzierung
- Review: PiP-.mp4; Reprocessing für bessere Tracking-Ergebnisse
Skalierbare Technologie: von Single-Cam-App bis Multi-Camera-Systems für Studios
Der Skalierungsweg beginnt mit einem schnellen Test in der app und führt über abgestufte Setups bis hin zu voll ausgestatteten Multi‑Camera‑systems für große Produktionen.
Multi‑Cam für größere Volumen und mehrere Performer
Multi‑Camera-Setups erhöhen das Capture‑Volumen und erlauben mehrere Performer gleichzeitig. Für studios, die Konsistenz und komplexe Interaktionen brauchen, ist dies die Brücke zum klassischen mocap.
Brent Cataldo betont den Mehrwert von Multi‑Cam, und HaloVFX lobt die bessere Stabilität und das reduzierte Drift‑Verhalten bei mehr Kameras.
Gen‑2 Modelle: s2 für Genauigkeit, s2‑light für Geschwindigkeit
Das neue Modellportfolio bietet Wahlfreiheit: s2 liefert höchste Single‑Cam‑Genauigkeit, bessere Depth‑Estimation und zuverlässiges Foot‑Planting.
s2‑light ist bis zu 20× schneller und ideal für schnelles Blocking, Previz oder near‑real‑time Prototyping, mit nur geringem Qualitäts‑Trade‑off.
Team‑Features für Produktion
Der Plan für Teams unterstützt kollaboratives Arbeiten: mehrere Nutzer, geteilte Credits und zentrale Verwaltung von Account und Billing.
So lassen sich größere Produktionen organisieren, Workflows standardisieren und Credits effizient verteilen — relevant für Games und film-Pipelines gleichermaßen.
„Mit zunehmender Kamerazahl steigt die Robustheit bei komplexen Szenen.“
- Start: Single‑Cam App für schnelle Tests.
- Skalierung: Multi‑Cam für Volumen und Mehrfach‑Performer.
- Model‑Strategie: s2 für Final‑Shots, s2‑light für Previz und Speed.
Fazit
Als Fazit bleibt: Ein single iphone reicht oft, um brauchbare motion data für Spiele zu liefern. Die Lösung macht markerloses capture zugänglich — vom schnellen Test bis zur skalierbaren Studio‑Pipeline.
Der Nutzen ist klar: schneller capture, weniger Setup und eine solide Basis für animation und Retargeting in DCC‑Tools. Exporte nach .blend oder iClone, Origin/Namens‑Konventionen und kombinierte video/Preview‑Clips beschleunigen Reviews.
Qualität steigt mit Gen‑2‑Modellen (s2/s2‑light) und Reprocessing. Studios profitieren bei komplexen Szenen, Indies von der niedrigen Einstiegshürde. Für finales Polishing bleibt Nacharbeit üblich, doch die Zeit bis zu einem reviewbaren Ergebnis sinkt deutlich.
Jetzt testen: App starten, einen kurzen Take aufnehmen, exportieren und im eigenen Workflow prüfen — dann entscheiden, ob Speed oder Accuracy besser passt für Game und film.
