Die Zunge und die Lippen sollen sich später auch bewegen können. Für die berufliche Weiterbildung verwenden wir Udemy. Hier haben wir weitere Online Kurse gebucht, und hoffen, dass wir noch besser werden.
Wir haben keins! Weil wir nicht tracken, und auch keine unnötigen Cookies setzen. Menschen sollten nicht akzeptieren müssen, im gesamten Web getrackt zu werden.
Haben Sie Anregungen, Ergänzungen, einen Fehler gefunden oder ist dieser Beitrag nicht mehr aktuell? Dann freuen wir uns auf Ihren Kommentar.
Sie können diesen Beitrag natürlich auch weiterempfehlen. Wir sind Ihnen für jede Unterstützung dankbar!
Wir unterstützen Sie bei der Umsetzung Ihres Augmented Reality (AR) oder Virtual Reality (VR) Projektes! Egal ob Produktfotografie, 3D-Scan-Service, 3D-Visualisierung oder fertige 3D-Modelle für AR/VR – wir beraten Sie persönlich und unverbindlich.
Wünschen Sie ein individuelles Angebot auf Basis Ihrer aktuellen Vorlagen, nutzen Sie einfach unser Anfrageformular.
Mit Ihrer Bewertung helfen Sie uns, unsere Inhalte noch weiter zu verbessern.
© 2023 R23 | AGB | Datenschutz | Cookie-Einstellungen | Kundenbewertungen | Impressum |
Danke für den Einblick. Das sieht schon gut aus! Macht Ihr die Mimik mit Morph-Targets? Weiter so.
Hallo Mo,
herzlichen Dank für die aufmunternden Worte.
Zurzeit meide ich das Thema Mimik. Irgendwo habe ich eine Apple iPhone App gesehen, die die Mimik einfach aufzeichnet. Leider habe ich kein iPhone.
Dann habe ich OpenPose to Blender Facial Motion gesehen.
Auch der Face tracker klingt zurzeit spannend
https://www.youtube.com/watch?v=I4qkhuQk3_c
Vermutlich wird es auch Headtracking with Blender
https://www.youtube.com/watch?v=XDeiup4tgmg
Viele Grüße