In nuce: Saeed Ghorbani, Rechercheur bei Ubisoft Toronto, hat am 19.09. dieses Jahres ein knapp sechsminütiges Video auf YouTube veröffentlicht, welches ZeroEGGS zeigt – ein neuronales Netzwerk, mit deren Hilfe sprachgesteuerte Gesten entstehen. Das Forschungsprojekt entsteht in Zusammenarbeit mit Ubisoft La Forge und der York University.
ZeroEGGS: Zero-shot Example-based Gesture Generation from Speech
In toto: Laut Beschreibung benötigt ZeroEWGGS zweierlei, um eine realistisch wirkende Bewegung zu generieren: eine sprachliche Aufforderung und ein beispielhaftes Bewegtbild der gewünschten Bewegung. Dank dieser beiden Zutaten sollen lebensechte Ganzkörperbewegungen entstehen. Laut des Ubisoft-Recherche-Teams übertrifft ZeroEWGGS vorangegangene Techniken. Der Clou: Bei gleichem Input generiert ZeroEWGGS mehrere Outputs zugleich – also unterschiedlich ausfallende Bewegungen.
Forscherinnen & Forscher: Das Video listet Ubisoft La Forge und York University, die beteiligten Forschungseinrichtungen. Respektive werden, nebst Saeed Ghorbani, als involvierte Forscherinnen und Forscher gelistet: Ylva Ferstl (Research-and-Development-Wissenschaftlerin), Daniel Holden (Rechercheur betreffs Animation und Maschinelles Lernen), Nikolaus F. Troje (Chair for Reality Research an der York University) und Marc-André Carbonneau (Rechercheur zu maschinellem Lernen).
Weitergeklickt: Auf der dazugehörigen Seite auf github.com ist das Paper mit dem Titel „ZeroEGGS: Zero-shot Example-based Gesture Generation from Speech“ abrufbar. Zuletzt berichtete Digital Production über das forscherische Treiben von Ubisoft LaForge am 30.03. dieses Jahres. Damals war es ein Werkzeug für das Creature Rigging, welches es ermöglicht, die Bewegungsabläufe tierischer Charaktere aufzuzeichnen – ganz ohne Motion Capturing.
Quelle: 80.lv (Meldung von Theodore McKenzie)