von Ulrich Breu
•
30. Januar 2025
Gefördert wurde das Projekt vom Bayerischen Verbundforschungsprogramms (BayVFP) des Bayerischen Staatsministeriums für Wirtschaft, Landesentwicklung und Energie. Kern des Projektes war es die Emotionen von VR Nutzern auf Basis von Controller Daten zu erkennen und diese an einem virtuellen Avatar zu visualisieren. Es wurden KI-Modelle zur Emotionserkennung und Avatargenerierung erstellt und stehen zur Evaluierung auf einer Cloud Plattform für Echtzeitanwendungen bereit. Auf eine fotorealistische Übertragung des Gesichtes wurde bewusst verzichtet. Die Modell Darstellung ist auf einen optisch angenehmen Stil ausgerichtet, der die wesentlichen Gesichtszüge darstellt. Mithilfe von Blendshapes können verschiedene Emotionen wie Lächeln, Lachen, Traurigkeit und Wut sowie komplexe Kombinationen auf den 3D-Avatar übertragen werden. Die Forschungsergebnisse werden in einen speziell für Geschäftsanwendungen konzipierten “Business Avatar Generator” einfließen.