Project Description

Automatisierte Generierung synthetischer Personenaktivitätsdaten zum Training von KI-Modellen

Projektart:

Forschung

Zeitraum:

01.03.2022 — 31.12.2024

Förderung:

SMWK

Ansprechpartner:

Prof. Dr.-Ing. Christian Roschke
roschke@hs-mittweida.de

Projektmitarbeiter:

Dominik Breck M.Sc.

Aktuell erlangt die Interaktionserkennung Person zu Person sowie Person zu Objekt einen hohen Wert in Forschung und Industrie. Verfügbare Systeme wie OpenPose, PoseNet oder PoseTrack ermöglichen die Erkennung anatomischer Schlüsselpunkte in vorliegenden Bildern oder Videos. Mit der Kenntnis der Position dieser Punkte lassen sich Gesten und Interaktionen detektieren. Probleme entstehen in diesem Kontext durch mangelnde und – falls überhaupt vorhanden – qualitativ minderwertige und nicht repräsentative Rohdaten. Ziel dieses Projektes ist es dieses Problem mithilfe von Synthetisierten Daten zu lösen. Konkret bedeutet dies, dass innerhalb des hier verwendeten Lösungsansatzes digitale Personenmodelle mit Aktivitäten in Form von Animationen kombiniert werden sollen. Anhand dieser Kombination soll im Zusammenhang mit geeigneten Hintergründen und Umgebungen geeignetes Videomaterial künstlich erzeugt werden.

Dies bietet mehrere folgend aufgelistete Vorteile:

  • gewünschte Metadaten der Videos liegen vollumfänglich und korrekt vor, die Videos müssen nicht umständlich händisch annotiert werden
  • DSGVO-Konformität ist gewährleistet durch inhärente Anonymität
  • Interaktionsvideos können in nahezu beliebiger Menge generiert werden
  • Interaktionsparameter werden kleinschrittig änderbar. Aufzeichnung aus verschiedenen Perspektiven ist möglich
  • diskriminierungsfreie Videosynthese: Personen verschiedener Eigenschaften sind repräsentativ oder in beliebigen Verteilungen vertreten

Das konkrete Ziel dieses Projektes ist, es einen Demonstrator zu entwickeln, welcher es ermöglicht, eben solche Daten zu erzeugen um anschließend einen Testdatensatz zu erzeugen und diesen auf dessen Validität zu prüfen.