AI-United » Allgemein » Open source Neuronennetz Monkey-Net animiert beliebige Objekte unüberwacht

Open source Neuronennetz Monkey-Net animiert beliebige Objekte unüberwacht

Italienische Wissenschaftler haben eine Animationsmethode vorgeschlagen, bei der Bewegungen aus einem Video auf ein Zielbild übertragen werden. 

Im Unterschied zu bisherigen Motion transfer Methoden ist der Ansatz Monkey-Net für bestimmte Kategorien nicht geeignet. Die Methode bewältigt effektiv die Aufgabe, beliebige Objekte zu animieren. 

Das Netzwerk Monkey-Net lernt unüberwacht. Um eine Animation zu erstellen, benötigt es nur das Eingangsvideo und das Bild, auf das die Bewegungen übertragen werden. 

Das Kernmerkmal dieser Entwicklung liegt in der Anwendung der verdünnten Schlüsselpunkte, die bewegungsorientiert sind. Dies ist erforderlich, um die Information über Bewegung zu modellieren und zu übermitteln. Nur die Punkte, die für die Bewegung zuständig sind, werden auf das Zielbild übertragen.

Die Architektur des Neuronennetzes besteht aus drei Modulen: 

  • Der Detektor, der unüberwacht lernt, extrahiert die Schlüsselpunkte eines Objekts; 
  • Das Netzwerk zur Vorhersage Dense Motion zum Schaffen von Wärmebildern und zum Kodieren der Information über die Bewegung; 
  • Das Netzwerk der Bewegungsübertragung (Motion Transfer Generator) mit der Architektur Kodierer-Dekodierer, das die Wärmebilder der Bewegung und ein Eingangsbild verwendet, um Ausgangsbilder zu synthetisieren. 
Das Schema der vorgeschlagenen Methode

Die Ergebnisse

Die Arbeit der Methode wurde an den Datensätzen Tai-Chi, the BAIR robot pushing, UvA-NEMO Smile und MGIF getestet. Die Resultate zeigen, dass man mit der vorgeschlagenen Animationsmethode eine hochwertige Animation für verschiedene Objekte erhalten kann.

Sie können weitere Informationen auf der Website des Projekts finden. Open Source ist auf GitHub verfügbar.

Quelle
AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.