AI-United » Allgemein » VideoGorillas verwenden Neuronennetze zum Umwandeln von Video in 4K

VideoGorillas verwenden Neuronennetze zum Umwandeln von Video in 4K

Die Forscher aus VideoGorillas haben das Neuronennetz gelehrt, um die Videoauflösung zu verbessern. Das Neuronennetz konvertiert Videos aus der Auflösung von 480p in 4K. Das Modell wird zur Vorhersage der mangelnden Pixel eingesetzt.

Der Videostandard ist in den letzten paar Jahren wesentlich gestiegen. Es werden die Instrumenten benötigt, um die Auflösung zu verbessern. Jetzt ist die 4K-Auflösung die Norm. Die Videoinhalte, die früher geschafft wurden, entsprechen den neuen Standards nicht. In der Kinoindustrie erlangt die Wiederholung alter Filme Popularität (in verbesserter Auflösung).

Mit zunehmender Auflösung wird es komplizierter, die Auflösung ohne Artefakte zu verbessern. Filmstudios gebrauchen zusätzliche Ressourcen, und die Zeit, um das Video auszubessern, nimmt zu.

Das Unternehmen VideoGorillas mit dem Sitz in Los Angeles hat eine fortgeschrittene Methode zur Verbesserung der Videoauflösung entwickelt. Diese Methode basiert auf NVIDIA CUDA-X und Studio Stack. Dank der Implementierung der Neuronennetze, dem maschinellen Sehen und GPU-Berechnungen liefert diese Methode glaubwürdige Ergebnisse.

Wie funktioniert das?

Das Programm, das die Videoqualität aufgrund des Neuronennetzes verbessert, heißt Bigfoot Super Resolution. Bigfoot Super Resolution ist eine neue Methode, die die Qualität von Videoinhalten verbessert. Sie basiert auf NVIDIA RTX. Das Resultat des Neuronennetzes ist glaubwürdiger als das Resultat, das die Standardansätze liefern.

Die Architektur des Neuronennetzes gründet sich auf RNN. Das Model erlernt den Videostil für Filme einer bestimmten Epoche. Wenn das Modell den Film der Epoche am Input erhält, auf der das gelehrt wurde, repliziert das Modell den Stil der Filme dieser Epoche (auf dem Stadium der Vorhersage der Pixel). 

GANs werden zum Entfernen der Artefakten im Video eingesetzt (in den Bildfeldern mit niedriger Auflösung). Das generierte Bildfeld ohne Rauschen und Artefakte ersetzt das Original-Bildfeld.

Die Neuronennetze wurden auf Pytorch unter Einsatz von CUDA und cuDNN gelehrt. Die Forscher verwendeten die Szenenbilder als Eingangsdaten. Es gab mehrere Millionen Bildfelder für jeden Film.

Quelle
AI-United-Redaktion

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.