Das Google-Forschungsteam hat kürzlich im Blog von Google Research den Artikel "Mobile Echtzeit-Videosegmentierung" veröffentlicht. Darin heißt es, dass ein neues Feature der Videosegmentierung entwickelt wurde, mit dem der Vordergrund eines Films bei der Aufnahme direkt erfasst werden kann. Etc. Getrennt vom Hintergrund und ersetzt durch andere Hintergründe Nach den Berichten von Next Reality werden viele Filmregisseure oder Videokünstler Video-Segmentierung verwenden, um den Vordergrund und den Hintergrund des Videos in zwei Ebenen zu unterteilen und den Hintergrund zu ersetzen. Die Wirkung des Films, aber traditionell erfordert es zeitraubende und mühsame Post-Produktion oder erfordert die Verwendung eines Green-Screen als Hintergrund, um Bewegung für die Postproduktion zu erfassen. Das Google-Forschungsteam verwendet die Mainstream-Technologie von Convolutional Neuronal Networks ( Convolution Net Neural Networks (ConvNets) vereinfacht diese zeitaufwendige Aufgabe, indem der Film während der Sofortaufnahme direkt zwischen Vordergrund und Hintergrund aufgeteilt wird. Google hat YouTuber eingeladen, diese neue Funktion zu nutzen, um das Video zu erstellen und es zu Testzwecken auf YouTube hochzuladen. YouTube-Geschichten für die Nutzer zu sehen. Google-Führer und Software-Ingenieur Valentin Bazarevsky und Andr des Projekts In dem Artikel erklärte Ei Tkachenka, dass das aktuelle Ziel darin besteht, die Effekte einiger von den Videokünstlern mit dieser neuen Funktion erstellter Videos zu beobachten und weitere "Labels" hinzuzufügen, um es Nutzern zu ermöglichen, in Zukunft weitere zu verwenden. Der Hintergrund und Pläne zur Integration in den größeren Google Augmented Reality (AR) -Dienst Tatsächlich hat Apple die Welt der Instant-Video-Segmentierungstechnologie bereits durch Apple Clips gesehen, aber dafür sind das iPhone X und seine TrueDepth-Kamera erforderlich Ausführung, Googles Computer Vision ermöglicht auch die Öffentlichkeit eine ähnliche Erfahrung zu bekommen, in der Tat das Team entworfen ConvNets ist die langwierige Film-Splitting-Technologie zu lösen und leicht High-Definition-Video auf dem Handy zu zeigen, kann diese Methode auf dem iPhone 7 laufen Videos, die 100 Bilder pro Sekunde (FPS) überschreiten, sind über 40 FPS auf Pixel 2.