Googleの研究ブログでGoogleの研究チーム最近掲載された記事「モバイルリアルタイムビデオセグメンテーション」、動画を撮影しながら、それはフォアグラウンドで直接フィルム部門(ビデオセグメンテーションに)新しい機能を開発したことを説明した(ポートレートなど)と、背景から分離し、他の背景に置き換える。次リアリティの報告によると、多くの映画監督や映像クリエイターがフィルムの前景色と背景に来るフィルムを2層に分割され、および交換を通じて背景を強化しますビデオエフェクトが、伝統的に、これは時間のかかるポストプロダクションを必要とする、またはグリーンスクリーン(緑の画面)にする必要があるポストプロダクションのためのモーションキャプチャなどのバックグラウンドに移動する。機械学習技術の主流畳み込みニューラルネットワークを使用し、Googleの研究チーム(畳み込みニューラルネットワーク; ConvNets)これは、Googleがこの新機能をいくつかyoutubeに作った動画を招待していながらフィルムは、即時、前景と背景の撮影に直接分割することができるように、時間のかかる作業を簡素化し、YouTubeにアップロードするテストにまだありますユーザーのためのYouTubeのストーリー。Googleリーダーとソフトウェアエンジニア、Valentin BazarevskyとAndrプロジェクトこの記事では、現在の目標は、この新機能を使用してクリエイターが作成した一部のビデオの効果を観察することであり、ユーザーはより多くの「ラベル」を追加して、背景、そして、より大きなGoogleが現実(AR)サービスを拡張さに統合することを計画している。実際には、以前のApple(アップル)は、リアルタイムの映像セグメント化技術にアップルのクリップ洞察を通じて世界を聞かせているが、それはそのTrueDepthにiPhone Xのカメラが必要です実行、Googleのコンピュータビジョン国民は同じような経験、チームは複雑な設計ConvNetsビデオセグメンテーション技術を解決し、簡単にすべてのiPhone上で実行することができ、携帯電話の高精細映像を、レンダリングすることであるという事実を得ることができるように、7 1秒あたり100フレーム(FPS)を超える動画は、Pixel 2で40 FPS以上です。