최근 구글 연구 블로그에 글 '모바일 실시간 비디오 분할'발표 구글 연구팀은, 영화 (세로 촬영하는 동안 포 그라운드에서 직접 새로운 기능을 필름 부문 (비디오 분할)을 개발했다고 설명했다 등) 및 배경으로부터 분리하고, 다른 배경을 대체. 보도에 따르면 다음 현실, 영화 감독이나 동영상 제작자 많은 전경 올 필름의 배경 막으로 2 층으로 분할되고, 여분 통해 배경을 향상 이 영화의 효과는 전통적으로 시간이 오래 걸리고 힘든 후반 작업을 필요로하거나 포스트 프로덕션을위한 움직임을 포착하기위한 배경으로 녹색 화면을 사용해야합니다 .Google 연구 팀은 기계 학습 길쌈 신경 네트워크의 주류 기술을 사용했습니다 ( 길쌈 신경망, ConvNets)이 시간이 많이 소요 구글이 새로운 기능을 사용하여 비디오를 만드는 일부 YouTube 사용자를 초대하고, YouTube에 업로드 반면 영화는, 바로 전경과 배경 촬영에서 직접 분리 될 수 있도록 작업을 테스트 여전히 단순화 단편 영화의 구글 리더 (유튜브 이야기) 사용자가 시청을 위해. 프로그램 및 소프트웨어 엔지니어 발렌틴 Bazarevsky와 안드레 에이 Tkachenka는 문서의 현재 목표를 통해 효과를 관찰 할 수있는 동영상 제작에 몇 가지 새로운 기능의 창조자, 우리는 사용자가보다 다양한 사용할 수 있도록 미래의 장면 '마크'(라벨)을 더 추가 할 것이라고 말했다 배경과 더 큰 Google AR (Augmented Reality) 서비스에 통합하려는 계획 사실, Apple은 이전에 Apple Clip을 통해 즉석 비디오 분할 기술의 세계를 보았지만 iPhone X 및 TrueDepth 카메라가 필요합니다. 실행, Google의 컴퓨터 비전은 또한 대중이 유사한 경험을 얻을 수있게 해줍니다. 사실 ConvNets가 지루한 필름 분할 기술을 해결하고 휴대 전화에 고화질 비디오를 쉽게 표시하도록 설계된 팀에서이 방법은 iPhone 7에서 실행할 수 있습니다. 화소 (2) 및 40 FPS에 100 개 이상의 초 (FPS) 비디오의 프레임 레이트.