3D-съемка с нормальной камеры смартфона

3d-sports.jpg

Любители профессионального спорта будут знакомы с так называемым 4D визуализации, которые предлагают многочисленные преимущества одной сцены. Приемник ловит пас, но он был на поле? Прямую продюсер и дикторы будут запускать воспроизведение, сместив POV, так что зрителей у нас было ощущение масштабирования вокруг на фронт действия, чтобы взглянуть.

Существует много технологий за, которые, казалось бы, простой маневр, в том числе тщательная оркестровка стационарных камер, которые способны позволить практически в реальном времени прямая строчка.

Что делать, если видео с камер, направленных на сцену, может быть использован таким же образом?

Вот и вопрос что за рулем исследователи из Института робототехники Университета Карнеги-Меллона, которые уже разработали способ объединить iPhone видео, что позволяет зрителям смотреть события с различных точек зрения. Технология виртуализации имеет очевидные применения в смешанной реальности, в том числе и редактирования объектов, которые затемняют прямой видимости или при добавлении или удалении людей с места происшествия.

«Мы ограничены только количеством камер», — объясняет это Бансал, аспирант в Институте робототехники Университета Карнеги Меллон. Техника КМУ было продемонстрировано, как многие, как 15 камер одновременно.

Демонстрация указывает на демократизацию виртуальной реальности, который в настоящее время является прерогативой дорогих студиях и живых событий, в которых работают десятки камер скоординированных, чтобы захватить каждый угол. Но так же, как почтенный распоряжении камеры сделаны каждый свадебный фотограф, смартфоны вскоре могут быть использованы для сбора так называемых 4D визуализации собраний. Учитывая, что вытаскивая свой телефон и снимает видео событий, таких как свадьбы и вечеринки-это уже банально, технология имеет преимущество воспользоваться другими поведения.

«Дело в использовании айфонов было показать, что любой может использовать эту систему», — сказал Бансал. «Мир-это наша студия».

Задача исследователей КМУ был в использовании непредсказуемо, направленные видео для 3D-сцен, которых никогда не было сделано. Команда использовала так называемые сверточные нейронные сети, которые используют глубокое изучение и тщательный анализ визуальных данных. Сверточные нейронные сети выявить общие визуальных данных через несколько каналов и работает в обратном направлении, чтобы сшить видео.

Национальный научный фонд, Управление военно-морских исследований, и Qualcomm поддерживает исследования, которое было проведено Бансал и профессорско-преподавательского состава Института КМУ робототехники и недавно был представлен на конференции компьютерного зрения и распознавания образов в прошлом месяце.

Знаменательно, что конференция проходила практически.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *