Pull to refresh

Comments 24

Такими темпами скоро в порно можно будет двигать актерами )
Ну может не двигать, но заглянуть куда-нибудь.
Только 1 сцену будут 100 камер снимать, не перебор ли?
Я думаю эта технология пока что больше подходит для создания 3д моделей статичных обьектов реального мира — дома, улицы, обстановка, и.т.д… А анимация уже на компьютере с 3д моделями. Для создания видео о котором вы говорили я думаю будет придумана другая технология…
Дисней разошелся не на шутку))
Еще за недавнее время сделали:
— Тактильная обратная связь habrahabr.ru/post/187298/
— Осязаемое изображение habrahabr.ru/post/102090/
Молодцы!
Сдается мне что снимать будут не сотней камер, а скорее одной, на примере рентгена или эхо-локации, погда 3д объекты создаваться будут исходя из возвращенного сигнала.
Хорошо, что я не Ваша жена.
На вскидку никаким выдающимся качеством работы тут и не пахнет, исходники сняты приличными фотокамерами с хорошей оптикой, камеру двигали по рельсам да ещё с трэкером, зашибись! Из ста ракурсов они получают детализацию не более чем иные алгоритмы из пяти, а то и двух :-)
Интересно. А есть вероятность что реализация алгоритма (в виде библиотеки например) будет доступна публично?
Здорово! То есть по сути на входе у них видео (с меняющейся точкой съемки, при этом не нужно знать как именно она менялась, то есть не нужно строго по треку снимать) на выходе 3d-реконструкция. И обработка идет, похоже, за разумное время.

В закладки однозначно! Может осенью руки дойдут попробовать.
Таких «оригинальных» алгоритмов сотни, исследования ведутся давно и я не думаю, что разрешение фотоснимка влияет на что то кроме скорости обработки. Вот их сравнение в точных цифрах, а не только субъективные заключения и маркетинг: vision.middlebury.edu/stereo/eval/
Наконец-то понял действительно актуальное применение фотограмметрии. Провода убирать с кадра :)
То есть картографическое применение вы актуальным не считаете?
Подразумевалось, для обывателя.
> Новый алгоритм Disney Research способен превращать 2D фотографии в 3D-модели
> КДПВ
Как это?! О_О

> Для создания каждой из моделей потребовалось 100 снимков.
Фуух… Отлегло.
В новых Гуглокартах такое же при перемещении от снимка к снимку. Правда, при этом самом перемещении как раз бывает очень хорошо заметно, что иногда это определение глубины дает сбой.
Подкрепляю слова видео: www.youtube.com/watch?v=8jlbePqAkNc — на 1:23 видно, как столб с точки зрения Гугла является параллелепипедом (и вдобавок продолжается бесконечно вдаль, но это в принципе объяснимо).
Судя по всему подобная технология используюется в 3d мониторах от самсунга — родное мониторное 2d в 3d вполне отлично смотрится
Это всё здорово, но как заметили выше, такие алгоритмы не новость и строят они по сути не 3d модель, а просто по параллаксу вытаскивают из последовательности канал глубины (z buffer) и строят несколько мешей ориентированных на камеру натягивая на ни эти же самые текстуры из фото. Причем там где детали на фото перекрываются остается чернота. Это очень крутая штука для композа, но строить полноценные 3d модели так пока не получится.
Почему «новый»?

Я видел такое и раньше.
Sign up to leave a comment.

Articles