У меня есть движущаяся камера с известными позициями в мире, могу ли я избежать сопоставления функций для вычисления фундаментальной матрицы между двумя изображениями?

У меня есть монокулярная камера, которая движется в пространстве, я могу знать положение этой камеры в момент t и t + dt.

Я играл с эпиполярной геометрией в Matlab и OpenCV, насколько я понял, обычно используемый метод заключается в вычислении фундаментальной матрицы из внутренних характерных точек, что приводит нас к эпиполям, эпилиниям и карте дипаритета.

В моем случае я знаю положение обеих камер в мире, кто-нибудь знает, как это выразить, или действительно ли это дает ярлык для матрицы исправления изображения?

Спасибо!


person Thom    schedule 25.02.2015    source источник


Ответы (1)


Если вы знаете перевод камеры из одной камеры в другую T (3x1) и вращение R (3x3), то основная матрица E=hat(T)*R

Посмотрите на оператор шляпы здесь: http://en.wikipedia.org/wiki/Hat_operator

Из существенного основное просто умножается на форму К с обеих сторон.

E=K^T * F * K

Где K — матрица внутренних параметров камеры, рассчитанная путем типовой калибровки.

person Photon    schedule 25.02.2015