Я пытаюсь исправить пары изображений из 7-сцен набора данных RGB-D
. Поскольку набор данных предоставляет наземные данные о позе, я не пытаюсь извлечь совпадающие точки и вычислить F. Вместо этого я вычисляю относительный сдвиг и вращение, используя https://math.stackexchange.com/a/709658, что кажется правильным, и относиться к двум кадрам как к калиброванной сцене.
Однако результаты исправления — мусор. Я пробовал играть с несколькими значениями альфа (-1, 0, 1 и многими значениями в диапазоне [0,1]), но ничего не дало хороших результатов.
Относительное R и кажется, что все в порядке (ближние кадры имеют небольшие повороты и перемещения).
Для матрицы камеры я использую значения, указанные в наборе данных (основная точка (320 240), фокусное расстояние (585 585))
Я пытаюсь исправить пары изображений из 7-сцен набора данных RGB-D . Поскольку набор данных предоставляет наземные данные о позе, я не пытаюсь извлечь совпадающие точки и вычислить F. Вместо этого я вычисляю относительный сдвиг и вращение, используя https://math.stackexchange.com/a/709658, что кажется правильным, и относиться к двум кадрам как к калиброванной сцене.
Однако результаты исправления — мусор. Я пробовал играть с несколькими значениями альфа (-1, 0, 1 и многими значениями в диапазоне [0,1]), но ничего не дало хороших результатов.
Относительное R и кажется, что все в порядке (ближние кадры имеют небольшие повороты и перемещения).
Для матрицы камеры я использую значения, указанные в наборе данных (основная точка (320 240), фокусное расстояние (585 585))
[code]import cv2 import numpy as np from matplotlib import pyplot as plt
[img]https://i.sstatic.net/spHEM.png[/img] Есть идеи, что такое Я пропал? Должен ли я не доверять основным данным о положении истины или это недостаток в моем конвейере?