У меня есть изображение cv::Mat of doubles, которое я обрезал между 0,0 и 4095,0. Я хочу иметь возможность преобразовать эту матрицу/создать новую матрицу на основе этой 12-битной. (наименьший размер int, необходимый для хранения 0 -> 4095 целочисленных значений). Я могу просто получить необработанный буфер, однако я не уверен в формате данных внутри матрицы.
Вручную я мог бы сделать следующее:
cv::Mat new_matrix(/*type CV_8UC3, size (matrix.rows, matrix.cols/2)*/);
for(int i = 0; i < matrix.rows; ++i){
for(int j = 0; j < matrix.cols; ++j){
std::uint16_t upper_half = static_cast<std::uint16_t>(matrix.at<double>(j*2,i));
std::uint16_t lower_half = static_cast<std::uint16_t>(matrix.at<double>(j*2+1,i));
std::uint8_t first_byte = static_cast<std::uint8_t>(upper_half>>4);
std::uint8_t second_byte = static_cast<std::uint8_t>(upper_half<<4) | static_cast<std::uint8_t>(lower_half << 12 >> 12);
std::uint8_t third_byte = static_cast<std::uint8_t>(lower_half>>4);
new_matrix.at<cv::Vec3B>(j, i) = cv::Vec3b(first_byte, second_byte, third_byte);
}
}
который по существу сжимает два двойных значения в одно для верхней половины, одно для нижней, извлекая из него три байта (12 + 12 = 24, 24/8 = 3) в 3-байтовую матрицу. Однако я не уверен, что расположение памяти будет соответствовать размещению упакованных 12 бит (у меня четное число столбцов, поэтому деление столбцов/2 не является проблемой), и я не уверен, как убедиться, что это подчиняется порядку байтов. .
Я мог бы даже использовать пользовательский тип данных, но мне нужно убедиться, что элементы не дополняются, если, скажем, я создал 12-битный тип Union Struct или что-то в этом роде.
Обратите внимание, что после преобразования я больше не собираюсь использовать 12-битные значения в OpenCV, затем мне нужно извлечь необработанные значения, и они будут отправлены в другой отдельный процесс.