2016-05-17 1 views

Répondre

1

Semble être que vous pouvez créer 3 cv :: Mat pour représenter chacun des composants de l'image RGB + Depth + IR. Par conséquent, il devrait être quelque chose comme

cv :: Mat frameColor = cv :: Mat :: zéros (resolutionColor.height, resolutionColor.width, CV_8UC3); cv :: Mat frameDepth = cv :: Mat :: zeros (résolutionDepth.height, resolutionDepth.width, CV_32FC1); cv :: Mat frameIR = cv :: Mat :: zeros (résolutionIR.height, résolutionIR.largeur, CV_8UC1);

Vérifiez ce forum -> https://software.intel.com/en-us/forums/realsense/topic/538066 et Convert a PXCImage into an OpenCV Mat

0

une fois que vous avez l'image échantillon

PXCImage::ImageData c_image; 
cv::Mat p_image; 
PXCCapture::Sample *sample = sm->QuerySample(); 

      if (sample->color != NULL) 
      { 

       sample->color->AcquireAccess(PXCImage::ACCESS_READ_WRITE, PXCImage::PIXEL_FORMAT_RGB32, &c_image); 
       PXCImage::ImageInfo inputInfo = sample->color->QueryInfo(); 
       cv::Mat img = cv::Mat(inputInfo.height, inputInfo.width, CV_8UC4, c_image.planes[0], c_image.pitches[0]); 
       sample->color->ReleaseAccess(&c_image); 


      } 
+0

Comment puis-je mettre cela en une boucle? – Pototo

+0

vous voulez dire, comment puis-je lire le fichier rssdk entier? –

+0

Comment puis-je convertir en continu de l'image realsense à l'image openCV afin que je puisse voir une vidéo réelle au lieu d'une image fixe – Pototo

1

Si vous utilisez le nouveau SDK librealsense pour ubuntu: il est aussi facile que pour créer une nouvelle instance d'un cv :: Mat à la hauteur et à la largeur de la caméra et aux dimensions de l'image que vous acquérez.

cv::Mat vis = cv::Mat(1080,1920,CV_8UC3);

Après que la gauche seule étape consiste à affecter les données indiquées par le courant à la propriété vis.data de la matrice

vis.data = (uchar*)reinterpret_cast<const uint8_t *>(dev->get_frame_data(rs::stream::color));` 

le (uchar *) coulée consiste à couler le Format uint8_t au format natif du cv :: Mat.

Parce que le flux Realsense fournit la couleur comme BGR et OpenCV utilise RVB pour représenter l'image, la dernière étape consiste à transformer la matrice au format correct:

cv::cvtColor(vis, vis, CV_BGR2RGB); 
0
/*** 
Returns the next frame if next frame is recorded 
Returns the previous frame if next frame is not recorded 
***/ 
void Converter::ConvertPXCImageToOpenCVMat(Intel::RealSense::Image *inImg, Intel::RealSense::ImageData data, cv::Mat *outImg) { 
    auto cvDataType = 0; 
    auto cvDataWidth = 0; 

    auto imgInfo = inImg->QueryInfo(); 

    switch (data.format) { 
     /* STREAM_TYPE_COLOR */ 
    case Intel::RealSense::Image::PIXEL_FORMAT_YUY2: /* YUY2 image */ 
    case Intel::RealSense::Image::PIXEL_FORMAT_NV12: /* NV12 image */ 
     throw; // Not implemented 
    case Intel::RealSense::Image::PIXEL_FORMAT_RGB32: /* BGRA layout on a little-endian machine */ 
     cvDataType = CV_8UC4; 
     cvDataWidth = 4; 
     break; 
    case Intel::RealSense::Image::PIXEL_FORMAT_RGB24: /* BGR layout on a little-endian machine */ 
     cvDataType = CV_8UC3; 
     cvDataWidth = 3; 
     break; 
    case Intel::RealSense::Image::PIXEL_FORMAT_Y8: /* 8-Bit Gray Image, or IR 8-bit */ 
     cvDataType = CV_8U; 
     cvDataWidth = 1; 
     break; 
     /* STREAM_TYPE_DEPTH */ 
    case Intel::RealSense::Image::PIXEL_FORMAT_DEPTH: /* 16-bit unsigned integer with precision mm. */ 
    case Intel::RealSense::Image::PIXEL_FORMAT_DEPTH_RAW: /* 16-bit unsigned integer with device specific precision (call device->QueryDepthUnit()) */ 
     cvDataType = CV_16U; 
     cvDataWidth = 2; 
     break; 
    case Intel::RealSense::Image::PIXEL_FORMAT_DEPTH_F32: /* 32-bit float-point with precision mm. */ 
     cvDataType = CV_32F; 
     cvDataWidth = 4; 
     break; 
     /* STREAM_TYPE_IR */ 
    case Intel::RealSense::Image::PIXEL_FORMAT_Y16: /* 16-Bit Gray Image */ 
     cvDataType = CV_16U; 
     cvDataWidth = 2; 
     break; 
    case Intel::RealSense::Image::PIXEL_FORMAT_Y8_IR_RELATIVE: /* Relative IR Image */ 
     cvDataType = CV_8U; 
     cvDataWidth = 1; 
     break; 
    default: 
     break; 
    } 

    // suppose that no other planes 
    if (data.planes[1] != nullptr) throw; // not implemented 
              // suppose that no sub pixel padding needed 
    if (data.pitches[0] % cvDataWidth != 0) throw; // not implemented 

    outImg->create(imgInfo.height, data.pitches[0]/cvDataWidth, cvDataType); 

    //memcpy(outImg->data, data.planes[0], imgInfo.height*imgInfo.width*cvDataWidth * sizeof(pxcBYTE)); 
    memcpy(outImg->data, data.planes[0], imgInfo.height*imgInfo.width*cvDataWidth * sizeof(uint8_t)); 
}