J'écris un programme iphone (IOS 4) qui capture la vidéo en direct de l'appareil photo et la traite en temps réel.Comment saisir une vidéo au format YUV à partir de la caméra, l'afficher et la traiter
Je préfère capturer au format kCVPixelFormatType_420YpCbCr8BiPlanarFullRange pour faciliter le traitement (j'ai besoin de traiter le canal Y). Comment puis-je afficher des données dans ce format? Je suppose que je dois convertir en quelque sorte à un UIImage et ensuite le mettre dans un certain ImageView?
Actuellement, j'ai le code qui affiche les données kCVPixelFormatType_32BGRA, mais naturellement cela ne fonctionne pas avec kCVPixelFormatType_420YpCbCr8BiPlanarFullRange.
Ceci est le code que j'utilise maintenant pour la transformation, toute aide/échantillon sur la façon de faire la même chose pour kCVPixelFormatType_420YpCbCr8BiPlanarFullRange sera apprécié. (Aussi critique de ma méthode actuelle).
// Create a UIImage from sample buffer data
- (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer
{
// Get a CMSampleBuffer's Core Video image buffer for the media data
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);
// Get the number of bytes per row for the pixel buffer
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
// Create a bitmap graphics context with the sample buffer data
CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8,
bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
// Create a Quartz image from the pixel data in the bitmap graphics context
CGImageRef quartzImage = CGBitmapContextCreateImage(context);
// Unlock the pixel buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [UIImage imageWithCGImage:quartzImage];
// Release the Quartz image
CGImageRelease(quartzImage);
return (image);
}
Excelent exemple! J'ai recherché ce code dans tout apple.com –