J'utilise AVFramework pour capturer des cadres de caméra et je voudrais les traiter et les afficher dans un UIImageView mais j'ai quelques problèmes. J'ai le code:UIImageView n'affiche pas d'image - SDK iPhone
// Delegate routine that is called when a sample buffer was written
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
//NSLog(@"Capturing\n");
// Create a UIImage from the sample buffer data
UIImage *image = [self imageFromSampleBuffer:sampleBuffer];
NSLog(@"Image: %f %f\n", image.size.height, image.size.width);
[imageView setImage:image];
}
Cependant, il ne sera pas affiché. La taille correcte apparaît dans le NSLog
, et quand je mets:
[imageView setImage:[UIImage imageNamed:@"SomethingElse.png"]];
dans viewDidLoad, une image est affichée correctement (je sais le UIImageView est correctement connecté).
Y at-il une raison pour laquelle cela ne devrait pas fonctionner ??? Je suis à perte en ce moment.
Cheers, Brett
Je dois aussi ajouter que quand je mets: [imageView setImage: [UIImage imageNamed: @ "SomethingElse .png "]]; dans captureOutput: l'image n'est toujours pas affichée. – Brett