2009-08-31 7 views
2

Je souhaite convertir un HBitmap en flux vidéo à l'aide de libavcodec. je reçois mon HBitmap en utilisant:Enregistrer un bitmap en vidéo (libavcodec ffmpeg)

HBITMAP hCaptureBitmap =CreateCompatibleBitmap(hDesktopDC, nScreenWidth, nScreenHeight); 
SelectObject(hCaptureDC,hCaptureBitmap); 
BitBlt(hCaptureDC,0,0,nScreenWidth,nScreenHeight,hDesktopDC,0,0,SRCCOPY); 

et je voudrais le convertir en YUV (qui est requis par le codec j'utilise). Pour cela que j'utilise:

SwsContext *fooContext = sws_getContext(c->width,c->height,PIX_FMT_BGR32, c->width,c->height,PIX_FMT_YUV420P,SWS_FAST_BILINEAR,NULL,NULL,NULL); 

uint8_t *movie_dib_bits = reinterpret_cast<uint8_t *>(bm.bmBits) + bm.bmWidthBytes * (bm.bmHeight - 1); 

int dibrowbytes = -bm.bmWidthBytes; 

uint8_t* data_out[1]; 
int stride_out[1]; 
data_out[0] = movie_dib_bits; 
stride_out[0] = dibrowbytes; 

sws_scale(fooContext,data_out,stride_out,0,c->height,picture->data,picture->linesize); 

Mais cela ne fonctionne pas du tout ... Une idée pourquoi? Ou comment pourrais-je le faire différemment?

Merci!

Répondre

5

Je ne suis pas familier avec les choses que vous utilisez pour obtenir le bitmap, mais en supposant qu'il est correct et que vous avez un pointeur vers le BGR 32 bits/données de pixels, essayer quelque chose comme ceci:

uint8_t* inbuffer; 
int in_width, in_height, out_width, out_height; 

//here, make sure inbuffer points to the input BGR32 data, 
//and the input and output dimensions are set correctly. 

//calculate the bytes needed for the output image 
int nbytes = avpicture_get_size(PIX_FMT_YUV420P, out_width, out_height); 

//create buffer for the output image 
uint8_t* outbuffer = (uint8_t*)av_malloc(nbytes); 

//create ffmpeg frame structures. These do not allocate space for image data, 
//just the pointers and other information about the image. 
AVFrame* inpic = avcodec_alloc_frame(); 
AVFrame* outpic = avcodec_alloc_frame(); 

//this will set the pointers in the frame structures to the right points in 
//the input and output buffers. 
avpicture_fill((AVPicture*)inpic, inbuffer, PIX_FMT_BGR32, in_width, in_height); 
avpicture_fill((AVPicture*)outpic, outbuffer, PIX_FMT_YUV420P, out_width, out_height); 

//create the conversion context 
SwsContext* fooContext = sws_getContext(in_width, in_height, PIX_FMT_BGR32, out_width, out_height, PIX_FMT_YUV420P, SWS_FAST_BILINEAR, NULL, NULL, NULL); 

//perform the conversion 
sws_scale(fooContext, inpic->data, inpic->linesize, 0, in_height, outpic->data, outpic->linesize); 

//encode the frame here... 

//free memory 
av_free(outbuffer); 
av_free(inpic); 
av_free(outpic); 

Bien sûr, si vous allez convertir une séquence d'images, faites juste vos allocations une fois au début et les désallocations une fois à la fin.

Questions connexes