Я новичок в технологии AV и пытался объединить FFmpeg с платформой Apple CoreVideo для обработки захватов с веб-камеры.
Во-первых, у меня есть снимки с веб-камеры из CoreVideo (которые можно найти в AVCaptureVideoDataOutputSampleBufferDelegate), представленные CMSampleBuffer.
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection {}
Из этого, без сохранения в качестве временного файла, я хотел бы сделать его AVPacket FFmpeg, чтобы я мог его обработать.
Кто-нибудь знает, какой API FFmpeg мне следует изучить?