用ffmpeg解码H264视频流

一、前言

最近在做直播(监控类)的项目,刚开始一窍不通,各种难啊,没办法,总得做啊,于是就查资料,一步一步,最后总算是做出来了,下面就先讲一下利用ffmpeg解码H264视频流这一块。首先在iOS平台配置ffmpeg就不再详解,具体请看:
https://cnbin.github.io/blog/2015/05/19/iospei-zhi-ffmpegkuang-jia/ 这篇博客,我在项目中使用的ffmpeg版本号是3.1,我在看上篇博客配置ffmpeg时,按步骤一步一步来,还是出现了.a文件是红色的情况,后来我就把.a文件重新导入项目中,总算是好了,真是不易啊。

二、解码H264视频流

1.首先创建一个文件专门用来解码,在DDH264Decoder.h文件中对外暴露以下三个方法:

#import <Foundation/Foundation.h>
#import <UIKit/UIKit.h>
#import "libavcodec/avcodec.h"

@interface DDH264Decoder : NSObject

/* 初始化解码器 */
- (BOOL)initH264DecoderWithWidth:(int)width height:(int)height;

/* 解码视频数据并且返回图片 */
- (void)H264decoderWithVideoData:(NSData *)VideoData completion:(void (^)(AVPicture picture))completion;

/* 释放解码器 */
- (void)releaseH264Decoder;

2.在.m文件中实现所暴露的方法

#import "DDH264Decoder.h"
#import "libswscale/swscale.h"
#include <libavformat/avformat.h>
#import <AVFoundation/AVFoundation.h>

@interface DDH264Decoder ()

@property (assign, nonatomic) AVFrame *frame;
@property (assign, nonatomic) AVCodec *codec;
@property (assign, nonatomic) AVCodecContext *codecCtx;
@property (assign, nonatomic) AVPacket packet;
@property (assign, nonatomic) AVFormatContext *formatCtx;

@end

@implementation DDH264Decoder

/**
 *  初始化视频解码器
 *
 *  @param width  宽度
 *  @param height 高度
 *
 *  @return YES:解码成功
 */
- (BOOL)initH264DecoderWithWidth:(int)width height:(int)height {
    
    av_register_all();
    
    avformat_network_init();
    self.codec = avcodec_find_decoder(AV_CODEC_ID_H264);
    av_init_packet(&_packet);
    if (self.codec != nil) {
       self.codecCtx = avcodec_alloc_context3(self.codec);
        
        // 每包一个视频帧
        self.codecCtx->frame_number = 1;
        self.codecCtx->codec_type = AVMEDIA_TYPE_VIDEO;
        
        // 视频的宽度和高度
        self.codecCtx->width = width;
        self.codecCtx->height = height;
        
        // 打开codec
        if (avcodec_open2(self.codecCtx, self.codec, NULL) >= 0) {
            self.frame = av_frame_alloc();
            if (self.frame == NULL) {
                return NO;
            }
        }
    }
    
    return (BOOL)self.frame;
}

/**
 *  视频解码
 *
 *  @param data 被解码视频数据
 *
 *  @return 图片
 */
- (void)H264decoderWithVideoData:(NSData *)VideoData completion:(void (^)(AVPicture))completion {
    @autoreleasepool {
        _packet.data = (uint8_t *)VideoData.bytes;
        _packet.size = (int)VideoData.length;
        
        int getPicture;
            avcodec_send_packet(_codecCtx, &_packet);
            getPicture = avcodec_receive_frame(self.codecCtx, self.frame);
             av_packet_unref(&_packet);
            if (getPicture == 0) {
                AVPicture picture;
                avpicture_alloc(&picture, AV_PIX_FMT_RGB24, self.codecCtx->width, self.codecCtx->height);
                
                struct SwsContext *img_convert_ctx = sws_getContext(self.codecCtx->width,
                                                                    self.codecCtx->height,
                                                                    AV_PIX_FMT_YUV420P,
                                                                    self.codecCtx->width,
                                                                    self.codecCtx->height,
                                                                    AV_PIX_FMT_RGB24,
                                                                    SWS_FAST_BILINEAR,
                                                                    NULL,
                                                                    NULL,
                                                                    NULL);
                // 图像处理
                sws_scale(img_convert_ctx, (const uint8_t* const*)self.frame->data, self.frame->linesize, 0, self.codecCtx->height, picture.data, picture.linesize);

                sws_freeContext(img_convert_ctx);
                img_convert_ctx = NULL;
                
                if (completion) {
                    completion(picture);
                }
                
                avpicture_free(&picture);
        }
    }
}

/**
 *  释放视频解码器
 */
- (void)releaseH264Decoder {
    if(self.codecCtx) {
        avcodec_close(self.codecCtx);
        avcodec_free_context(&_codecCtx);
       self.codecCtx = NULL;
    }
    
    if(self.frame) {
        av_frame_free(&_frame);
        self.frame = NULL;
    }
    av_packet_unref(&_packet);
}

注意:使用完后,一定要释放,要不然会内存泄漏。

3.在控制器中对解码后的视频数据进行处理
我是在另外一个文件中,对数据进行了另一层加工及处理,在这里只写在控制器中对解码后的数据进行显示。

- (void)dealAVPicture:(AVPicture)picture width:(int)width height:(int)height {
    CGBitmapInfo bitmapInfo = kCGBitmapByteOrderDefault;
    CFDataRef refData = CFDataCreate(kCFAllocatorDefault, picture.data[0], picture.linesize[0] * height);
    CGDataProviderRef refProvider = CGDataProviderCreateWithCFData(refData);
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
   
    CGImageRef refImage = CGImageCreate(width,
                                        height,
                                        8,
                                        24,
                                        picture.linesize[0],
                                        colorSpace,
                                        bitmapInfo,
                                        refProvider,
                                        NULL,
                                        NO,
                                        kCGRenderingIntentDefault);
    UIImage *targetImage = [UIImage imageWithCGImage:refImage];
    __weak typeof(self) weakSelf = self;
    dispatch_async(dispatch_get_main_queue(), ^{
        [XSLToast hideLoadingAnimation:NO inView:weakSelf.panelImageView];
        weakSelf.panelImageView.image = targetImage;
    });
    CGColorSpaceRelease(colorSpace);
    CGImageRelease(refImage);
    CGDataProviderRelease(refProvider);
    CFRelease(refData);
}

推荐阅读更多精彩内容