iOS开发之视频播放、录制、存储、压缩转换格式

        今天我们要介绍的技术关于多媒体,多媒体一直是客户端开发中非常热门的技术,不管是直播、在线播放还是视频下载, 下面咱们就进入今天的主题。

        首先,咱们引用苹果官方的一张图(图1)和一段话(图2)来了解一下设计到视频编辑或者视频操作的公共库:


图1
图2

        苹果已经告诉我们如果只是想简单的去播放一个视频,一部电影,AVKit足够用了;如果想要对视频进行少量的操作,UIKit中的UIImagePickerController可以供我们使用;最后,如果想要对于原始数据结构进行操作,AVFoundation和CoreMedia才是我们真正的选择。今天我们就选择最后一种方式给大家分析一下使用AVFoundation框架中的类对录制,播放等操作。

        要做视频录制,我们要去捕获拍摄对象所发出的声音,动作,所以我们需要捕获音频,视频类,对于获取的录像,需要去输出,则需要录像输出类,输出之后对于录像需要压缩,保存等操作,就需要视频导出类。介绍完整体的视频录制整体的思路后,我们来对应每一个具体的类来说明具体的用法(ps:不同的类对应不同的代码片段进行实例化):

1. AVCaptureSession(图3):AVFoundation的核心类,执行实时捕获操作,当然具体是视频捕获还是音频捕获需要具体的类,客户端通过实例化AVCaptureSession并添加合适的输入和输出,通过调用startRunning方法开始数据流从输入到输出,当然对于录制的视频也可以通过sessionPreset来设置视频质量和输出比率。

2.AVCaptureDevice(图3):捕获设备,通常是摄像头或者麦克风,分别对应视频和音频捕获,不同的设备支持的数据类型也是不同的,可以通过设置不同的mediaType来获取不同的多媒体数据。

3.AVCaptureInput(图4):为AVCaptureSession提供输入源,提供从设备到系统提供的媒体数据,通常情况我们都会使用其子类,如:AVCaptureDeviceInput来获取输入源。

4.AVCaptureOutput(图4):用于输出AVCaptureSession捕获的数据。和AVCaptureInput类似,针对不同的输出数据会使用不同的子类进行实例化,同时对于数据进行操作。本章的代码中使用的是AVCaptureMovieFileOutput,对于输出的视频进行压缩,保存。

5.AVCaptureVideoPreviewLayer(图5):相机拍摄的预览层,用来展示摄像头范围内所呈现出的视图,初始化该类,添加到对应视图的layer层中。

6.AVAssetExportSession(图6):用于导出视频的类,再对视频进行导出时,可以设置导出视频的格式,视频质量,以及导出路径等。

图3
图4
图5
图6

        当然,当我们在进行录像的时候,通过代理获取输出的数据,在代理中对于获取的数据进行保存,压缩导出等操作,当然这个代理是在开始录制视频时设置,不同的AVCaptureOutput子类代理方法也是不同的,代理的不同对于输出数据处理的结果也是不同的。(图7,图8)

图7
图8

        苹果对于AVFoundation的介绍还是非常的详细,而且使用起来也是非常的简单,但是在对于各个类进行操作之前最好都通过canAdd或者isFocus等方法去确定该多媒体设备是否支持此种操作,如果设备等级过低可能会导致程序crash从而造成不必要的后果。

个人认为大家可以通过代码去更深入的了解AVFoundation,代码传送门地址:Demo地址

参考文章:

AVFoundation Programming Guide 

iOS学习:AVFoundation 视频流处理

iOS开发系列--音频播放、录音、视频播放、拍照、视频录制

推荐阅读更多精彩内容