iOS开发直播app(GPUImage原理)

96
伍骁辛
0.3 2016.12.02 17:51* 字数 1574

最近在学习图像处理相关的内容,看了GPUImage的源码,查阅了相关资料,收集了许多人博客的基础上做出了整理,再次感谢给博主!GPUImage 是一个开源的基于GPU的图片或视频的处理框架,其本身内置了多达120多种常见的滤镜效果,并且支持照相机和摄像机的实时滤镜,并且能够自定义图像滤镜。

美颜基本概念

OpenGL ES:(Open Graphics Library For Embedded Systems)即开源嵌入式系统图形处理框架,一套图形与硬件接口,创造了软件与图形加速间灵活强大的底层交互接口,用于把处理好的图片显示到屏幕上。

GPU:(Graphic Processor Unit图形处理单元)手机或者电脑用于图像处理和渲染的硬件。

GPU工作原理:CPU指定显示控制器工作,显示控制器根据CPU的控制到指定的地方去取数据和指令, 目前的数据一般是从显存里取,如果显存里存不下,则从内存里取, 内存也放不下,则从硬盘里取,当然也不是内存放不下,而是为了节省内存的话,可以放在硬盘里,然后通过指令控制显示控制器去取。

滤镜处理的原理:就是把静态图片或者视频的每一帧进行图形变换后再显示到屏幕上,其本质就是像素点的坐标和颜色的变化。

OpenGL ES程序处理图片步骤:
1、初始化OpenGL ES环境,编译、链接顶点着色器和片元着色器;
2、缓存顶点、纹理坐标数据,传送图像数据到GPU;
3、绘制图元到特定的帧缓存;
4、在帧缓存取出绘制的图像。

GPUImage基本概念

GPUImage是采用链式方法来处理画面,通过addTarget方法添加对象到链中,处理完一个target,就会把上一个环节处理好的图像数据传递到下一个target处理,称为GPUImage处理链。

GPUImage的四大输入基础类,都可以作为响应链的起点,这些基础类会把图像作为纹理传给OpenGL ES处理,然后把纹理传递给响应链的下一个target对象。

GPUImage处理环节
source(视频、图片源)->filter(滤镜)-> final target(处理后的视频、图片)

source

GPUImageVideoCamera 摄像头用于实时拍摄视频
GPUImageStillCamera 摄像头用于实时拍摄照片
GPUImagePicture 用于处理已经拍摄好的图片
GPUImageMovie 用于处理已经拍摄好的视频

filter

GPUImageFilter:就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。
GPUImageFramebuffer:就是用来管理纹理缓存的格式与读写帧缓存的buffer。

GPUImage的filter:GPUImageFilter类或者子类,这个类继承自GPUImageOutput,遵循GPUImageInput协议,既可以流进数据,又可以流出
GPUImage的final target:GPUImageView,GPUImageMovieWriter最终输入目标,显示图片或者视频。

解析

GPUImageVideoCamera
GPUImageVideoCamera是GPUImageOutput的子类,提供来自摄像头的图像数据作为源数据,一般是响应链的源头。

1、视频图像采集 :AVCaptureSession

GPUImage使用AVFoundation框架来获取视频。AVCaptureSession类从AV输入设备的采集数据到制定的输出。
AVCaptureSession创建:

_captureSession = [[AVCaptureSession alloc] init];
[_captureSession beginConfiguration];
// 中间可以实现关于session属性的设置
[_captureSession commitConfiguration];

要实现AVCaptureSession类,需要添加合适的输入(AVCaptureDeviceInput)和输出(AVCaptureMovieFileOutput)设备

AVCaptureVideoDataOutput
AVCaptureVideoDataOutput是AVCaptureOutput的子类,用来处理从摄像头采集的未压缩或者压缩过的图像帧。

通过captureOutput:didOutputSampleBuffer:fromConnection: delegate方法,可以访问图像帧。

设置delegate

-(void)setSampleBufferDelegate:(id<AVCaptureAudioDataOutputSampleBufferDelegate>)sampleBufferDelegate queue:(dispatch_queue_t)sampleBufferCallbackQueue;

当新的视频图像帧被采集后,会被传送到output中,调用delegate,delegate函数会在队列中调用,必须使用同步队列处理图像帧,保证帧序列的顺序。

frameRenderingSemaphore 帧渲染的信号量

 if (dispatch_semaphore_wait(frameRenderingSemaphore, DISPATCH_TIME_NOW) != 0)
 {
     return;
 }
 runAsynchronouslyOnVideoProcessingQueue(^{
       dispatch_semaphore_signal(frameRenderingSemaphore);
 });

这个方法用于等待处理完一帧后,再接着处理下一帧。

2、颜色空间:YUV

YUV是被欧洲电视系统所采用的一种颜色编码方法。采用YUV色彩空间的重要性是它的亮度信号Y色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。

GPUImage中的YUV

GLProgram *yuvConversionProgram:将YUV颜色空间转换成RGB颜色空间的GLSL。
CVPixelBufferGetPlaneCount:返回缓冲区的平面数。

CVOpenGLESTextureCacheCreateTextureFromImage():
创建两个纹理luminanceTextureRef(亮度纹理)和chrominanceTextureRef(色度纹理)。
convertYUVToRGBOutput():把YUV颜色空间的纹理转换成RGB颜色空间的纹理。

顶点着色器-通用kGPUImageVertexShaderString

片元着色器:

1.kGPUImageYUVFullRangeConversionForLAFragmentShaderString

2.kGPUImageYUVVideoRangeConversionForLAFragmentShaderString
3、纹理绘制
glActiveTexture(GL_TEXTURE1);
glGenTextures(1, &_texture);
glBindTexture(GL_TEXTURE_2D, _texture);

GPUImageView

GPUImageView是响应链的终点,用于显示GPUImage图像

1、填充模式
GPUImageFillModeType fillMode图像的填充模式。
sizeInPixels 像素区域大小。
recalculateViewGeometry() 重新计算图像顶点位置数据。
AVMakeRectWithAspectRatioInsideRect() 在保证宽高比不变的前提下,得到一个尽可能大的矩形。
2、OpenGL ES绘制
源图像已经准备好,开始绘制。
-(void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex;

setDisplayFramebuffer()会绑定GPUImageView的帧缓存,同时调试视口大小为view的大小。

glActiveTexture是选择一个纹理单元。先选择纹理单元4,然后把源图像数据绑定到GL_TEXTURE_2D的位置上。最后告诉片元着色器,纹理单元是4。

 glActiveTexture(GL_TEXTURE4);
 glBindTexture(GL_TEXTURE_2D, [inputFramebufferForDisplay texture]);
 glUniform1i(displayInputTextureUniform, 4);

接下来分别绑定顶点坐标数据和纹理坐标数据

glVertexAttribPointer(displayPositionAttribute, 2, GL_FLOAT, 0, 0, imageVertices);
glVertexAttribPointer(displayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, [GPUImageView textureCoordinatesForRotation:inputRotation]);

然后设定输入的源图像数据缓存,并缓存加锁。

inputFramebufferForDisplay = newInputFramebuffer;
[inputFramebufferForDisplay lock];

最后准备好着色器、纹理数据、顶点坐标、纹理坐标数据后,就可以绘制图像了

glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);

相关资料:
http://www.tuicool.com/articles/6bIbQbQ
http://www.jianshu.com/p/945fc806a9b4
http://www.jianshu.com/p/7a58a7a61f4c
http://www.jianshu.com/p/4646894245ba

iOS开发
Web note ad 1