GPUImage详细解析(六)-用视频做视频水印

2018-04-27 16:26:34 浏览数 (1)

回顾

之前解析介绍的是GPUImage源码解析、图片模糊、视频滤镜,明白了GPUImage的强大功能,这次介绍的是两个视频的重叠,可以把两个视频文件合并,也可以把视频和录像结合在一起。

效果展示

视频的截图如下,视频由两个视频合成,一个来自于文件abc.mp4,一个来自于摄像头。

核心思路

摄像头采集的数据通过GPUImageVideoCamera进入响应链,视频文件的数据通过GPUImageMovie进入响应链,在GPUImageDissolveBlenderFilter进行合并,最后把数据传给响应链的终点GPUImageView以显示到UI和GPUImageMovieWriter以写入临时文件,最后临时文件通过ALAssetsLibrary写入系统库。

具体细节

1、GPUImageDissolveBlendFilter

GPUImageDissolveBlendFilter类继承GPUImageTwoInputFilter,添加属性mix作为片元着色器的mix参数。GPUImageDissolveBlendFilter在响应链上需要接受两个输入,当两个输入都就绪时,会通过mix()操作把输入混合,并且输出到响应链上。

思考1:如果只有一个输入会如何?

2、GPUImageMovie

GPUImageMovie类继承了GPUImageOutput类,一般作为响应链的源头,可以通过url、playerItem、asset初始化。

3、GPUImageMovieWriter

GPUImageMovieWriter类实现GPUImageInput协议,一般作为响应链的终点。shouldPassthroughAudio表示是否使用源音源。 movieFile.audioEncodingTarget = movieWriter;表示音频来源是文件。

代码语言:javascript复制
if (audioFromFile) {
        // 响应链
        [movieFile addTarget:filter];
        [videoCamera addTarget:filter];
        movieWriter.shouldPassthroughAudio = YES;
        movieFile.audioEncodingTarget = movieWriter;
        [movieFile enableSynchronizedEncodingUsingMovieWriter:movieWriter];
    }
    else {
        // 响应链
        [videoCamera addTarget:filter];
        [movieFile addTarget:filter];
        movieWriter.shouldPassthroughAudio = NO;
        videoCamera.audioEncodingTarget = movieWriter;
        movieWriter.encodingLiveVideo = NO;
    }

思考2:音频来源的不同会对响应链造成什么样的影响?为什么?

4、响应链 响应链以GPUImageVideoCamera和GPUImageMovie作为输入,最终以GPUImageMovieWriter为输出。

  • 开始响应链的输入。
代码语言:javascript复制
    [videoCamera startCameraCapture];
    [movieWriter startRecording];
    [movieFile startProcessing];
  • 设置movieWriter的结束回调。
代码语言:javascript复制
[movieWriter setCompletionBlock:^{
}];

思考3:movieWriter的回调是什么时候调用的?由哪里触发?

思考4:movieWriter的encodingLiveVideo有什么用?把其设置为YES和NO试试,观察是否有影响?

总结

做demo的过程中遇到坑,GPUImage上面有Issues,但是并没有人解答ʕ̡̢̡ʘ̅͟͜͡ʘ̲̅ʔ̢̡̢。 代码地址在这里,参考链接上有趟坑的时候查到的一些资料。

附录

几个思考题都是做demo过程比较迷惑不解的地方和遇到的问题,答案分别是:

思考1:输入只有一个输入的时候,会一直等待第二个输入,不会有输出。问题出现在把videoCamera声明为临时变量,以为添加target会持有videoCamera的引用。实际上就会发生输入只有一个的时候(只有视频文件的信号),同时屏幕是白屏。

思考2:音频的来源不同会导致CMTime的不同,响应链视频信息的CMTime默认采用第一个输入的CMTime,故而修改音频来源的时候需要修改响应链的输入顺序,否则几秒钟的视频文件会产生两个多小时的文件(CMTime不同步导致)。

思考3:movieWriter的回调会在视频处理结束的时候调用,由GPUImageMovie的 reader.status == AVAssetReaderStatusCompleted触发。

思考4:encodingLiveVideo影响的其实是expectsMediaDataInRealTime属性,YES时用于输入流是实时的,比如说摄像头。

0 人点赞