H264解码过滤花屏视频帧

2022-07-04 11:06:37 浏览数 (1)

大家好,又见面了,我是你们的朋友全栈君。

众所周知视频在各个领域占有极为重要的地位,安防领域,互联网,医药,教育等等等等。扯淡我就尽量不多扯了,现主要扯安防领域吧,安防领域尤其是视频分析领域,视频质量要求比较苛刻。下面介绍一下场景比较苛刻的图片情况:

1.这种

2.这种

花屏现象,在视频接入解码过程中尤为常见,(比如28181接入,rtsp等等),解码大家都考虑使用ffmpeg进行解码,首先考虑的可能是解码错误直接从解码过程中就把这种错误的帧给干掉,看了好多博客大概也就是这个思想。

1.如果解码错误抛帧。2.如果是I帧从下一个IDR帧开始解码。想法不错当然我也在做了这一部分,具体部分代码示例如下:

代码语言:javascript复制
//伪代码......	
int len = av_parser_parse2(m_h264Parser, m_ctx, &avpkt.data, &avpkt.size, in_buf, in_buf_size, AV_NOPTS_VALUE, AV_NOPTS_VALUE, 0);
                //重要: 如果有解码错误,并且当前帧不是IDR就直接跳过
                //m_iErrorDeocde 表示是否有解码错误 
                //m_h264Parser->pict_type != AV_PICTURE_TYPE_I 表示当前帧是否是I帧
		if (m_iErrorDeocde /*&& m_iLastFrame*/ && m_h264Parser->pict_type != AV_PICTURE_TYPE_I)
			return 0;
		in_buf  = len;
		in_buf_size -= len;

		if(avpkt.size > 0)
		{
#if 0
			decode_video(m_ctx, m_picture, &avpkt,out_buf,pout,lineSize);
			m_iLastFrame = (m_h264Parser->pict_type == AV_PICTURE_TYPE_I)?1:0;
#endif	
#if 1
			{
				ret = avcodec_decode_video2(m_ctx, m_picture, &got_picture, &avpkt);
				m_iLastFrame = (m_h264Parser->pict_type == AV_PICTURE_TYPE_I) ? 1 : 0;
				if (ret < 0)
				{
					printf("damage!!!!!!!!!!");
					avcodec_flush_buffers(m_ctx);
					goto finish;
				}
                   }

到这种情况其实已经过滤掉了很多坏图了,但是想上图展示的两种情况,就像是打不死的小强一下死了又来来了又死,怎么办?

当然前面的两张图你必须得把ffmpeg的错误隐藏给关掉,再就是另一个err_recognition这个东西,看解码那块的源码找到了个这么东西,具体干什么的,自己可以细细研究一下。

观察上面的图都有规律,是什么?对,没错!就是都有灰图,那灰图是怎么来的呢?于是乎我有看了看ffmpeg的h264解码,注意到了一个0x80这么数值,还是在alloc_pic的时候,难道这就是传说中的赋初始值?看着像,具体也没看太明白。。。。

那么那些解码错误的灰色的图块吧,确实的东西是不是就是这个默认值呢?答案差不多,那我是不是就可以把这些看似解码正确的图片其实是花了的图片,直接判断这些坏块再做一遍过滤,剔除掉呢?

这里我补充一些色彩空间的知识,不再赘述了,大概就是Ycbcr经过偏置处理默认值128即0x80,大概就是为了和rgb的0~255在一个范围吧:

https://blog.csdn.net/asahinokawa/article/details/80596655

好了,到这一步骤,基本上就是单纯的过滤有灰块的图了,我的思想是判断这个值,或者这个值范围内的值,那么选择yuv哪个分量做过滤呢?当然是Y了,UV是色彩和饱和度,到了晚上这种值当然就是0x80了,看这张图。

他的末尾全是这玩意,即0x80,这就是我选y的原因,因为他是亮度。。。

我的过滤部分伪代码实现如下:

代码语言:javascript复制
//只是思想没有做代码的整洁及优化,可以根据自己情况去增加删除代码
bool  CheckY(int iwidth, int iHeight, unsigned char*Buf)
{
	
	unsigned char * pNewPoint = Buf;
	int iCountu = 0, iCountv = 0, iCountY = 0;
	int iValues = 0;
	unsigned char uBytes = 0;

	//定位最后一行Y
	pNewPoint = Buf;
	//uBytes = pNewPoint[0];

	//获得新的像素位置
	pNewPoint = Buf   (iHeight - 8)*iwidth;

	//遍历Y信息的所有高
	for (int i = 0; i < 8; i  )
	{
		unsigned char *pNewPoint2 = pNewPoint   i*iwidth;
		//遍历Y信息的宽
		for (int j = 0; j < iwidth; j =24)
		{
			int a = memcmp(pNewPoint2   j, pNewPoint2   j   8, 8);
			int b = memcmp(pNewPoint2   j   8, pNewPoint2   j   16, 8);
			
	                
                        //判断连续两个8像素宏块,是否相同,并且在这个值范围内(0x7A~0x80)
			if (a == b && b == 0 && pNewPoint2[j] > 0x7A&& pNewPoint2[j] <= 0x80)
			{
				printf("%d%d%d%d%d%d", pNewPoint2[0], pNewPoint2[1], pNewPoint2[2], pNewPoint2[3], pNewPoint2[4], pNewPoint2[5]);
				iCountY  ;
			}
			/*if (((unsigned char *)pNewPoint2)[j] == 0x80)
			{
				printf("uByte=%x,pNewPoint2=%x",uBytes,pNewPoint2[j]);
				
			}	*/
		}
	}
}

思想已经说完了,具体实现就看自己了,代码为商业代码,就不能提供了。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/149262.html原文链接:https://javaforall.cn

0 人点赞