王琦:5G新视频应用的机会窗口将在2-3年内

2021-09-01 09:59:18 浏览数 (1)

相对于4G,5G在时延、速率等方面都有较大的改进,一波新视频应用将应运而生。LiveVideoStack采访了咪咕视讯网云技术总监王琦,他认为5G的机会窗口将在2-3年内。在5月19日开幕的WebRTCon 2018大会的“娱乐多媒体开发应用实践”专场,王琦将会分享在5G时代多媒体技术的挑战。

策划 / LiveVideoStack

LiveVideoStack:王琦你好,能否简要介绍下自己,包括目前的主要工作及关注领域?

王琦:目前我的主要工作集中在视频能力技术和开发及管理方面,视音频处理和网络分发及基础平台技术是目前主要的关注领域。

LiveVideoStack:回想当初为什么选择进入视听领域?在这里领域十多年,是兴趣使然,还是机缘巧合呢?

王琦:一直以来,我认为视音频相关技术的发展和广泛应用是整个通信、互联网发展的必然,视频技术的发展符合信息产业发展的趋势。从文本、图像到声音、影像,再到虚拟现实及浸入式场景,从静态信息传递到动态信息传递再到临场感,我想这应该会是互联网技术的发展路径。

LiveVideoStack:回顾过去十多年,视听领域技术不断迭代,公司起起落落,可以用哪些技术或其他关键词来总结呢?为什么是这几个词?

王琦:我认为一个词是“带宽”,回顾中国互联网视频行业兴起的将近20年,很多人看准了大方向,看准了商业盈利模式,但忽视或不了解了底层网络基础技术和基础设施对于视频行业的影响。这就好像是车很好,但路不平,乘客的体验也不会好。所以导致花了很多时间精力,也烧了很多钱,但用户体验一直上不去。

另一个词是“核心技术”,不少失败的公司都是因为重噱头轻积累,重应用技术轻视频技术,重眼前利益轻长远规划。但是视频行业和其它互联网子行业相比,核心技术门槛要更高,涉及的技术领域也要更多。

LiveVideoStack:音视频技术往往非常专业,这就导致需要钻研到足够的深度才能脱颖而出。但这会导致职业的选择空间变窄。如何在技术深度与广度上做好平衡呢?

王琦:其实我并不认为视音频行业的选择空间窄,掌握了视音频行业技术,基本也就掌握了互联网中大部分核心底层技术,比如信息处理、数据处理、网络传输、检索、高性能大并发等方面的知识都是视音频领域的细分技术,而这些细分技术也可以直接应用于许多其它岗位。真正掌握了视音频技术,职业选择的深度和广度都会得到提升。

LiveVideoStack:学习多媒体开发的技术人普遍的感触是“门槛很高,学好更难”。你有哪些学习建议?有哪些文档、图书、资料推荐?

王琦:我个人建议还是遵循比较传统的学习路径,从数字图像到运动图像,编解码,这是一条路径,也是视频技术的基础;另外传输、网络知识也应该掌握,特别是结合视频业务容易大流量、高并发的特点去学习;大规模平台架构知识也需要掌握。基础知识自学是前提,经验积累也要靠实践。欢迎有视频行业经验和对视频有兴趣的同学们和我联系,也欢迎加入咪咕一起成长。

LiveVideoStack:随着5G商用提上日程,对于运营商、咪咕视讯,乃至整个音视频生态来说,意味着哪些机遇和挑战?

王琦:5G作为全新的无线传输技术标准,在时延、速率和并发方面有显著优势,而这些都是正在困扰整个视频行业应用的难题。4G的普及,5G的出现,以及宽带网的提速和流量费的降低,势必极大促进超高清视频和新视频场景的涌现。这一窗口期,我认为会出现在两三年内,而且这一窗口期的爆发效应该会大于去年短视频的兴起。相对其它行业友商,我们的技术优势相对多的集中在熟悉和掌握运营商基础端到端网络和视频处理技术。

LiveVideoStack:展望2018年,你认为哪些技术将成为音视频领域的热门?

王琦:2018年我认为超低时延、超高清应用会是技术热门,会出现一些不错的应用和服务,WebRTC作为“老牌”技术标准我想也会有些不错的应用。这些都会促进核心技术和行业标准的出现。

LiveVideoStack:现在CDN带宽是许多视频平台的主要成本支出之一,随着4K/6K视频日渐增多,带宽成本将进一步增长,如何从技术手段降低CDN成本?

王琦:经过这两年的行业竞争,CDN带宽成本虽然有了大幅度降低,但确实还是很多视频企业的主要运营成本。目前我们主要着力于优化用户智能调度,节省骨干带宽、基于数据特征压缩传输数据、节点下沉和错峰流控等方面来提高服务性价比。

LiveVideoStack:关于Codec,H.264已经不能满足清晰度更高的视频编解码的需求了。在Google、Netflix等巨头的支持,AV1势头很猛。而HEVC因为专利风险,正在面临来自AV1的挑战。您如何看待未来几年Codec的发展趋势?咪咕视讯是如何选择下一代Codec方案的?

王琦:在视频技术层面我们一直非常关注Codec的发展,目前我们也开始参与行标国标Codec及相关内容的讨论制定。我个人倾向于根据服务用户类型的不同,从终端、耗电、清晰度、码率等多维度综合后进行差异化的Codec视频流服务。预计未来几年内,AVC、HEVC、AVS2/3、AV1等都会有一些垂直的应用领域,比如AVS2在监控场景下的性能就比较突出。没有最好的只有最合适的。

LiveVideoStack:AI、区块链等新技术对多媒体开发生态会产生怎样的影响?你看到哪些场景的应用?

王琦:视频行业的发展必然依赖于新技术的发展,AI让视频具有“人”的属性,更有感知能力,我想AI将给视频行业带来颠覆性的革新,特别是在运动图像识别及后续增值业务领域,可想象空间非常大,可衍生出来的商业场景也会比较多。区块链技术则侧重于解决社会学难题,对于视频行业来说,同样会存在诸如资源、权益、信任等方面的问题,区块链中的关键技术对于视频新场景应用来说,也是很好的促进。对于多媒体开发来说,开发生态也比较重要,比如FFmpeg开源社区和LiveVideoStack都很好的促进了视频行业开发生态的发展。

基于目前硬件和基础设施的现状,我认为目前视频AI最典型的场景应在基于视频帧的数字图像层面衍生的相关应用场景,比如广告、人机交互、物联网等。以后随着基础设施的发展,结合更多时空特性和人类思维特性的运动图像AI分析将大有作为,可以产生更多贴近生产、生活的视频应用。

0 人点赞