文森特·梵高《白色的果园》像素版
HLS(HTTP Live Streaming)是由苹果公司提出的一种流媒体传输协议,可支持流媒体的直播和点播。对于 HLS 点播,基本上就是常见的分段 HTTP 点播,不同在于,它的分段非常小。要实现 HLS 点播,重点在于对媒体文件分段。对于 HLS 直播,相对于常见的流媒体直播协议,例如 RTMP 协议、RTSP 协议等,HLS 最大的不同在于直播客户端获取到的并不是一个完整的数据流,而是连续的、短时长的媒体文件(如 MPEG-TS 格式),客户端不断的下载并播放这些小文件。由于数据通过 HTTP 协议传输,所以完全不用考虑防火墙或者代理的问题,而且分段文件的时长很短,客户端可以很快的选择和切换码率,以适应不同带宽条件下的播放。不过 HLS 的这种技术特点,决定了它的延迟一般总是会高于普通的流媒体直播协议。
HLS 作为苹果公司提出的协议,在 iOS 客户端上得到了很好的支持,比如 AVPlayer 和 Safari 都支持对 HLS 流媒体的播放;再加上 M3U8/TS 封装格式可以在直播中持续处理和存储流媒体数据,所以直播回放通常都会选择 HLS 协议来实现。
HLS 协议的实现是和 M3U8 文件的定义密切相关的,这部分的知识在《M3U8 格式》中已经做了详细介绍。在这里只简单介绍一下 HLS 协议的整体框架。
HLS 协议的整体框架如下图所示:
HLS 协议涉及到 3 个部分:
1)服务端组件
服务端组件主要的职责是处理上传链路的媒体流,并对齐进行编码和格式封装,为资源分发做好准备。
2)分发组件
分发组件一般是一组 Web 服务器,主要负责接受客户端的请求并将媒体数据和相关的资源分发给客户端去消费。一般需要通过 CDN 网络来进行资源分发。
3)客户端软件
客户端软件一般是指播放器,主要负责请求媒体资源,并对其进行解封装、解码、渲染等一系列的处理从而展现给用户。
在典型的 HLS 协议实现中,一般是采集音频和视频输入,将它们编码为 H.264 和 AAC 格式,最终经过服务端组件处理成 MPEG-2 的传输流。在这个过程中,MPEG-2 的数据流会被处理为一系列连续的小切片文件(.ts)存储在 Web 服务器上,同时服务器会生成一个索引文件对这些切片文件进行索引,并将这个索引文件发布出去。客户端请求和读取该索引文件,并请求和获取其中的切片文件从而获得对应的媒体资源数据来进行处理和展示。
本文参考
1)HLS 协议
https://developer.apple.com/streaming/
2)HLS https://datatracker.ietf.org/doc/html/draft-pantos-http-live-streaming-23
(通过上文的介绍,我们了解了 HLS 协议的基础知识,HLS 协议配合 M3U8 和 TS 封装格式可以应用在直播和点播场景。我们将在后面继续探讨其他常见的音视频协议,敬请期待)