随着网络技术的逐渐改善,各类视频消息成为媒体传播的主要选择手段。但其实支撑着视频传播的并不单单是网络技术,还有视频转码与压缩技术。这类技术下分很多,比如曾经被频繁提到的 H.265,比如时下热门的窄带高清,比如与元宇宙密不可分的 AI 视频云,他们都有些什么差别,在选择时我们该选择什么?
窄带高清
我们通常所说的窄带高清,指的是在视频编码率保持不变的前提下,平均降低视频大小的方法。以又拍云窄带高清为例,其工作大致流程为首先输入一个视频转码的分片,接着进行复杂度分析,然后分场景转码参数,比如运动缓慢还是剧烈,当然这其中还会有码率控制的算法来调整编码器的输出,最终得到编码后的视频。
△ 窄带高清流程简图
这其中的复杂度,又拍云借鉴了标准 BT1788 里的关于空间感知信息和时间感知信息。空间感知信息是每一帧图像做一个 Sobel 值,然后分析它的纹理的多少作为参考标准;时间感知信息是帧与帧之间的帧差做标准差,作为时间上的变化情况。又拍云最初根据用户的应用场景不同一共分了四类场景:手机自拍、动画、运动缓慢和运动剧烈。不需要用户操作,由系统根据复杂度的分析自动选择上面四个最合适的方法。
而编码器则使用了 H.264 和 H.265 两种。其中 H.265 是在视频编码标准 H.264 基础上,进一步提高压缩效率、提高鲁棒性(Robustness 抗变换性)和错误恢复能力、减少实时的时延、减少信道获取时间和随机接入时延、降低复杂度,以达到最优化设置。
△ H.265 与 H.264 流量比较(资料来源:IEEE)
在窄带高清中二者编码框架差不多,都是关于空间域和时间域的冗余压缩。其中 H.264 的框架流程包括了帧间、帧内的预测、变换、量化、反变换反量化、熵编码和去方块滤波。而 H.265 大致上与 H.264 相同,包括了帧间、帧内的预测、熵编码等,只不过 Deblocking 为了去除“块效应",增加了一个新的 SAO 的滤波来消除振铃效应。不过虽然框架相同,H.265 在技术上却进行了相关优化:
H.264 块的尺寸是从 16x16 扩展到 H.265 的 64x64,这是一个指数级的块的复杂度的提升;
H.265 帧内的预测方向提升到了 35 种。因为 H.265 是针对高清的,包括 1080P、2K、4K,最高到 8K,这种图片的尺寸会比较大,所以它可以分大块,对于那些变化不明显的大块图像区域,可以用更大的块尺寸,可以在预测环节减少分块带来的复杂计算。对运动矢量也做了优化,并且对亮度和色度差值算法变的更复杂;
加入了并行计算,因为复杂度提升了很多,而且目前计算机行业的并行技术发展的也很好,所以在视频编码标准制定的时候加入了并行的优化,来节省编码时间。
这些优化功能可以通过设置参数来进行调整。
△ 又拍云窄带高清常用参数
AI视频云
AI 技术的加入,让用户对视频的内容、检索、个性化推荐、等等个性化设置上都有更大的选择和便利。
AI 视频云通过结合新型算力生态、边缘计算和低功耗 AI 视频芯片等前沿技术,由 AI 进行有效信息的快速提取和构筑,进而减少人力、物力、时间的损耗。
其中边缘计算让服务的计算能力更接近于用户,它的基本理念是将数据的处理、应用程序的运行,甚至一些功能服务的实现,由中心服务器下放到网络边缘的节点上,从而有效得减小计算系统的延迟,减少数据传输带宽,缓解云计算中心压力,提高可用性,保护数据安全和隐私。
与上面所提到的窄带高清不同,AI 视频云更致力于打造全生命周期的,云边一体化视频服务。一般会从以下几个方面提供服务:
快速产出视频:提供视频录制、编辑、播放为一体的内容生产解决方案。
完美兼容不同格式、时间的数据:针对大数据和物联网背景下的数据存储需求,提供非结构化数据云存储 USS、融合云存储等对象存储服务。同时提供快速迁移服务,避免用户被数据所困,帮助用户掌握数据主权。
对于海量数据进行智能分析:基于新型算力生态、边缘计算和低功耗 AI 视频芯片等前沿技术,对 AI算法进行持续训练,让 AI 形成对特定场景的视频理解能力和视频结构化分析能力。有效且快速地提取有价值的结构信息,免除大量人力、物力和时间的损耗
降低成本,提升效率:针对多媒体数据,能有效降低 40-70% 视频大小,同时提供智能视频还原等多种前沿技术。让用户不再需要自建服务和功能,随需随用,大幅降低开发成本。
避免运营商差异,完成快速分发:依托云服务商大量的节点分部,覆盖全部运营商,同时提供智能调度和边缘缓存功能。能针对应用内容快速分发,提高网站响应速度。
那么 AI 视频云和窄带高清又有什么差别呢?