为什么要开发AES67?

随着数字音频技术的飞速发展,音频传输在质量、容量和延迟方面的要求日益严格。特别是在广播、音乐制作、后期制作以及现场扩声等商业音频领域,对音频传输的需求已逐渐从传统的模拟或专有格式转向基于IP的数字传输。由于不同公司的音频协议通常具有专有性,要实现互操作性,统一的标准至关重要。

网络音频协议之间的差异

模块特点AES67RAVENNADanteQSCLivewire
控制和监控SNMPHTTP, Ember+私有协议TCP, HTTPHTTP, 私有协议
发现Bonjour, SAPBonjour私有协议私有协议私有协议
连接管理RTSP, SIP, IGMPRTSP, SIP, IGMP私有协议私有协议私有协议, HTTP, IGMP
会话描述SDPSDP私有协议私有协议私有协议
传输RTP, IPv4RTP, IPv4私有协议, IPv4RTP, IPv4RTP, IPv4
服务质量DiffServDiffServDiffServDiffServDiffServ/802.1pq
编码和流式传输L16-32, ≤8 ch/strL16-32, ≤64 ch/strL16-32, ≤4 ch/flow32B-FP, <16 ch/strL24, st, surr
同步性PTP1588-2008PTP1588-2008PTP1588-2002PTP1588-2008私有协议
媒体时钟48kHz, 96kHz44.1kHz – 384kHz44.1kHz, 192kHz48kHz48kHz

高性能网络的需求

AES67协议的开发背景聚焦于高性能网络,目的是支持高质量(16-bit/48 kHz及以上)、大容量(多达数百个音频通道)以及低延迟(小于10毫秒)的数字音频传输。这些高要求的网络性能在局域网中是可以轻松实现的,同时也可以在企业级网络中实现。然而,虽然已有如RAVENNA等多种网络音频系统被开发用于高性能的媒体网络,但这些系统之间缺乏一个统一的、标准化的互操作性方案。因此,AES67的诞生旨在填补这一空白,通过识别和建议通用的协议和操作方式,来实现各大系统之间的互联互通。

标准应用场景

AES67标准的设计目的是为各类音频分发场景服务,尤其是在广播、音乐制作、后期制作等领域。此外,它也适用于商业音频应用,包括固定安装的音响系统和巡回演出的现场扩声系统。通过提供一致性和互操作性,AES67可以确保各类音频设备之间的顺畅沟通,解决了以往不同厂商设备之间无法兼容的问题。

任务组的成立与项目进展

AES67的开发始于2010年,AES(音频工程协会)成立了一个名为SC-02-12-H的标准化任务组,专门负责制定高性能专业音频IP网络的互操作性标准。该项目被指定为AES-X192,由Kevin Gross领导,他是媒体网络领域的资深专家,也是开创性CobraNet技术的发明者。在项目启动后,通过网络会议和面对面的讨论,任务组迅速聚集了100多位来自专业音频行业的顶尖公司和组织的专家,最终在2013年9月11日发布了超过40页的AES67标准草案。

标准的“成分”

为了实现真正的互操作性,AES67协议重点关注以下几个方面:

  • 同步(Synchronization):定义了通用时钟系统的机制。
  • 媒体时钟(Media Clocks):定义了哪些媒体时钟必须被支持,以及它们与通用时钟系统的关系。
  • 传输(Transport):描述了音频数据在网络中的传输方式。
  • 编码与流媒体(Encoding and Streaming):说明了音频如何被数字化和格式化为数据包流。
  • 流描述(Stream Description):为连接管理提供信息,如网络地址、编码格式和来源信息。
  • 连接管理(Connection Management):建立发送方与接收方之间的音频流连接所需的程序和协议。
滚动至顶部