为什么要开发AES67?
随着数字音频技术的飞速发展,音频传输在质量、容量和延迟方面的要求日益严格。特别是在广播、音乐制作、后期制作以及现场扩声等商业音频领域,对音频传输的需求已逐渐从传统的模拟或专有格式转向基于IP的数字传输。由于不同公司的音频协议通常具有专有性,要实现互操作性,统一的标准至关重要。
网络音频协议之间的差异
| 模块特点 | AES67 | RAVENNA | Dante | QSC | Livewire |
|---|---|---|---|---|---|
| 控制和监控 | SNMP | HTTP, Ember+ | 私有协议 | TCP, HTTP | HTTP, 私有协议 |
| 发现 | Bonjour, SAP | Bonjour | 私有协议 | 私有协议 | 私有协议 |
| 连接管理 | RTSP, SIP, IGMP | RTSP, SIP, IGMP | 私有协议 | 私有协议 | 私有协议, HTTP, IGMP |
| 会话描述 | SDP | SDP | 私有协议 | 私有协议 | 私有协议 |
| 传输 | RTP, IPv4 | RTP, IPv4 | 私有协议, IPv4 | RTP, IPv4 | RTP, IPv4 |
| 服务质量 | DiffServ | DiffServ | DiffServ | DiffServ | DiffServ/802.1pq |
| 编码和流式传输 | L16-32, ≤8 ch/str | L16-32, ≤64 ch/str | L16-32, ≤4 ch/flow | 32B-FP, <16 ch/str | L24, st, surr |
| 同步性 | PTP1588-2008 | PTP1588-2008 | PTP1588-2002 | PTP1588-2008 | 私有协议 |
| 媒体时钟 | 48kHz, 96kHz | 44.1kHz – 384kHz | 44.1kHz, 192kHz | 48kHz | 48kHz |
高性能网络的需求
AES67协议的开发背景聚焦于高性能网络,目的是支持高质量(16-bit/48 kHz及以上)、大容量(多达数百个音频通道)以及低延迟(小于10毫秒)的数字音频传输。这些高要求的网络性能在局域网中是可以轻松实现的,同时也可以在企业级网络中实现。然而,虽然已有如RAVENNA等多种网络音频系统被开发用于高性能的媒体网络,但这些系统之间缺乏一个统一的、标准化的互操作性方案。因此,AES67的诞生旨在填补这一空白,通过识别和建议通用的协议和操作方式,来实现各大系统之间的互联互通。
标准应用场景
AES67标准的设计目的是为各类音频分发场景服务,尤其是在广播、音乐制作、后期制作等领域。此外,它也适用于商业音频应用,包括固定安装的音响系统和巡回演出的现场扩声系统。通过提供一致性和互操作性,AES67可以确保各类音频设备之间的顺畅沟通,解决了以往不同厂商设备之间无法兼容的问题。
任务组的成立与项目进展
AES67的开发始于2010年,AES(音频工程协会)成立了一个名为SC-02-12-H的标准化任务组,专门负责制定高性能专业音频IP网络的互操作性标准。该项目被指定为AES-X192,由Kevin Gross领导,他是媒体网络领域的资深专家,也是开创性CobraNet技术的发明者。在项目启动后,通过网络会议和面对面的讨论,任务组迅速聚集了100多位来自专业音频行业的顶尖公司和组织的专家,最终在2013年9月11日发布了超过40页的AES67标准草案。
标准的“成分”
为了实现真正的互操作性,AES67协议重点关注以下几个方面:
- 同步(Synchronization):定义了通用时钟系统的机制。
- 媒体时钟(Media Clocks):定义了哪些媒体时钟必须被支持,以及它们与通用时钟系统的关系。
- 传输(Transport):描述了音频数据在网络中的传输方式。
- 编码与流媒体(Encoding and Streaming):说明了音频如何被数字化和格式化为数据包流。
- 流描述(Stream Description):为连接管理提供信息,如网络地址、编码格式和来源信息。
- 连接管理(Connection Management):建立发送方与接收方之间的音频流连接所需的程序和协议。