为什么要开发AES67?

随着数字音频技术的迅猛发展,音频传输的质量、容量和延迟要求也越来越高。尤其是在广播、音乐制作、后期制作以及商业音频领域,如现场扩声等应用中,对音频传输的需求已经从传统的模拟或专有格式逐渐转向基于IP网络的数字化传输。由于每一家公司的音频协议都是私有的,需要一个统一的标准来实现互联互通。

模块特点DanteRAVENNAQSCLivewire
控制和监控私有协议HTTP, Ember+TCP, HTTPHTTP, 私有协议
发现私有协议Bonjour私有协议私有协议
连接管理私有协议RTSP, SIP, IGMP私有协议私有协议, HTTP, IGMP
会话描述私有协议SDP私有协议私有协议
传输私有协议, IPv4RTP, IPv4RTP, IPv4RTP, IPv4
服务质量DiffServDiffServDiffServDiffServ/802.1pq
编码和流式传输L16-32, ≤4 ch/flowL16-32, ≤64 ch/str32B-FP, <16 ch/strL24, st, surr
同步性PTP1588-2002PTP1588-2008PTP1588-2008私有协议
媒体时钟44.1kHz, 192kHz44.1kHz – 384kHz48kHz48kHz

高性能网络的需求

AES67协议的开发背景聚焦于高性能网络,目的是支持高质量(16-bit/48 kHz及以上)、大容量(多达数百个音频通道)以及低延迟(小于10毫秒)的数字音频传输。这些高要求的网络性能在局域网中是可以轻松实现的,同时也可以在企业级网络中实现。然而,虽然已有如RAVENNA等多种网络音频系统被开发用于高性能的媒体网络,但这些系统之间缺乏一个统一的、标准化的互操作性方案。因此,AES67的诞生旨在填补这一空白,通过识别和建议通用的协议和操作方式,来实现各大系统之间的互联互通。

标准应用场景

AES67标准的设计目的是为各类音频分发场景服务,尤其是在广播、音乐制作、后期制作等领域。此外,它也适用于商业音频应用,包括固定安装的音响系统和巡回演出的现场扩声系统。通过提供一致性和互操作性,AES67可以确保各类音频设备之间的顺畅沟通,解决了以往不同厂商设备之间无法兼容的问题。

任务组的成立与项目进展

AES67的开发始于2010年,AES(音频工程协会)成立了一个名为SC-02-12-H的标准化任务组,专门负责制定高性能专业音频IP网络的互操作性标准。该项目被指定为AES-X192,由Kevin Gross领导,他是媒体网络领域的资深专家,也是开创性CobraNet技术的发明者。在项目启动后,通过网络会议和面对面的讨论,任务组迅速聚集了100多位来自专业音频行业的顶尖公司和组织的专家,最终在2013年9月11日发布了超过40页的AES67标准草案。

标准的“成分”

为了实现真正的互操作性,AES67协议重点关注以下几个方面:

  • 同步(Synchronization):定义了通用时钟系统的机制。
  • 媒体时钟(Media Clocks):定义了哪些媒体时钟必须被支持,以及它们与通用时钟系统的关系。
  • 传输(Transport):描述了音频数据在网络中的传输方式。
  • 编码与流媒体(Encoding and Streaming):说明了音频如何被数字化和格式化为数据包流。
  • 流描述(Stream Description):为连接管理提供信息,如网络地址、编码格式和来源信息。
  • 连接管理(Connection Management):建立发送方与接收方之间的音频流连接所需的程序和协议。

DIGISYN LINK与AES67的关系

DIGISYN LINK 100% 完全符合AES67标准规范,在标准框架的基础上加入了完全的DSP处理能力。单个DIGISYN LINK设备可以实现所有的DSP处理功能,而且延时不逊色大部分数字调音台。

滚动至顶部