找回密码
 -注册-
查看: 2721|回复: 24

[长文] 重新理解:传输jitter、同步与异步、软件播放(更新完)

[复制链接]
发表于 2024-10-1 00:37 | 显示全部楼层 |阅读模式 来自 上海市浦东新区
本帖最后由 wxwxwx0 于 2024-10-2 12:59 编辑

本文目的是重新梳理以下主题,试图从一个整体视角来分析、理解它们之间的关系,并回应实践中遇到的各种问题:
jitter是什么?如何产生的、如何消除
同步与异步的传输
音频播放软件与架构;bit-perfect与实时性
“异步”是否真的解决问题?
理想与现实的指引


一、抖动
数字音频由两种成分构成:信号值(16/24bit字长)+ 时间轴(采样率)。要实现音频回放:信号值转回成电压、采样率转回成时间轴。
而抖动就是采样间隔的时间飘移,但我们关注的应该是最终回放时的抖动。

主要的抖动来源
1)时钟的固有抖动
2)数据读取产生的抖动
3)电源噪声、射频/电磁干扰引起的抖动
4)数字传输过程中的抖动

而数字传输过程中的抖动是本文的重点,又可分为以下:
1)线材本身引入的抖动
2)前端的电源噪声、电磁干扰“传导”到DAC
3)前端时钟系统的不稳定:尤其是各种同步传输方式,前端时钟的不稳定会“传导”到DAC
4)速率匹配(实时性/效率)问题:人们一般不会说这属于“抖动”,因此它的影响被低估了

关于抖动影响的误区
为什么强调 “最终回放时”的抖动?因为真正有意义的是DA转换后模拟信号的抖动。有一个很好的图解释了这一点(见参考⑤)
152231yz8tjzxmxmx11tqe.png

不是说只有DA部分存在抖动,而是无论哪一种因素,要看它如何影响了最终的模拟信号从而被听到。
ps: 也有人讲抖动时会包含DA转换时参考电压的抖动问题,这个不在本文讨论范围

抖动的类型
总体分为两种大类:随机抖动(Random Jitter) + 决定性抖动(Deterministic Jitter)。
决定性抖动下面又有一类叫相关性抖动(Data Dependant Jitter),也就是与音频数据本身有相关性的抖动。通常认为相关性抖动对声音的影响更大。
01jns11.gif

重点在于:不同因素产生的抖动,由于具有不同的(时域/频域)分布特征,对声音的影响(方面/程度)也是不同的。(但这方面研究和资料比较少,这也是为什么jitter一定程度上仍然处于玄学领域)

“但是你能听出来吗?”
应该换一种问法:jitter如果已经很小了,它还会明显影响(长时间的)听音体验吗?或者说它直接影响转盘的声音档次么?从实践中得到结论:是的
根据AES杂志的研究:16bit DAC高于120皮秒的P-P jitter,以及20bit DAC高于8皮秒的P-P jitter都是可以听到的。但实践中人们觉得这个门限应该远远更低。(见参考①)
实际中对声音的影响:通常认为会明显影响到结像(让声音失去“现场感”),以及明显影响到低频表现。

减少传输抖动的思路/技术实际中是各种手段的组合/叠加)
0)减少电源噪声、电磁干扰的影响:既要减少本地影响,又要隔离前端到后端的串扰
1)通过PLL来重构一个(相对于音源直接提供的)“更干净”的时钟;进而可以通过级联PLL来得到更好的结果
2)通过ASRC(Asynchronous Rate Converter)处理数据,使之“重新匹配”到DAC自己的时钟域
   -- 理论上一个很大的buffer就足以隔离不同的时钟域,但实际很少有这么做的
3)反过来以DAC的时钟域做主控,让前端被动地“送数据”,这就是所谓的异步(异步USB、常规的以太网方案)


二、同步与异步传输

音频传输与数字传输
首先应该区分音频传输与数字传输(尽管它们实际上都是数字):
SPDIF(光纤/同轴)、AES/EBU这种是实时的音频传输,单向协议(没有反馈通路)。接收器的时钟需要锁定在传输流上,因此前端的时钟不稳定会传导给DAC,最终可能引起jitter。
之所以说是音频传输,是因为总线的速率(基本上)就是音频采样率,因此总线不仅作为一种传输链路,它的速率本身也是要传输的信息。
而在数字传输领域,总线速率与数据完全无关,你传输的不是音频流而是数据包。

USB
USB本质上不是专用来传输音频数据的,USB的传输是以固定时间间隔形成一个帧,包含了发送给同一个Host控制器下的不同设备的若干个数据包。全速下每1ms±500μs生成一个帧;高速下每125us±0.0625μs生成一个帧。
音频传输采用了USB提供的一种专用模式:Isochronous(等时/同步传输)。这种模式一定程度上保证数据的实时性与带宽,而没有错误重传。

因为Isochronous本质上是实时传输,前端与后端的时钟需要保持一致,因而有了三种具体如何实现同步的方式:
1)同步 synchronous
2)自适应 adaptive
3)异步 asynchronous

在同步或自适应方式下,界面需要不断调节自己的时钟来跟随前端时钟。
而在异步/ASYNC方式下,USB界面要负责流控:自己决定前端的每个frame中应该发多少数据,使用一条额外的反馈通路将这个信息反馈给前端,前端以此被动“校准”自己的发送速率。
在参考
中也可以看到:对USB的驱动程序来说,异步方式唯一的区别只是 “下一个传输的数据量”的计算方法上有区别。

对数据传输来说,线材的抖动影响几乎可以忽略不计(尽管理论上线路抖动可以引起误码;这不等于线材对声音没有影响,但不是本文的重点);而“异步”的设计理论上又可以消除前端时钟的影响,让DAC完全按自己的时钟自由运行,看起来很美好?
但这里无论是同步还是异步,实际根本上都是“实时传输”。区别只在于系统的哪个环节在主导时钟,然后整个链路如何去做相应的速率匹配/流量控制。







 楼主| 发表于 2024-10-1 00:38 | 显示全部楼层 来自 上海市浦东新区
本帖最后由 wxwxwx0 于 2024-10-2 13:43 编辑

三、软件播放

bit-perfect
尽管jitter是不可避免的,但bit-perfect播放是相对容易的,从追求hifi的角度说:应该尽可能达到或者至少接近。
bit-perfect是指音频数据被送往音频设备(甚至送往DAC芯片)之前不被任何形式的DSP修改,包括音量控制、重混音、SRC(采样率转换)/升频处理、dither...
尽管DAC内部也通常会有超采样,但并不等于前面取得bit-perfect是无意义的。

如何确保(或接近)bit-perfect?
1)使用没有ASRC的DAC
2)驱动程序不修改数据
3)操作系统音频层不修改数据
  -- 对window来说就是选择WASAPI/ASIO,并且配置成exclusive mode(独占模式)
  -- 注意共享模式下哪怕只有一条音频流、采样率设置一致,最终声音也会加入dither,光这个就会影响音质
4)播放软件本身不修改数据(不使用任何音效处理、不做采样率转换等)

软件播放过程与音频架构(windows)
untitled_2.jpg
这是张有点老的图了,windows的音频架构自win vista开始就(大刀阔斧地)改成这样了,原本需要kernel mode完成的很多处理都搬到了应用层,并且有了WASAPI和exclusive mode、Audio Engine这些新的概念。
(windows应用层就能做很多比较核心的事情,而不用在应用进程/内核进程之间来回切换,这也是为什么我觉得windows比linux更有利于hifi)

首先 无论哪种播放软件,基本不会是播放软件自己控制播放,它只会根据设备or驱动(显性or隐性的)反馈来更新进度条。播放软件只负责解码文件到PCM,(经过内置音效处理)输出到一个应用级的buffer里(这个buffer可以很大)。
在shared mode(共享模式)下,音频会经过audio engine,不仅路径很长而且数据会不知不觉经历各种修改。而在exclusive mode下,应用通过wasapi与驱动直接交互。
而驱动程序(对usb来说)负责确定下一次发送多少数据、从endpoint buffer中读数据,然后在指定的时间节点打包发出去。

实时性问题
于是就有个问题:音频数据是如何从应用级buffer到了endpoint buffer呢?
WASAPI提供了两种方式:push模式和event模式。push模式下应用以固定的时间间隔轮询,询问下面要补多少数据,这个时间间隔会受到系统定时精度(10ms)的影响;而event模式下底层会通知应用,相当于下面直接从应用buffer中搬数据了。
应用本身大部分时间都处于睡眠状态,需要工作的时间点才被唤醒。push模式下它是被10ms精度的定时器唤醒,而event模式下是被下面的通知唤醒。
因此event模式是更实时、让音频的路径更直接的方式,event模式下endpoint buffer通常也很小只有几十ms(它保证了回放的总体低延迟)。

应用中用来访问endpoint buffer的线程通常需要很高的优先级(来保证实时性),windows系统提供了一套MMCSS(Multimedia Class Scheduler Service)方法让这些线程运行在高优先级。
要想取得最好的实时性,应该用尽可能好的音频设备/驱动,除此外还要保证系统运行时的低负载(比如音频无关的进程优先级尽可能低)。否则每次写入buffer的数据就会不及时、偏多/偏少。
而反过来说,对于播放软件来说,越是想有广泛的适用性、对音频设备的兼容性,它越是不能设计得对实时性要求太高。


四、异步能解决问题吗?
总的结论是:异步协议并不保证音质,优势并不在于异步设计而在于具体实现(Asynchronous mode is not better by design but by implementation.)
从现实角度,它确实能以相对更简单的方法达到相对更好的效果(简单说就是性价比高),因而受到开发者的普遍青睐。
而从理想出发,达到理想的效果取决于DAC如何构建出独立的时钟域。

减少传输jitter的手段再讨论
ASRC通过对输入数据重新采样+升频,完全抛弃了包含在原数据中的时钟信息,从而让本地时钟可以自由运行,实现时钟的隔离。
然而重采样+升频这种处理过程本身会引入数据失真:比如当原有码率低于新的采样率就要补0,原有码率高于新采样率就要合并...
因此人们经常觉得ASRC有声音不自然、高频发硬的问题。所以就算解码芯片内部有ASRC,好的方案也会选择绕开它。

有人会想到一个足够大FIFO就可以完全隔离时钟,但从两方面说:

一是会产生比较大的延迟,从设备的专业性、普遍通用性、用户体验的角度说,几乎不会有人愿意这么干;
二是方案的灵活性,完全隔离了前端时钟域就没法再接收同步信号,DAC只能做主控了,你前面再有牛x的转盘也没用了。

所以最后还是回到了PLL(锁相环)。于是USB界面通常也需要跟踪数据的速率,来合成一个新的时钟,而这个合成的具体做法决定了最终的效果。

因为PLL本身同步的过程就会产生jitter,所以当源信号本身质量非常好,再经过了性能一般的PLL电路之后就有可能会变差。(这也是为什么一些界面的“洗水”实际用起来觉得很鸡肋)

一些高级的机器会采用两个PLL级联,来获得更低jitter。这种方案先不说效果是否绝对出色,首先它基本不会用在中低端的DAC上。

而更为常规普遍的做法是PLL结合了FIFO:数据首先进入一个(不太大的)FIFO,然后接收芯片来合成时钟,而FIFO的指针也参与了合成时钟的过程,与此同时界面通过反馈通路告诉前端:下一次应该发多少数据。这样做的目的就是保证FIFO既不会溢出也不欠载,也就是说这仍然是一套速率匹配/流量控制机制。

转盘为什么还是会影响声音?
为什么两台数播jitter测量结果差不多,声音还是很不同?或者为什么pchifi的情况下:随便换个播放器/操作系统,动一动哪里的设置,声音也会有很大区别?

一种解释是:还是硬件与串扰问题,电源干扰或电磁/射频干扰(以无关于jitter的形式)传导给DAC从而影响了声音。甚至软件的实时性影响也有人解读为干扰,因为理论上数据发送速率的变化也会引起携带的无关噪声分布变化。
而实际上就算DAC已经隔离了前端干扰,你还是听得出这些变化。更为诡异的是:对于同一台DAC无论用usb(异步的;但没有很好的隔离)还是用光纤/蓝牙(同步的;但有天然的隔离),你会发现各种前端音源(以及不同播放软件+各种设定变化)对各种连接方式下声音的影响取向上是一样的!
这已经说明了:串扰不能解释一切,软件本身也会有影响,而且这种影响是相关于数据本身的。(消除隔离干扰当然也是重要的,这方面的内容可以看参考④、⑤)

而软件会产生什么样的影响,拿windows系统来说,分不同的情况看:
1)系统数字部分达到了bit-perfect这个前提下,你还是会发现不同的操作系统、不同的播放器(都以独占模式输出)、不同的播放器进程优先级、不同的设定(push/event模式、buffer大小):它们还是会影响声音...
2)没有达到bit-perfect情况下:比如说没有用独占模式音频流额外走了audio engine,那么调节audio engine的进程优先级也会影响声音;或者当外置声卡本身有混音器(尽管它实际没干啥),你去调节这个混音器的进程优先级它也会影响声音。并且这一类的声音影响还挺大的...
3)  除此外当软件的任一环节上有SRC或比较重的DSP处理,除了它们本身会影响声音,而且这种情况下你再去做别的优化调节,会发现那个调节带来的区别似乎更加放大了。
而所有软件上的这些影响,都并非是你预想的:产生了爆音中断什么的,而只是让音质非常稳定地更好、或非常稳定地更差...

这一切都是为什么呢?前面的内容其实已经给出解释:异步也无法做到根本隔离时钟域,而常规的方案往往又是技术上的折衷选择。
比如当FIFO成为PLL的一环,它就有速率匹配的问题,只要存在速率匹配就无法避免受实时性的影响。它当然比单纯的PLL更好(一定程度上减少了耦合)而且更灵活,比如当buffer大一点速率调节就会慢一点,可能听起来影响就小一点。
同时人们也推测这种实时性问题带来的影响,并不反映在jitter的量,而是改变了jitter的分布特征,这就是为什么设备jitter测量值通常也不能说明问题。
对于那些没有用PLL而是ASRC的方案,因为ASRC本身会修改数据,速率的不稳定会让这个修改数据的行为也更不稳定。


五、理想与现实


接近理想的思路
论坛里phoexi就说过接近理想的方案:
1)用IIS(HDMI IIS)传输,并选择有直通模式的解码比如rockna 26
2)选择自带高性能PLL的解码(精确锁相不需要缓冲 变成了同步锁相模式)比如DA2 8XR
两种方案具体谁更好也不一定,重点在于它代表了两种截然不同的方向:你是要提升解码,还是要提升前端。
通俗说要接近理想 那就是买买买:买超超旗舰的数播、超超旗舰的解码... 但也要买得聪明,因为瞅准了一个方向努力会更有效果。

另外本文的讨论也都是基于没有独立时钟的系统,如果有高性能的外部时钟,就可能会有更多(理想的)方向。

现实的思路
1)力所能及的情况下选择好的设备、硬件
    -- 可以尝试下专业级的设备,因为我发现(也可能是偏见)民用hifi级的器材经常会糊弄人,而专业级的往往不会
2)尽可能做好隔离,减少供电干扰和电磁干扰,这会起到很重要的保底作用
3)对于pchifi玩家:系统、软件的优化仍然是重要的。  
   -- 软件可能不如硬件重要,但是可以决定上限

4)USB(经常)未必是最好的传输方式;应该各种方式都多换着听听
5)独立界面,从前面的讨论就可以知道:独立界面要想真正发挥价值,它既应该比你的转盘更强,也要比解码自带界面更强...      
   -- 因此独立界面的现实意义在于 当你的系统已经基本定型了,再看看能不能补补
6)用网络的方案:我个人倒没什么经验和意见,但有人说过这样的话:usb都不能解决的问题,就别指望网络(这么复杂的东西)能解决了


参考

Jitter in Digital Audio Data Streams
https://www.positive-feedback.com/Issue43/jitter.htm

拒绝YY 从基础讲解USB/UAC运作原理
http://erji.net/forum.php?mod=viewthread&tid=1987631

Exclusive-Mode Streams
https://learn.microsoft.com/en-us/windows/win32/coreaudio/exclusive-mode-streams

网络和数播(专业数播/PC HIFI/树莓派)对声音的影响
http://erji.net/forum.php?mod=viewthread&tid=2344118

尝试从原理上说明为什么前端(PC或其他设备)会对异步USB产生影响
http://erji.net/forum.php?mod=viewthread&tid=2142522













回复

使用道具 举报

发表于 2024-10-1 08:22 来自手机 | 显示全部楼层 来自 湖北省
学习
回复

使用道具 举报

发表于 2024-10-1 09:54 来自手机 | 显示全部楼层 来自 广东省
Mark
回复

使用道具 举报

发表于 2024-10-1 10:16 来自手机 | 显示全部楼层 来自 广东省汕头市
学习收藏
回复

使用道具 举报

发表于 2024-10-1 10:28 | 显示全部楼层 来自 重庆市
LZ大作似乎还在进行,我先mark下

看了参考文章,高总那篇文章确实讲清楚了异步为什么依然会这么大影响
回复

使用道具 举报

发表于 2024-10-1 10:58 | 显示全部楼层 来自 广东省深圳市
实际上 01相同党 和误码党的主张,是同一个认识水平的一体两面。处于这个认识水平是会阻碍人真正理解为什么各种线材都影响声音,乃至玄学影响声音,乃至everthing counts。
但是必须承认绝大多数人还是处于这个认识水平,所以关于周边的话题再过20年恐怕也仍然是一个小众话题。毕竟全人类平均素养的提高肯定是一个漫长的过程。
而除此之外少数认真去学习 调研 实验的人,其观念最后基本都会趋同——噪声影响一切。并且噪声存在于一切环境。
回复

使用道具 举报

发表于 2024-10-1 11:12 来自手机 | 显示全部楼层 来自 北京市
不用研究,听就行了。
回复

使用道具 举报

发表于 2024-10-1 11:22 | 显示全部楼层 来自 陕西省西安市
cdzsz67 发表于 2024-10-1 10:58
实际上 01相同党 和误码党的主张,是同一个认识水平的一体两面。处于这个认识水平是会阻碍人真正理解为什么 ...

经典物理:只要不是绝对零度,就有布朗运动,啥都有噪声。
量子物理:本没有噪声,是测量导致的噪声
回复

使用道具 举报

发表于 2024-10-1 11:53 | 显示全部楼层 来自 广东省深圳市
HHYYTT 发表于 2024-10-1 11:22
经典物理:只要不是绝对零度,就有布朗运动,啥都有噪声。
量子物理:本没有噪声,是测量导致的噪声

量子物理没啥特殊的,一路探究噪声的原因,最后就会到量子层面
回复

使用道具 举报

发表于 2024-10-1 12:49 来自手机 | 显示全部楼层 来自 广东省汕头市
收藏了,支持lz
回复

使用道具 举报

发表于 2024-10-1 20:13 | 显示全部楼层 来自 北京市
好帖子,前排支持
回复

使用道具 举报

发表于 2024-10-2 10:25 来自手机 | 显示全部楼层 来自 湖南省长沙市
马可一下大作
回复

使用道具 举报

 楼主| 发表于 2024-10-2 13:00 | 显示全部楼层 来自 上海市浦东新区
全文更新完
回复

使用道具 举报

发表于 2024-10-2 14:23 | 显示全部楼层 来自 香港
支持
回复

使用道具 举报

发表于 2024-10-2 22:06 | 显示全部楼层 来自 上海市徐汇区
好文收藏
回复

使用道具 举报

发表于 2024-10-2 23:07 | 显示全部楼层 来自 广西南宁市
HHYYTT 发表于 2024-10-1 11:22
经典物理:只要不是绝对零度,就有布朗运动,啥都有噪声。
量子物理:本没有噪声,是测量导致的噪声

量子物理可不是打禅语,什么叫本没有噪声
回复

使用道具 举报

 楼主| 发表于 2024-10-3 13:07 | 显示全部楼层 来自 上海市浦东新区
本帖最后由 wxwxwx0 于 2024-10-3 13:08 编辑

开一下嘲讽模式:听得出各种类型线材差异、耳机魔改差异、无损格式差异,却认为软件对声音没有实质影响的:在我看来一律属于木耳
回复

使用道具 举报

发表于 2024-10-3 23:42 | 显示全部楼层 来自 江苏省苏州市
贴主牛掰炸裂!
我主观感觉坛子里的大家伙多数也许是达到玩器材的“玩家”这一水平,而这里贴主已经上升到在专业领域撰写小型论文的高度了。
贴主这么专业,想来应该是音频行业的从业者,比如工程师一类的人物吧,可以考虑往相应的专业期刊上发一发。
回复

使用道具 举报

 楼主| 发表于 2024-10-4 02:05 | 显示全部楼层 来自 上海市浦东新区

这里大部分知识其实还是现学现卖的,可以理解成一个综述

我不是音频行业的,倒是有几年网络方面的工作经验(搞路由器交换机这些),然而:

“用网络的方案:我个人倒没什么经验和意见”   

回复

使用道具 举报

您需要登录后才可以回帖 登录 | -注册-

本版积分规则

Archiver|手机版|粤icp备09046054号|耳机网-耳机大家坛

粤公网安备 44030602000598号 耳机大家坛、www.erji.net、网站LOGO图形均为注册商标

GMT+8, 2024-10-11 22:01

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表