|
关于原生1bit DSD硬解以及高保真音频重放的一些误解,在烧友中产生了一些讨论,对于其中有所混淆的地方,在此集中做一些梳理,供大家参考。
问题1:DSD源码的Native传输和DOP传输有何不同?
DSD源码的Native传输是直接把DSD数据流送出来。
DOP是把DSD源码分成一段一段的,把每一段装入PCM数据块中(因为PCM是以数据块的形式传输,不是以数据流),到了后端再从PCM数据块中把DSD数据卸下来,重新整队成为DSD数据流。
不管是Native还是DOP,最后获得的都是一模一样的DSD数据流。原理是一样的,只不过标准不同,核心还是DSD。
问题2:DSD数据在PCM的通道上传输DSD数据,是不是变成了PCM数据呢?
答案是否定的。
DOP只是一个协议,只是一个对DSD的包装,并没有改变任何DSD数据的信息。如同一个WAV文件,放到一个文件夹当中,把这个文件夹网络传给其它人,再从文件夹中拿出这个WAV文件,你认为这个WAV文件会跟原始的有不一样吗?
问题3:DSD数据在播放器取出来后,转成DOP了,再DOP成DSD,是不是会产生损失呢??
其实转这个词放在这里是不合适的,DSD放在DOP里面,简单的如同归类打包,而不是格式转换,就如同流行音乐文件放到流行音乐的文件夹里面一样。
所以DSD从文件中取出后,就打包成DOP的包,DOP的包就可以直接如PCM一样在PCM的所有通道里面传输,最后取出,从打包中取出DSD数据。不过这里强调一点,这个打包几乎没有计算过程,因为打包,取出过程没有任何的解压缩过程(只是加点DSD的标志信息),所以整个过程只是浪费了点带宽外,没有什么损失。如果直接一点的比喻的话,DSD如同没穿衣服的人,穿了套衣服就可以见世面(见世面如同在通道中自由传输),回家脱了衣服,人又没变。
DOP SPDIF的接收其实是跟PCM SPDIF接收是完全一样,可以直接使用任何PCM现有的芯片,不过要取出DOP数据,则需要有专门的芯片逻辑处理,这也是为什么同轴,AES支持 DOP的解码器不多的原因,因为要开发。
这个芯片逻辑其实很简单,DOP有DOP的头部信息,完全有别于PCM,只要看到这个头就是DSD数据,不是这个头就是PCM数据,仅此而已。如果是DSD数据,就把DSD数据取出来,这跟DA取PCM数据完全一致,没有任何转换。
对于DSD解码器来说,DSD原生的接口其实就两根线,一根数据线,一根时钟线。sacd对于DSD接口来说 其实就是2.8224MHZ的频率, 即每秒传2.8224M个数据位给DAC 。SPDIF DOP就是频率就是176.4KHZ, 实际有效的数据就是16bit(共24位,但高8位是DOP的标志信息,无用), 176.4khz*16=2.8224MHZ,所以两者完全对应,无需任何的转换,直接spdif传过来,就可以通过原生的DSD接口送给DSD DA。
有人说DOP是DSD2PCM,这其实是完全是名词偷梁换柱般的误解,没有理清一些基本的DSD传输过程所致。
问题4:原生DSD 解码与DA内部DSD转PCM解码有什么区别?
有些DA有Pure dsd原生模式,即没有经过西格马过程,但是这个过程一个问题,就是音量小于6db,同时无法控制音量,这就是原生解码,还有另外一种格式就是DA内部DSD转PCM,这种就跟PCM差不多,可以实现音量控制,音量与PCM一致,那种我们认为并不是原生解码。
如下红色图为CS4398的原生DSD通道,而另一条通道为DSD转PCM通道。
两种方式解码的声音是有所区别的:
问题5:个别厂家说DSD直解只有欧美顶级产品能实现,比如DCS? 说国内某些厂家也说自己是“直解”,显然是在玩文字游戏打擦边球,搞乱用户的思维?
SACD 的重放并不是一个新的技术,很多年前都已经存在,所以在CS4398,DSD179x时就在DA内部有一个Pure DSD通道,这并不是一个全新的技术。但是前几年的数播,并没有支持DSD,即使有支持DSD,如上个问题所说,它并没有利用起它的原生DSD通道,其实仍然在DA内部采用DSD转成PCM(因为DSD转PCM通道控制简单,无需切换,而且声音统一)。但是享声A280C起,全部有两种通道供选择,一种是DSD转PCM,一种是真正的原生1bit DSD重放,这个在开关前级时就能体现出两种模式在DSD重放时的巨大区别。享声在2013初年研发A200时也是这么认为的,所以才没有研发出真正原生DSD的播放器,对此我们深表理解。
问题6:什么是硬解,什么是软解?
在数字音乐重放当中,一般认为硬解就是CPU解码,即常见的操作系统,多线程或多进程解码,缺点就是容易受到其它任务中断,严重时会有断音或断流,即稳定性较差。
而硬解一般指全硬解解码,由FPGA或音频专门的DSP进行解码,稳定性高,只要输入到DSP或FPGA不断流或没有错误,中间是不会有其它不稳定的情况。
问题7:常见的数字音乐重放都是CPU+解码芯片,为何享声的架构要在CPU+解码芯片间串了一个FPGA呢?是不是多此一举?
首先肯定不是多此一举,因为普通消费级,包括现在的HI-FI手机方案,对声音品质要求不是极高,所以达到入门HI-FI级即可,这样CPU+HIFI级DA芯片确实就可以满足相当多的普通消费者的需求。但是,享声创立的目标不是,它是为极致音乐而开发出的Hi-END 方案,常见的CPU 数字质量非常差,严重影响了DA芯片的发挥,简单的来说,DA再是一个运动员,天天吃不好,也是发挥不出来的,毕竟CPU不是为HI-END音频所设计的。
在此说一下CPU的问题,因为CPU与DA芯片连接主要是一个音频协议I2S,它是一个标准的音频协议,DA的发挥好坏严重依赖于I2S的质量(一个带有时钟与数据,必且必需高精度同步的协议):
1.I2S信噪比过差,严重干扰到DA芯片的指标。
2.I2S时钟与数据同步不佳,或者时钟不精准,严重影响DA芯片的声音输出的稳定性。
问题8:享声采用了FPGA 双晶振架构,但是也看到很多其它厂家也有双晶振架构,有何不同?
首先,享声的FPGA+CPU的架构是2011年申请的国家专利,行业第一家。同时在这个架构上我们有五年的算法优化经验与大量的算法积累并未公开。 |
|