电路设计论坛
直播中

李桂兰

7年用户 1474经验值
私信 关注
[问答]

如何理解1LSB以内的模拟误差不会出现在输出端?

以模拟输入电压在0到3V之间,信号采用3比特数字代码进行量化为例。
因为满量程信号为3V,则量化步长大小为:Q=3V/2^3=0.375V
量化表如下表1-1所示
表1-1  量化表

   [tr]     数字代码     量化电平(V)     对应的模拟输入电压范围(V)    [/tr]         
0000.0[0.0,0.1875)
0010.375[0.1875,0.5625)
0100.75[0.5625,0.9325)
0111.125[0.9325,1.3125)
1001.5[1.3125,1.6875)
1011.875[1.6875,2.0625)
1102.25[2.0625,2.4375)
1112.265[2.4375,3]

参照量化表,如果某一时刻信号的幅度为0.375V,噪声为0,那么该模拟输入对应的量化编码为001。
但如果某一时刻信号被噪声污染,假定有用信号幅度仍为0.375V,噪声为0.2V rms,那么此时ADC的模拟输入信号幅度就有0.375V+0.2Vrms=0.575V,根据量化表ADC的输出就由001变为010。但是按照1LSB的模拟误差不会出现在输出端的理论,此时ADC的输出应仍为001才对。这似乎存在矛盾?

                                                               

更多回帖

发帖
×
20
完善资料,
赚取积分