本帖最后由 mynew 于 2024-3-25 18:28 编辑
总是对数字表的标称精度用法模模糊糊,查看了34401A服务手册部分内容,整理了一下,如果有不对的,还请指出。
------------------------------------------- 常见的数字万用表精度指标表示方法是:%读数误差 + %量程误差。并且如果在校准温度(一般是23度正负5度)范围之外,还需要加上温度系数。
总误差就是两者相加的总和。通常将 总误差和输入信号的比值,用 % 或者 ppm 来表示。
以 DT4282 手持表 60VDC 量程为例,量程误差给出的方式是字数(分辨率)。
手册给出的指标是 ±0.025% rdg ± 2dgt,其意义如下:测量值的0.025%+0.002V 即为误差。
以测量10.000VDC信号为例,则
也即对于10.000V的信号的测量值的,仪表显示值界限为9.9955V~10.0045V。嗯,看来读数偏差范围蛮大的,在这之间都属于正常 。
那么问题来了:如果用万用表测得一个读数,如何推算出被测量信号是多少呢?
|