Как рассчитывается точность (погрешность) цифрового мультиметра?
Ответ: Точность мультиметра также называется некоторыми производителями погрешностью, которая обычно гласит: «в течение одного года с завода рабочая температура составляет 18 ~ 28 градусов (64 градуса по Фаренгейту ~ 82 градуса по Фаренгейту), а относительная влажность менее 80 процентов . , ±({{1{0}}.8 процентов показаний плюс 2 цифры)". Многие покупатели или пользователи не очень разбираются в этом и часто спрашивают. Здесь я предполагаю, что есть измеритель, в определенном диапазоне, например DC 200В, пишется так, измеренное значение показывает 10{{26} }.0 на счетчике, то в это время должно быть правильное значение. Я думаю, что для обычного пользователя вы можете полностью игнорировать расчет точности и напрямую думать, что это 100 В постоянного тока. Согласно расчету точности производителя, при измерении 100 В (отображение 100,0) погрешность составляет ±(0,8 процента *1000 плюс 2)=±10, то есть погрешность составляет 1,0 В. При подстановке показаний не учитывайте десятичную точку для отображения. Подставьте значение в расчет, добавьте десятичную точку к расчетному значению, а затем используйте исходное показание для перехода к фрахту, как в этом примере, тогда правильное значение 100,0±1,0, которое должно находиться в диапазоне от 99,0 до 101,0 В постоянного тока.
