Что мы понимаем под погрешностью измерений

В таблице 3 сведены различные ситуации применения термина «погрешность измерения».

Таблица 3

Ситуация Смысл термина «погрешность измерения».
Мы проводим научный эксперимент. С доверительной вероятностью 99% истинное значение измеряемой величины Xt лежит в интервале: Xe - 3σ <X<Xe+
Мы проектируем технологию При нормальных технологических режимах значения параметра не должны уходить за граничные (критические) значения. Чтобы достоверно определить это, измеренные значения должны отстоять от критических не менее чем на 3σ.Это и есть допустимая погрешность.
Мы проводим технические измерения. Нам заранее известна погрешность метода. Если мы точно воспроизводим метод измерения, можно считать, что погрешность равна погрешности метода. Например, измеряя длину стола линейкой с делением 1 мм, мы получим погрешность 1мм.

Способы представления погрешности

В зависимости от решаемых задач используются несколько способов представления погрешности:

· Абсолютная погрешность – измеряется в тех же единицах что и измеряемая величина. Характеризует величину возможного отклонения истинного значения измеряемой величины от измеренного.

· Относительная погрешность – отношение абсолютной погрешности к значению величины. Если мы хотим определить погрешность на всем интервале измерений, мы должны найти максимальное значение отношения на интервале. Измеряется в безразмерных единицах.

· Класс точности – относительная погрешность, выраженная в процентах. Обычно значения класса точности выбираются из ряда: 0,1; 0,5: 1,0; 1,5; 2,0; 2,5 …


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: