Погрешность средств измерений

От погрешностей, присущих средствам измерений, зависит погрешность результата измерений той или иной физической величины. Погрешность средства измерений есть разница между значением величины, полученной при помощи этого средства, и истинным значением измеряемой величины. Поскольку истинное значение величины не известно, на практике вместо него пользуются действительным значением величины, полученным при помощи более точного средства измерений.

Погрешности средств измерений могут быть классифицированы следующим образом:

- по характеру появления и причинам – систематические и случайные;

- по отношению к условию применения – основные и дополнительные;

- по способу (форме) числового выражения – абсолютные, относительные и приведенные.

Систематической погрешностью средства измерения называется составляющая погрешности, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Происхождение и характер этих погрешностей известен и выявляется в результате многократных измерений одной и той же величины. Влияние этих погрешностей исключается путем введением поправок, определяемых расчетным или опытным путем.

Случайной погрешностью средства измерения называется составляющая погрешности, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Она возникает в результате влияния на средства измерений таких случайных факторов как вибрация, наличие электромагнитных полей, изменение органов чувств наблюдателя. Они не могут быть исключены опытным путем. Для учета случайных погрешностей одну и ту же величину измеряют много раз данным средством измерений. К полученному ряду значений применимы теории вероятности и математической статистики, на основании которых оценивается случайная составляющая погрешности средств измерений.

Основная погрешность – это погрешность средства измерения, используемого в нормальных условиях, которые обычно определены в нормативно-технической документации на данное средство измерения.

Под дополнительными погрешностями понимают изменение погрешности средств измерений вследствие отклонения влияющих величин от нормальных значений.

Абсолютная погрешность измерительного прибора – это разность между показаниями прибора и истинным (действительным) значением измеряемой величины:

Х =

где ХП – показания прибора;

Хд – действительное значение измеряемой величины. За действительное значение измеряемой величины принимают показания образцового прибора.

Относительная погрешность прибора – это отношение абсолютной погрешности измерительного прибора к истинному (действительному) значению измеряемой величины, %:

Приведенная погрешность измерительного прибора - это отношение абсолютной погрешности измерительного прибора к нормирующему значению. нормирующее значение – условно принятое значение ХN, равное или верхнему пределу измерения, или диапазону измерений, или длине шкалы. Приведенную погрешность обычно выражают в %:

Точность СИ – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Класс точности СИ – это обобщенная характеристика данного типа СИ, как правило, отражающая уровень их точности, выражается пределами допускаемых основных и дополнительных погрешностей, а также другими характеристиками, влияющими на точность. Класс точности дает возможность судить о том, в каких пределах находится погрешность СИ данного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Класс точности средств измерений конкретного типа устанавливается в стандартах, технических условиях или других нормативных документах.

В соответствии с основными нормативами документации (ГОСТ 12997-76 «Государственная система промышленных приборов и средств автоматизации. Технические условия») основной метрологической характеристикой измерительного прибора является класс точности, который является обобщенной характеристикой средств измерений, определяющей пределы допускаемых основных и дополнительных погрешностей. Под пределом допускаемой погрешности понимается наибольшая (без учета знака) погрешность средства измерений при которой оно может быть признано годным к эксплуатации.

ГОСТ 8.401-80 регламентирует способы значения классов точности в зависимости от способа выражения пределов допускаемых погрешностей средств измерений. Этим стандартом предусматривается выражение предельно допускаемых погрешностей средств измерений в виде абсолютных и приведенных погрешностей.

Абсолютная погрешность выражается

(1)

или

, (2)

где - предел допускаемой абсолютной погрешности, выражаемой в единицах на входе (выходе);

а – положительное число, выраженное в тех же единицах, что и

х – значение величины на входе (выходе) средств измерений;

в - отвлеченное положительное число.

Относительная погрешность выражается формулой:

(3)

или

, (4)

где - предел допускаемой относительной погрешности %;

с,d – относительные величины;

хк – конечное значение диапазона измерения прибора.

Приведенную погрешность определяют по формуле:

(5)

где - предел допускаемой приведенной погрешности, %;

хN – нормирующее значение, равное или верхнему пределу измерений или диапазону измерений, или длине шкалы.

Для измерительных приборов предельные допускаемые погрешности которых выражены как приведенные погрешности согласно выражению (5), должны быть присвоены классы точности, выбираемые из ряда чисел:

(1; 1.5; 2; 2.5; 3; 4; 5; 6) 10n, где n = (1.0; 0; -1; -2; и т.д.) Класс точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Для измерительных приборов, предел допускаемых погрешностей которых выражается относительной погрешностью в процентах, согласно выражению (4) класс точности определяется совокупностью значений с и d. Тогда условные обозначения состоят из двух чисел, разделенных косой чертой и равных с и d.

Таким образом, для большинства применяемых в практике приборов используются одночленные или двучленные обозначения класса точности. Например, обозначение класса точности 0,5 показывает, что пределы допускаемых погрешностей выражаются в процентах нормирующего значения. Обозначение класса точности 0,1/0,2 означает что предел допускаемой относительной погрешности в процентах значения измеряемой величины определяется формулой

,

где с = 0,1 d = 0,02

Статические погрешности СИ возникают при измерении физической величины, принимаемой за неизменную. Динамические погрешности средств измерений возникают при измерении изменяющейся во времени (в процессе измерений) физической величины.

На обеспечение качества измерений направлено применение аттестованных методик выполнения измерений (МВИ) – ГОСТ 8.563-96 «ГСИ. Методики выполнения измерений».

Методика выполнения измерений – это совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с известной погрешностью. МВИ – это, как правило, документированная измерительная процедура. МВИ может быть изложена в отдельном документе (стандарте, рекомендации), разделе стандарта, части технического документа (разделе ТУ, паспорта).

Аттестация МВИ – процедура установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям. В документах, регламентирующих МВИ в общем случае указывают: назначение МВИ; условия выполнения измерений; требования к погрешности измерений; метод измерений; требования к средствам измерения, вспомогательным устройствам, материалам и т.п.; операции при подготовке к выполнению измерений; операции при выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности выполняемых работ.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: