double arrow

Метрологические характеристики средств измерений

Обозначение классов точности

Классы точности средств измерений

Понятие о точности измерений и средств измерений

Точность результата измерений – одна из характеристик качества измерений, отражающая близость к нулю погрешности результата измерений. т.е. близость результата измерений к истинному значению величины. Но если погрешность измерений можно количественно выразить в единицах измеряемой величины или в отношении погрешности к результату измерений, то точность измерений количественно непосредственно из результата измерений определить нельзя. Поэтому обычно говорят о высокой (средней, низкой) точности измерений в качественном отношении, ориентируясь на полученную при измерениях соответственно незначительную погрешность (среднюю, высокую).

Значение точности ε иногда определяют величиной, обратной модулю относительной погрешности:

ε = 1/ | δ |, (6.1)

где δ – относительная погрешность.

Если бы точность характеризовалась значением, обратным абсолютной погрешности, то имела бы соответствующую обратную погрешности единицу измерения, что неудобно в применении. Вот почему удобнее количественно оценивать точность измерений с помощью относительной погрешности измерений.

Точность средства измерений – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Считается, что чем меньше погрешность, тем точнее средство измерений.

При многократных измерениях их точность на практике определяют следующими характеристиками:

1) равноточные измерения: сходимость результатов измерений – близость друг к другу результатов измерений одной и той же величины, выполненных повторно одними и теми же средствами, одним и тем же методом в одинаковых условиях и с одинаковой тщательностью;

2) неравноточные измерения: воспроизводимость результатов измерений – близость результатов измерений одной и той же величины, полученных в разных местах, разными методами, разными средствами, разными операторами, в разное время, но приведенных к одним и тем же условиям измерений (температуре, давлению, влажности и др.).

Класс точности средств измерений – обобщенная характеристика данного типа средств измерений, как правило, отражающая уровень их точности, выражаемая пределами допускаемых основной и дополнительных погрешностей, а также другими характеристиками, влияющими на точность.

Класс точности дает возможность судить о том, в каких пределах находится погрешность средства измерений одного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Это важно при выборе средств измерений в зависимости от заданной точности измерений.

Для установления классов точности средств измерений во многих странах применяются общие правила, в соответствии с которыми производится количественная оценка гарантированных границ погрешности средств измерений данного типа. В нашей стране такие правила содержатся в ГОСТ 8.401-80 «Классы точности средств измерений. Общие требования». Класс точности не устанавливается на средства измерений, у которых отдельно нормируются систематическая и случайная составляющие основной погрешности, и в тех случаях, когда динамические погрешности являются превалирующими. Кроме того, классы точности не устанавливаются на средства измерений, при использовании которых поправки в результаты измерений с целью исключения дополнительных погрешностей вносить не предусматривается.

Классы точности указываются в частных стандартах (технических условиях), содержащих конкретные технические требования к тем или иным типам средств измерений. Если средство измерения предназначено для измерений нескольких величин (например, для измерения электрических напряжения и сопротивления), то класс точности определяется для каждой из величин. Так же определяется класс точности для средств измерений, имеющих несколько диапазонов измерений: каждый диапазон имеет свой класс точности.

Присваиваются классы точности средствам измерений при их разработке (по результатам приемочных испытаний). В связи с тем, что в процессе эксплуатации средств измерений их метрологические характеристики обычно ухудшаются, то допускается понижать класс точности по результатам поверки (калибровки) средства измерения.

Класс точности измерительных приборов в большинстве случаев выражается пределами допускаемой основной приведенной или относительной погрешности. При этом основной для определения формы представления класса точности прибора является характер изменения основной абсолютной погрешности средства измерений:

1) если основная абсолютная погрешность имеет аддитивный характер (Δ = а), то класс точности представляется пределами допускаемой приведенной погрешности γ, %:

γ = ± (Δ / ХN) · 100 % = ± р, (6.2)

где р – отвлеченное положительное число;

ХN – нормирующее значение, выраженное в тех же единицах, что и Δ;

2) если основная абсолютная погрешность имеет мультипликативный характер (Δ = bх), то класс точности представляется пределами допускаемой относительной погрешности δ, %:

δ = ± (Δ / х) · 100 % = ± q, (6.3)

где х – показания средства измерений (без учета знака);

q – отвлеченное положительное число;

3) если основная абсолютная погрешность имеет и аддитивную, и мультипликативную составляющие (Δ = а + bх), то класс точности представляется пределами допускаемой относительной погрешности δ, %:

δ = ± [с + d(|XК / x| – 1)], % (6.4)

где ХК – больший (по модулю) из пределов измерений;

c и d – положительный числа.

В некоторых случаях класс точности представляется пределами допускаемой основной абсолютной погрешности Δ, определяемыми по формулам:

Δ = ± а (6.5)

или

Δ = ± (а + bx), (6.6)

где а и b – положительные числа, не зависящие от х.

Положительные числа p, q, c, d выбираются из ряда 1·10n; 1,5·10n; (1,6·10n); 2·10n; 2,5·10n; (3·10n); 4·10n; 5·10n; 6·10n (n = 1, 0, -1, -2 и т.д.). Значения, указанные в скобках, не устанавливают для вновь разрабатываемых средств измерений.

На практике редко случается, когда абсолютная погрешность чисто аддитивна или чисто мультипликативна. Поэтому класс точности в виде формулы (6.2) устанавливается, когда мультипликативной составляющей можно пренебречь, а в виде (6.3) – когда несущественна аддитивная составляющая.

В обоснованных случаях, если пределы допускаемой основной погрешности не могут быть приведены к формулам (6.2)…(6.6), допускается класс точности устанавливать в виде более сложных формул или в виде графика.

От формы выражения пределов допускаемой погрешности средства измерений зависит способ их определения, а также обозначение класса точности на средстве измерений и в документации. Примеры обозначений классов точности и методы определения пределов допускаемых погрешностей средств измерений приведены в таблице 6.1.

Если пределы допускаемой основной погрешности выражены в форме абсолютной погрешности средства измерения, то класс точности в документации и на сред­стве измерения обозначается прописными буквами латинского ал­фавита римскими цифрами, причем меньшие пределы погрешностей должны соответствовать буквам, находящимся ближе к началу алфавита, или меньшим цифрам. Подобным же образом обо­значаются классы точности средств измерений, для которых пре­делы допускаемой основной погрешности установлены в виде фор­мулы, таблицы, графика, не соответствующих формулам (6.2)... (6.6). Соответствие букв значению абсолютной погрешности рас­крывается в технической документации на соответствующие сред­ства измерений.

Таблица 6.1

Форма выражения погрешности Обозначение класса точности Способ определения пределов допускаемой основной погрешности Пределы допускаемой основной погрешности, % Пояснение
в документации на средстве измерений
           
Приведенная погрешность, γ Класс точности 1,5 1,5 По формуле (6.2) (нормирующее значение ХN выражено в единицах измеряемой величины) γ = ± 1,5 Числовое значение погрешности в единицах измерения (Δ) равно: ± 1,5 % или
  Класс точности 0,5 0,5 По формуле (6.2) (если нормирующее значение ХN принято равным длине шкалы или ее части – существенно нелинейные шкалы) γ = ± 0,5 ± 0,5 % от ХN соответственно
Относительная погрешность, δ Класс точности 0,5 По формуле (6.3) δ = ± 0,5 Числовое значение погрешности в единицах измерения (Δ) равно: ± 0,5 % от х (измеренного значения)

Продолжение таблицы 6.2

           
  Класс точности 0,02/0,01 0,02 / 0,01 По формуле (6.4) δ = ± [0,02 + +0,01(|XK /x| – – 1)] Числовое значение погрешности в единицах измерения (Δ) равно: полученное значение δ (%) от х (измеренное значение): ± δ % от х
Абсолютная погрешность, Δ Класс точности М М По формулам (6.5) и (6.6)

Обозначение класса точности обычно не наносится на малога­баритные высокоточные меры (например, эталонные разновесы) или на те средства измерений, для которых классы точности не устанавливаются. Так, для многих типов радиоизмерительных при­боров (генераторы высокочастотных и низкочастотных колебаний, электронно-счетные частотомеры, осциллографы и др.) в техниче­ском описании, паспорте, технических условиях указываются фор­мулы, позволяющие определить систематическую, случайную или общую погрешность в соответствующем диапазоне измерений с учетом влияющих величин и др. На приборе класс точности в этих случаях не указывается (не устанавливается).

Пределы допускаемой дополнительной погрешности непосредст­венно не учитываются при установлении класса точности средства измерения, но в соответствии с ГОСТ 8.009-84 и ГОСТ 8.401-80 предусматривается их нормирование и указание в технической до­кументации:

- в виде постоянного значения влияющей величины (в пределах рабочих условий средства измерения) или в виде постоянных зна­чений по интервалам влияющей величины в рабочей области;

- путем указания отношения предела допускаемой дополнитель­ной погрешности, соответствующего интервалу значений влияющей величины в интервале рабочих условий средства измерения, к этому интервалу;

- путем указания функциональной зависимости пределов допус­каемых отклонений от номинальной функции влияния.

Пределы допускаемой дополнительной погрешности устанав­ливают обычно в виде дольного (кратного) значения допускаемой основной погрешности средства измерения.

Пределы допускаемых погрешностей разрешается выражать не более чем двумя значащими цифрами, причем округление погреш­ности при установлении пределов не должно превышать 5 %.

При использовании средств измерений принципиально важно знать степень соответствия информации об измеряемой величине, содержащейся в выходном сигнале, ее истинному значению, т.е. владеть информацией о точности средства измерений и получаемого результата измерений. С этой целью для каждого средства измерений вводятся и нормируются определенные метрологические характеристики.

Метрологические характеристики – это характеристики свойств средства измерений, оказывающие влияние на результат измерения и его погрешности.

Нормируемые метрологические характеристики средства измерений – совокупность метрологических характеристик данного типа средств измерений, устанавливаемая нормативными документами на средства измерений.

Действительные метрологические характеристики средства измерений – совокупность метрологических характеристик данного типа средств измерений, определяемые экспериментально.

Номенклатура метрологических характеристик, правила выбора комплексов нормируемых метрологических характеристик для средств измерений и способы их нормирования определяются стандартом ГОСТ 8.009-84 «ГСИ. Нормируемые метрологические характеристики средств измерений».

Метрологические характеристики средств измерений позволяют:

- определять результаты измерений и рассчитывать оценки характеристик инструментальной составляющей погрешности измерения в реальных условиях применения средств измерений;

- рассчитывать метрологические характеристики каналов измерительных систем, состоящих из ряда средств измерений с известными метрологическими характеристиками;

- производить оптимальный выбор средств измерений, обеспечивающих требуемое качество измерений при известных условиях их применения;

- сравнивать средства измерений различных типов с учетом условий применения.

К основным метрологическим характеристикам средств измерений можно отнести:

- функция преобразования F(X). Данная функция нормируется для измерительных преобразователей и приборов с неименованной шкалой или со шкалой, отградуированной в единицах, отличных от единиц входной величины. Она задается в виде формулы, таблицы или графика и используется для определения значений измеряемой величины Х в рабочих условиях применения средств измерений по известному значению информативного параметра его выходного сигнала: Х = F-1(Y), F-1 – функция, обратная функции преобразования; Y – показания средства измерений;

- значение Y однозначной или значение Yi многозначной меры. Для этих характеристик нормируются номинальные или индивидуальные значения. Они используются для устройств, применяемых в качестве мер;

- цена деления шкалы измерительного прибора или многозначной меры. Нормирование цены деления производится для показывающих приборов с равномерной шкалой, функция преобразования которых отображается на именованной шкале. При неравномерной шкале нормируется минимальная цена деления;

- характеристики цифрового кода, используемого в средствах измерений и их элементах. К ним относятся: вид выходного кода, число его разрядов, цена единицы младшего разряда. Эти характеристики нормируются для цифровых приборов.

Точностные характеристики средства измерений – совокупность метрологических характеристик средства измерений, влияющих на погрешность измерения. К точностным характеристикам относят погрешность средства измерении, нестабильность, порог чувствительности, дрейф нуля и др.

Рассмотрим одну из таких характеристик – чувствительность средства измерений.

Чувствительность средства измерений – свойство средства измерений, определяемое отношением изменения выходного сигнала этого средства к вызывающему его изменению измеряемой величины. Различают абсолютную и отно­сительную чувствительность. Абсолютную чувствительность определяют по формуле:

S = Dl / Dx, (6.7)

относительную чувствительность – по формуле:

S0 =Dl / Dx / x, (6.8)

где D1 – изменение сигнала на выходе;

х – измеряемая величина;

Dх – изменение измеряемой величины.

Порог чувствительности средства измерений – характеристика средства измерений в виде наименьшего значения изменения физической величины, начиная с которого может осуществляться ее измерение данным средством.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



Сейчас читают про: