Лекция 4. 2.3. Нормирование метрологических характеристик измерительных устройств

2.3. Нормирование метрологических характеристик измерительных устройств

Измерительные устройства допускаются к применению только в том слу­чае, если установлены нормы, – нормированы их метрологические характеристики. Сведения о них приводятся в технической документации на прибор. Посредством нормирования обеспечивается взаимозаменяемость средств измерений и единство измерений в государственном масштабе.

Реальные значения метрологических характеристик средств измерений определяются при их изготовлении, а затем периодически проверяются, а про­цессе эксплуатации. Выбор нормируемых характеристик зависит от вида средств измерений. Общий подход при нормировании характеристик состоит в том, что для всех нормируемых функций и значений устанавливаются номи­нальные функции и номинальные значения и пределы допускаемых отклонений (например, номинальная функция преобразования, номинальная функция влияния, номинальное значение информативного параметра на вы­ходе, номинальное значение постоянной времени и т. п.). Для остальных ха­рактеристик устанавливаются пределы допустимых значений.

Основная погрешность средства измерения нормируется путём установ­ления предела допускаемой абсолютной, относительной или приведенной по­грешности:

(15)

(16)

(17)

где: Х – входной сигнал измерительного устройства.

Способ задания пределов допускаемой основной погрешности для измерительных приборов и преобразователей определяется зависимостью их погрешности от значения измеряемой величины и требованиями простоты. Для приборов с аддитивной погрешностью предел допускаемой основной по­грешности нормируется абсолютной погрешностью (15), либо приведённой погрешностью (17). Для приборов с мультипликативной погрешностью предел допускаемой основной погрешности нормируется через относительную по­грешность (16).

Значение предела относительной или приведённой погрешности опреде­ляются из ряда предпочтительных чисел: [1; 1,5 (1,6); 2; 2,5 (3); 4; 5; 6] (18)

Числа 1,6 и 3 допускаются к применению, но не рекомендуются. Значение n принимаются равными: +1, 0, -1, -2, и т. д.

При нормировании основной погрешности учитывается тот факт, что положение реальной функции преобразования в пределах полосы, определяемой пределом допускаемой основной погрешности, изменяется за счёт действия влияющих величин, что вызывает случайную погрешность, определяемую размахом R (разностью между наибольшим и наименьшим значениями выходного сигнала). Обычно допускаемое значение размаха принимается меньшим половины предела допускаемой погрешности:

(19)

Дополнительная погрешность нормируется в тех случаях, когда при измерениях изменения влияющих величин в рабочей области основной погрешности превышает установленный для неё предел.

Измерительные устройства разделяются на классы точности. Класс точности трактуется, как обобщенная характеристика средств измерений, определяемая пределами допускаемых основной и дополнительной погрешности. Обозначение классов точности производится в зависимости от способов задания пределов допускаемой основной погрешности.

3. Повышение точности средств измерений

3.1. Классификация методов уменьшения погрешностей

Максимизация точности измерений при фиксированных затратах и обеспечение требуемой точности при минимальных затратах ресурсов — две основные, тесно связанные между собой задачи метрологии.

Возможные методы повышения точности измерений можно разделить на три группы:

1. совершенствование алгоритмов измерений;

2. применение вспомогательных измерений или образцовых сиг­налов и преобразований для введения поправок в результат изме­рения (коррекция);

3. совершенствование аппаратной части (конструкторско-технологические решения).

Первая группа методов ориентирована на уменьшение методи­ческих погрешностей. Во второй главе охарактеризован общий подход к решению этой проблемы, опирающийся на применение адекватных алгоритмов свыбором рациональных (в идеальном случае — оптимальных) значений управляемых параметров. Иначе говоря, эта группа методов решает задачу приведения вида алгоритма измерений в соответствие с априорной информацией о свойствах объектов измерений, условиях измерений, предъяв­ляемых требованиях и наложенных ограничениях.

Вторая группа методов, используя достижения первой, а также дополнительную информацию об условиях измерений и состоянии аппаратуры, получаемую с помощью вспомогательных измере­ний или образцовых сигналов и преобразований, позволяет умень­шить как методические, так и инструментальные погрешности.

Наконец, третья группа методов, связанная с совершенствованием конструкторско-технологических решений, обеспечиваю­щих повышение стабильности и соответствия реальных характе­ристик аппаратуры номинальным, позволяет уменьшить инстру­ментальные погрешности.


Рис. 9. Классификация методов повышения точности измерений

Повышение точности измерений - актуальная задача практически любых измерительных экспериментов. Для технологических измерений повышение точности измерений в настоящее время особенно важно в связи с переходом к широкому применению АСУ ТП, решающих задачи оптимизации технологических процессов. Задача повышения точности измерений неразрывно связана с задачей повышения точности измерительных устройств.

Для решения этих задач применяются различные методы, сущность которых кратко изложена далее. В силу того, что в настоящее время отсутствуют общепринятая классификация методов повышения точности измерений и средств измерений, а также общая терминология, в конспекте лекций используются классификация и терминология, приведенные на рис. 9 и 10.


Рис. 10. Классификация методов повышения точности средств измерения

Выше приведён анализ причин возникновения случайной и систематической составляющих погрешностей измерения. Принципиальное различие в причинах их возникновения и проявления определяет специфику методов уменьшения этих погрешностей.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: