2.3. Нормирование метрологических характеристик измерительных устройств
Измерительные устройства допускаются к применению только в том случае, если установлены нормы, – нормированы их метрологические характеристики. Сведения о них приводятся в технической документации на прибор. Посредством нормирования обеспечивается взаимозаменяемость средств измерений и единство измерений в государственном масштабе.
Реальные значения метрологических характеристик средств измерений определяются при их изготовлении, а затем периодически проверяются, а процессе эксплуатации. Выбор нормируемых характеристик зависит от вида средств измерений. Общий подход при нормировании характеристик состоит в том, что для всех нормируемых функций и значений устанавливаются номинальные функции и номинальные значения и пределы допускаемых отклонений (например, номинальная функция преобразования, номинальная функция влияния, номинальное значение информативного параметра на выходе, номинальное значение постоянной времени и т. п.). Для остальных характеристик устанавливаются пределы допустимых значений.
|
|
Основная погрешность средства измерения нормируется путём установления предела допускаемой абсолютной, относительной или приведенной погрешности:
(15)
(16)
(17)
где: Х – входной сигнал измерительного устройства.
Способ задания пределов допускаемой основной погрешности для измерительных приборов и преобразователей определяется зависимостью их погрешности от значения измеряемой величины и требованиями простоты. Для приборов с аддитивной погрешностью предел допускаемой основной погрешности нормируется абсолютной погрешностью (15), либо приведённой погрешностью (17). Для приборов с мультипликативной погрешностью предел допускаемой основной погрешности нормируется через относительную погрешность (16).
Значение предела относительной или приведённой погрешности определяются из ряда предпочтительных чисел: [1; 1,5 (1,6); 2; 2,5 (3); 4; 5; 6] (18)
Числа 1,6 и 3 допускаются к применению, но не рекомендуются. Значение n принимаются равными: +1, 0, -1, -2, и т. д.
При нормировании основной погрешности учитывается тот факт, что положение реальной функции преобразования в пределах полосы, определяемой пределом допускаемой основной погрешности, изменяется за счёт действия влияющих величин, что вызывает случайную погрешность, определяемую размахом R (разностью между наибольшим и наименьшим значениями выходного сигнала). Обычно допускаемое значение размаха принимается меньшим половины предела допускаемой погрешности:
(19)
Дополнительная погрешность нормируется в тех случаях, когда при измерениях изменения влияющих величин в рабочей области основной погрешности превышает установленный для неё предел.
|
|
Измерительные устройства разделяются на классы точности. Класс точности трактуется, как обобщенная характеристика средств измерений, определяемая пределами допускаемых основной и дополнительной погрешности. Обозначение классов точности производится в зависимости от способов задания пределов допускаемой основной погрешности.
3. Повышение точности средств измерений
3.1. Классификация методов уменьшения погрешностей
Максимизация точности измерений при фиксированных затратах и обеспечение требуемой точности при минимальных затратах ресурсов — две основные, тесно связанные между собой задачи метрологии.
Возможные методы повышения точности измерений можно разделить на три группы:
1. совершенствование алгоритмов измерений;
2. применение вспомогательных измерений или образцовых сигналов и преобразований для введения поправок в результат измерения (коррекция);
3. совершенствование аппаратной части (конструкторско-технологические решения).
Первая группа методов ориентирована на уменьшение методических погрешностей. Во второй главе охарактеризован общий подход к решению этой проблемы, опирающийся на применение адекватных алгоритмов свыбором рациональных (в идеальном случае — оптимальных) значений управляемых параметров. Иначе говоря, эта группа методов решает задачу приведения вида алгоритма измерений в соответствие с априорной информацией о свойствах объектов измерений, условиях измерений, предъявляемых требованиях и наложенных ограничениях.
Вторая группа методов, используя достижения первой, а также дополнительную информацию об условиях измерений и состоянии аппаратуры, получаемую с помощью вспомогательных измерений или образцовых сигналов и преобразований, позволяет уменьшить как методические, так и инструментальные погрешности.
Наконец, третья группа методов, связанная с совершенствованием конструкторско-технологических решений, обеспечивающих повышение стабильности и соответствия реальных характеристик аппаратуры номинальным, позволяет уменьшить инструментальные погрешности.
Рис. 9. Классификация методов повышения точности измерений
Повышение точности измерений - актуальная задача практически любых измерительных экспериментов. Для технологических измерений повышение точности измерений в настоящее время особенно важно в связи с переходом к широкому применению АСУ ТП, решающих задачи оптимизации технологических процессов. Задача повышения точности измерений неразрывно связана с задачей повышения точности измерительных устройств.
Для решения этих задач применяются различные методы, сущность которых кратко изложена далее. В силу того, что в настоящее время отсутствуют общепринятая классификация методов повышения точности измерений и средств измерений, а также общая терминология, в конспекте лекций используются классификация и терминология, приведенные на рис. 9 и 10.
Рис. 10. Классификация методов повышения точности средств измерения
Выше приведён анализ причин возникновения случайной и систематической составляющих погрешностей измерения. Принципиальное различие в причинах их возникновения и проявления определяет специфику методов уменьшения этих погрешностей.