В результате воздействия большого числа факторов, влияющих на изготовление и эксплуатацию средств измерений, показания приборов отличаются от истинных значений измеряемых ими величин. Эти отклонения характеризуют погрешность средств измерений. Погрешности СИ в отличие от погрешности измерений имеют другую физическую природу, так как они от носятся к СИ, с помощью которого осуществляют измерение. Они являются лишь составной частью погрешности измерения.
Классификация погрешностей средств измерений в зависимости от разных признаков:
В понятия абсолютной , относительной , систематической и случайной погрешностей вкладывается тот же смысл, что и в понятия погрешностей измерений.
Приведенная погрешность средства измерений равна отношению абсолютной погрешности прибора ΔХ к некоторому нормирующему значению X N:
γ = ΔX/X N или γ = 100% ΔХ/X N .
Таким образом, приведенная погрешность является разновидностью относительной погрешности прибора. В качестве нормирующего значения X N принимают диапазон измерений, верхний предел измерений, длину шкалы и др.
Основная погрешность - погрешность средства измерений, используемого в нормальных условиях. При эксплуатации СИ на производстве возникают значительные отклонения от нормальных условий, вызывающие дополнительные погрешности.
Нормальными условиями для линейных измерений считаются:
Температура окружающей среды 20°С
Атмосферное давление 101325 Па (760 мм рт.ст.)
Относительная влажность окружающего воздуха 58%
Ускорение свободного падения 9,8 м/с
Направление линии и плоскости измерения - горизонтальное
Относительная скорость движения внешней воздушной среды равна нулю.
В тех случаях, когда средство измерения применяется для измерения постоянной или переменной во времени величины, для его характеристики используют понятия статическая и динамическая погрешности соответственно. Динамическая погрешность определяется как разность между погрешностью измерения в динамическом режиме и его статической погрешностью, равной значению величины в данный момент времени. Динамические погрешности возникают вследствие инерционных свойств средств измерения.
Для рассмотрения зависимости погрешности средства измерения от значения измеряемой величины используют понятие номинальной и реальной функций преобразования - соответственно Y = fн (Х) и Y = fр(X).
Номинальная функция преобразования приписана измерительному устройству, указывается в его паспорте и используется при выполнении измерений.
Реальной функцией преобразования называют ту, которой обладает конкретный экземпляр СИ данного типа.
Реальная функция преобразования имеет отклонение от номинальной функции и связана со значением измеряемой величины. Систематическую погрешность в функции измеряемой величины можно представить в виде суммы погрешности схемы, определяемо самой структурной схемой средства измерений, и технологических погрешностей, обусловленных погрешностями изготовления его элементов. Технологические погрешности принято разделять на аддитивную, мультипликативную, гистерезиса и линейности.
Аддитивной погрешностью (получаемой путем сложения), или погрешностью нуля, называют погрешность, которая остается постоянной при всех значениях измеряемой величины.
Мультипликативная погрешность (получаемая путем умножения), или погрешность чувствительности СИ, линейно возрастает или убывает с изменением измеряемой величины. В большинстве случаев аддитивная и мультипликативная составляющие присутствуют одновременно.
Погрешность гистерезиса, или Погрешность обратного хода, выражается в несовпадении реальной функции преобразования при увеличении (прямой ход) и уменьшении (обратный ход) измеряемой величины. Если взаимное расположение номинальной и реальной функций преобразования средства измерений вызвано нелинейностью, то эту погрешность называют погрешностью линейности .
В разных точках диапазона средств измерений погрешность может принимать различные значения. В этом случае необходимо нормировать пределы допускаемых погрешностей, т.е. устанавливать границы, за пределы которых погрешность не должна выходить ни при изготовлении, ни в процессе эксплуатации. Для этого служит класс точности СИ.
Класс точности - это обобщенная характеристика, определяемая пределами допускаемых основных и дополнительных погрешностей, а также другими свойствами, влияющими на точность, значения которых устанавливают в стандартах на отдельные виды средств измерений.
Способы установления классов точности изложены в ГОСТ 8.401 “ГСИ. Классы точности средств измерения. Общие требования”. Стандарт не распространяется на средства измерений, для которых предусматриваются раздельные нормы на систематическую и случайные составляющие, а также на средства измерений, для которых нормированы номинальные функции влияния, а измерения проводятся без введения поправок на влияющие величины. Классы точности не устанавливаются и на средства измерений, для которых существенное значение имеет динамическая погрешность.
Класс точности не является непосредственным показателем точности измерений, так как точность измерений зависит еще от метода и условий измерений.
В зависимости от вида погрешности средства измерений существует несколько способов нормирования погрешности.
Если аддитивная погрешность СИ преобладает над мультипликативной, удобнее нормировать абсолютную или приведенную погрешности соответственно:
ΔХ = ±α ΔX/X N = ±p.
Нормирование по абсолютной погрешности не позволяет сравнивать по точности приборы с разными диапазонами измерений, поэтому принято нормировать приведенную погрешность, где р - отвлеченное положительное число, выбираемое из ряда
(1,5; 2; 2,5; 4; 5; 6) 10* (п = 1, О, - 1, - 2 и т.д.);
X N - нормирующее значение, равное конечному значению шкалы прибора, диапазону измерений или длине шкалы, если она нелинейная.
Если мультипликативная погрешность преобладает над аддитивной, то нормируется предел допускаемой относительной погрешности:
δ = ΔX/X N =±q,
где q - отвлеченное положительное число, выбираемое из ряда, приведенного для р.
При одновременном проявлении аддитивной и мультипликативной погрешностей нормируется предел относительной или абсолютной погрешностей, определяемых формулами соответственно:
,
где Хк - конечное значение шкалы прибора; с и d - положительные числа, выбираемые из ряда, приведенного для р; Xизм - значение измеряемой величины на входе(выходе) средств измерений или число делений, отсчитанных по шкале; а и b положительные числа, не зависящие от Xизм.
Обозначение классов точности в документации и на средствах измерений приведены в табл.
Если пределы допускаемой погрешности средств измерений задаются в виде графиков, таблиц или в сложной форме, то классы точности обозначаются римскими цифрами или прописными буквами латинского алфавита.
Регулировка и градуировка средств измерений
В большинстве случаев в измерительном приборе (преобразователе) можно найти или предусмотреть такие элементы, вариация параметров которых наиболее заметно сказывается на его систематической погрешности, главным образом погрешности схемы, аддитивной и мультипликативной погрешностях.
В общем случае в конструкции измерительного прибора должны быть предусмотрены два регулировочных узла: регулировка нуля и регулировка чувствительности . Регулировкой нуля уменьшают влияние аддитивной погрешности, постоянной для каждой точки шкалы, а регулировкой чувствительности уменьшают мультипликативные погрешности, меняющиеся линейно с изменением измеряемой величины. При правильной регулировке нуля и чувствительности уменьшается и влияние погрешности схемы прибора. Кроме того, некоторые приборы снабжаются устройствами для регулировки погрешности схемы (пружинные манометры).
Таким образом, под регулировкой средств измерения понимается совокупность операций, имеющих целью уменьшить основную погрешность до значений, соответствующих пределам ее допускаемых значений, путем компенсации систематической составляющей погрешности средств измерений, т.е. погрешности схемы, мультипликативной и аддитивной погрешностей.
Градуировкой называется процесс нанесения отметок на шкалы средств измерений, а также определение значений измеряемой величины, соответствующих уже нанесенным отметкам, для составления градуировочных кривых или таблиц.
Различают следующие способы градуировки:
- использование типовых (печатных) шкал , которые изготовляются заранее в соответствии с уравнением статической характеристики идеального прибора;
- индивидуальная градуировка шкал . Индивидуальную градуировку шкал осуществляют в тех случаях, когда статическая характеристика прибора нелинейна или близка к линейной, но характер изменения систематической погрешности в диапазоне измерения случайным образом меняется от прибора к прибору данного типа так, что регулировка не позволяет уменьшить основную погрешность до пределов ее допускаемых значений. Индивидуальную градуировку проводят в следующем порядке. На предварительно отрегулированном приборе устанавливают циферблат с еще не нанесенными отметками. К измерительному прибору подводят последовательно измеряемые величины нескольких наперед заданных или выбранных значений. На циферблате нанося отметки, соответствующие положениям указателя при этих значениях измеряемо величины, а расстояния между отметками делят на равные части. При индивидуальной градуировке систематическая погрешность уменьшается во всем диапазоне измерения, а в точках, полученных при градуировке, она достигает значения, равного погрешности обратного хода;
- градуировка условной шкалы . Условной называется шкала, снабженная некоторыми условными равномерно нанесенными делениями, например, через миллиметр или угловой градус. Градуировка шкалы состоит в определении при помощи образцовых мер или измерительных приборов значений измеряемой величины соответствующих некоторым отметкам, нанесенным на ней. В результате определяют зависимость числа делений шкалы, пройденных указателем, от значений измеряемой величины. Эту зависимость представляют в виде таблицы или графика. Если необходимо избавиться и от погрешности обратного хода. Градуировку осуществляют раздельно при прямом и обратном ходе.
Основная инструментальная погрешность находится по классу точности СИ. Например, при нормальных условиях щитовым электромагнитным вольтметром класса точности 1,5 (т. е. имеющим предел основной приведенной погрешности γ п, не превышающий ±1,5 %) с диапазоном измеряемых значений 0...300 В (нормирующее значение Х н = 300 В) получен результат измерения действующего значения напряжения U= 220 В. Требуется определить предельные значения абсолютнойΔ и относительной δ инструментальных погрешностей результата измерения U.
Оценим предельное значение основной абсолютной погрешности Δ:
Δ = γX к /100 = ±1,5·300/100 = ±4,5В.
Предельное значение основной относительной погрешности δ:
δ = Δ100/U = ±4,5·100/220 ≈ ±2,0%.
Расчет суммарной погрешности результата измерения в общем случае предполагает нахождение максимально возможного числа составляющих (основной, дополнительной, методической, взаимодействия и т.д.).
Дополнительная погрешность возникает при работе СИ (в частности, прибора) не в нормальных, а в рабочих условиях, когда одна или несколько влияющих величин выходят за пределы области нормальных значений (но находятся внутри диапазона рабочих значений).
Влияющая величина (ВВ) – это такая физическая величина β, которая не измеряется в данном эксперименте, но влияет на результат измерения или преобразования. Например, в эксперименте по измерению тока в электрической цепи некоторые другие физические величины (температура окружающей среды, атмосферное давление, относительная влажность воздуха, электрические и магнитные поля, напряжение питания СИ) являются влияющими величинами. Конечно, если мы измеряем температуру окружающей среды, то температура в данном эксперименте есть измеряемая величина.
Влияющие величины в общем случае могут меняться в довольно широких диапазонах. При оценке работоспособности СИ в различных условиях воздействия окружающей среды различают три области возможных значений ВВ:
Область нормальных значений ВВ (при этом значение ВВ находится в пределах заранее оговоренных – нормальных – значений);
Область рабочих значений ВВ (при этом значение ВВ находится в диапазоне своих рабочих значений);
Область значений ВВ, при которых возможны хранение или транспортировка СИ.
С точки зрения оценки инструментальных погрешностей нас интересуют лишь первые две области (рис. 1.11). Область нормальных значений ВВ обычно задается симметричным относительно номинального значения β 0 диапазоном β 1… β 2 . В этом диапазоне возможных значений ВВ условия применения СИ считаются нормальными (НУ) и при этом имеет место только основная погрешность СИ.
Рис. 1.11. Значения влияющей величины, условия применения и погрешности средств измерений.
Областью рабочих значений называется более широкий диапазон возможных изменений ВВ, в котором СИ может нормально использоваться. Границы этого диапазона задаются нижним β н и верхним β в предельными значениями ВВ, соответственно. В этом диапазоне значений ВВ условия применения СИ называются рабочими (РУ) и при этом имеет место не только основная, но еще и дополнительная погрешность. Таким образом, при работе в пределах рабочих условий, но за пределами нормальных, общая инструментальная погрешность складывается уже из основной и дополнительной составляющих.
Например, для самой важной практически во всех измерительных экспериментах ВВ – температуры окружающей среды – область нормальных (для России) значений и, следовательно, нормальных условий применения СИ в большинстве обычных технических измерительных экспериментов составляет (20 ± 5) °С или (20 ± 2) °С.
Области нормальных значений не являются постоянными, а зависят от особенностей выполняемых измерений, измеряемых величин, классов точности СИ. Например, чем точнее СИ, тем уже требуемый диапазон нормальных температур. Для мер электрического сопротивления высшего класса точности (0,0005; 0,001; 0,002) допустимое отклонение температуры от номинального значения составляет, соответственно, ±0,1 °С; ±0,2 °С; ±0,5 °С. Для зарубежных приборов часто за номинальное принимается значение температуры +23 °С.
Области нормальных значений ВВ в специальных измерениях оговариваются отдельно в описании СИ или в методиках проведения измерений.
Диапазоны рабочих условий эксплуатации для СИ разного назначения различны. Скажем, для СИ лабораторного применения это может быть диапазон температур 0...+40 °С.
Для СИ промышленного применения области рабочих значений ВВ являются более широкими, чем, скажем, для лабораторных СИ. Измерительная аппаратура военного назначения имеет еще более широкие области рабочих значений ВВ.
Условия хранения допускают наиболее широкие диапазоны значений ВВ. Например, для основного параметра окружающей среды – температуры – в паспорте на прибор может быть записано: «...диапазон рабочих температур: 0...+40 °С, диапазон температур хранения: –10...+60°С».
Зная класс точности, коэффициенты влияния окружающей среды (например, температурный коэффициент), а также коэффициенты влияния неинформативных параметров измеряемых сигналов (например, частоты периодического сигнала напряжения при измерении действующего значения), можно оценить значение дополнительной погрешности и затем найти суммарную инструментальную, сложив основную и дополнительную составляющие.
Рассмотрим пример нахождения оценки дополнительной составляющей инструментальной погрешности на примере влияния только одной (но самой важной и, к счастью, наиболее легко определяемой) ВВ – температуры. Допустим, после выполнения эксперимента по классу точности миллиамперметра найдена его основная инструментальная погрешность Δ о = ±1,0 мА; температура в ходе эксперимента была зафиксирована +28°С. Температурный коэффициент в паспорте на прибор определен таким образом: «...дополнительная погрешность на каждые 10 °С отличия от номинальной температуры +20 °С равна основной погрешности в пределах изменения температуры окружающей среды от 0 до +50 °С». Тогда предельное значение дополнительной абсолютной погрешности Δ д в данном случае определяется следующим образом:
Δ д = Δ о (28 – 20)/10 = ±1,0·8/10 = ±0,8 мА.
Составляющая погрешности измерений, обусловленная свойствами применяемых средств измерений (далее СИ), называется инструментальной погрешностью измерения. Эта погрешность является важнейшей метрологической характеристикой СИ и определяет, насколько действительные свойства средств измерений близки к номинальным.
Согласно ГОСТ 8.009-84, следует различать четыре составляющие погрешности средств измерений: основную; дополнительную; обусловленную взаимодействием средств и объекта измерений; динамическую.
Основная погрешность . Она обусловлена неидеальностью собственных свойств средств измерений и показывает отличие действительной функции преобразования средств измерений в нормальных условиях от номинальной функции преобразования.
По способу числового выражения основной погрешности различают абсолютную, относительную и приведенную погрешности .
Абсолютная погрешность измерительного прибора - разность между показанием прибораХ п и истинным значениемХ и измеряемой величины:
Х =Х п – Х и .
Абсолютная погрешность, взятая с обратным знаком, называется поправкой:
П = -Х.
Под абсолютной погрешностью меры Х понимается разность между номинальным значением мерыХ н и действительным значением воспроизводимой ею величиныХ д :
Х = Х н -Х д .
Относительная погрешность измерительного прибора в процентах - отношение абсолютной погрешности к истинному значению измеряемой величины:
Относительная погрешность обычно существенно изменяется вдоль шкалы аналогового прибора, с уменьшением значений измеряемой величины -увеличивается.
Если диапазон измерения прибора охватывает и нулевое значение измеряемой величины, то относительная погрешность обращается в бесконечность в соответствующей ему точке шкалы. В этом случае пользуются понятиемприведенной погрешности .
Приведенная погрешность измерительного прибора в процентах - отношение абсолютной погрешности к нормирующему значениюХ N :
.
За нормирующее значение принимается значение, характерное для данного вида измерительного прибора. Это может быть, например, верхний предел измерений, длина шкалы и т.д. Например. приведенная погрешность вольтметра с верхним пределом измерения 150 В при показании его 100,0 В и действительном значении измеряемого напряжения 100,6 В равна 0,4 % (нормирующее значение в данном случае равно 150 В). Точность ряда средств измерений с различными диапазонами измерений может сопоставляться только по их приведенным погрешностям.
Основная погрешность прибора - погрешность при нормальных условиях использования прибора. Нормальные условия эксплуатации зависят от назначения прибора и его метрологических характеристик. Для основной массы приборов, используемых в промышленности, нормальными условиями эксплуатации СИ считаются: температура окружающего воздуха (20±5) °С; относительная влажность 30-80 %; атмосферное давление 630-795 мм рт. ст.; напряжение питающей сети (220+4,4) В; частота питающей сети (50±0,5) Гц.
По характеру влияния на функцию преобразования ее можно представить в виде аддитивной и мультипликативной составляющих .
Аддитивная погрешность а не зависит от чувствительности прибора и является постоянной для всех значений входной величины в пределах диапазона измерений (прямая 3, рис. 3.13) и поэтому её называют погрешностью нуля.
Мультипликативная погрешность b х зависит от чувствительности прибора и изменяется пропорционально текущему значению входной величины (прямая 2, рис. 3.13) и поэтом её называют погрешностью чувствительности.
Суммарная абсолютная погрешность выражается уравнением
= a + b x ,
т.е. аддитивная и мультипликативная погрешности присутствуют одновременно (прямая 1, рис. 3.13).
К аддитивной погрешности прибора можно отнести погрешность, вызванную трением в опорах электроизмерительных приборов, которая не зависит от значения входного сигнала, а также помехи, шумы, погрешность дискретности (квантования) в цифровых приборах. Если прибору присуща только аддитивная погрешность или она существенно превышает другие составляющие, то целесообразно нормировать абсолютную погрешность.
К мультипликативной погрешности можно отнести погрешности изготовления добавочного резистора в вольтметре или шунта в амперметре, погрешности коэффициента деления делителя и т. д. Мультипликативная составляющая абсолютной погрешности увеличивается с увеличением измеряемой величины, а так как относительная погрешность остается постоянной, то в этом случае целесообразно нормировать погрешность прибора в виде относительной погрешности.
Аддитивная и мультипликативная погрешности могут иметь как систематический, так и случайный характер.
Систематическая погрешность средства измерений - составляющая погрешности средства измерения, остающаяся постоянной или закономерно изменяющаяся при многократных измерениях одной и той же величины. К постоянным систематическим погрешностям относят погрешности градуировки шкалы аналоговых приборов; калибровки цифровых приборов; погрешности, обусловленные неточностью подгонки резисторов, температурными изменениями параметров элементов в приборах и т.д. К переменным систематическим погрешностям относят погрешности, обусловленные нестабильностью напряжения источника питания, влиянием электромагнитных полей и других величин.
Случайная погрешность средства измерений - составляющая погрешности средства измерений, изменяющаяся случайным образом. Случайные погрешности могут возникнуть из-за нестабильности переходного сопротивления в контактах коммутирующих устройств, трения в опорах подвижной части приборов и т. д.
К случайным погрешностям относятся также погрешности от гистерезиса -вариации показаний выходного сигнала средства измерения.
Таким образом, при определении основной погрешности абсолютная погрешность может быть представлена ее составляющими - систематической и случайной.
Дополнительная погрешность . Дополнительная погрешность обусловлена реакцией средства измерений на отклонение условий эксплуатации от нормальных. В эксплуатационных условиях при установке прибора, например, на самолет, ему приходится работать при изменении температуры от - 60 до +60 °С, давления - от 1000 до 100 ГПа, напряжения питания - на20 %, коэффициента гармоник - от 1 до 10 % и т. д. Это приведет к появлению погрешностей, естественно, больших, чем в нормальных (лабораторных) условиях или условиях поверки.
Если статическая характеристика преобразования средства измерений имеет вид y = F (x , 1 , 2 ,…, n), гдеy - выходная величина;х - входная величина; 1 , 2 ,…, n - влияющие величины, то изменение выходной величины y определяется не только изменением измеряемой величины х , но и изменениями влияющих величин 1 , 2 ,…, n . В этом случае
В этом выражении второй и последующие члены правой части являются составляющими погрешности. Если изменения влияющих величин находятся в пределах нормальных условий, то все указанные составляющие входят в состав основной погрешности. При отклонении влияющих величин за пределы нормальных условий приращения указанных составляющих образуют дополнительные погрешности от изменения величин 1 , 2 ,…, n . Функции
называют функциями влияния, в которых 1 норм, 2 норм, … n норм - нормальные значения влияющих величин; 1 , 2 ,…, n - влияющие величины, для которых определяют дополнительные погрешности. Производные,, … ,называюткоэффициентами влияния.
Дополнительные погрешности нормируются указаниемкоэффициентов влияния изменения отдельных влияющих величин на изменение показаний в виде: , % / 10 К - коэффициент влияния от изменения температуры на 10 К; U , % / (10 %U/U) – коэффициент влияния от изменения напряжения питания на 10 % и т. д. Хотя фактически эти функции влияния влияющих факторов, как правило, нелинейны, для простоты вычислений их приближенно считают линейными и возникающие дополнительные погрешности определяют как доп =, где- коэффициент влияния;- отклонение от нормальных условий.
Погрешность прибора в реальных условиях его эксплуатации называется эксплуатационной и складывается из его основной погрешности и всех дополнительных и может быть, естественно, много больше его основной погрешности. Таким образом, деление погрешностей на основную и дополнительные является чисто условным и оговаривается в технической документации на каждое средство измерений.
Погрешность, обусловленная взаимодействием средств измерений и объекта измерения. Подключение средства измерений к объекту измерений во многих случаях приводит к изменению значения измеряемой величины относительно того значения, которое она имела до подключения средства измерения к объекту измерений и определение которого является целью измерений. Эта составляющая зависит от свойств средства измерений и объекта измерений.
В тех случаях, когда средство измерения используется для измерения постоянной или переменной во времени величины для его характеристики используют понятия статической идинамической погрешностей .
Статическая погрешность - это погрешность средства измерения, используемого для измерения постоянной величины. Например, погрешности, возникающие при измерении постоянного напряжения или частоты генератора образцовых частот, являются статическими погрешностями.
Динамическая погрешность . Динамическая погрешность средства измерения - это разность между погрешностью средства измерений в динамическом режиме и его статической погрешностью, соответствующей значению величины в данный момент времени. Она обусловлена реакцией средства измерения на скорость (частоту) изменения входного сигнала. Эта погрешность зависит от динамических свойств (инерционности) средства измерения, частотного спектра входного сигнала, изменений нагрузки и влияющих величин. На выходной сигнал средства измерений влияют значения входного сигнала и любые изменения его во времени. Различают полную и частную динамические характеристики.
Полная динамическая характеристика - характеристика, полностью описывающая принятую математическую модель динамических свойств средства измерений и однозначно определяющая изменение выходного сигнала средства измерений при любом изменении во времени информативного или неинформативного параметра входного сигнала или влияющей величины. Полную динамическую характеристику аналоговых средств измерений выбирают из следующих характеристик: дифференциального уравнения, передаточной функции, импульсной и переходной характеристик, амплитудно-фазовой, амплитудно-частотной характеристик.
При линейном, экспоненциальном и прямолинейном изменении входной величины для нахождения динамической погрешности используют операторную форму записи.
Абсолютная динамическая погрешность при этом определяется как
,
где S p (p ) и S и (p ) - операторные чувствительности реального и идеального средств измерений соответственно.
Относительная динамическая погрешность имеет вид
.
При гармонических входных величинах пользуются понятиями амплитудно-частотной и фазочастотной погрешностей.
Амплитудно-частотная погрешность определяется выражением
,
где и- модули комплексной чувствительности реального и идеального средств измерения соответственно.
Фазочастотная погрешность определяется как разность междуфазочастотными характеристиками реального и идеального средств измерения:
= р ( ) - и ( ).
Частная динамическая характеристика - любой функционал или параметр полной динамической характеристики. К частным динамическим характеристикам аналоговых средств измерений можно отнести время реакции, коэффициент демпфирования, значение амплитудно-частотной характеристики на резонансной частоте.
Для аналого-цифровых и цифроаналоговых преобразователей используются другие динамические характеристики.
Ряд метрологических характеристик подлежит нормированию с целью единообразного определения результатов измерений и оценки погрешностей измерений.
Основная инструментальная погрешность находится по классу точности СИ. Например, при нормальных условиях щитовым электромагнитным вольтметром класса точности 1,5 (т. е. имеющим предел основной приведенной погрешности γ п, не превышающий ±1,5 %) с диапазоном измеряемых значений 0...300 В (нормирующее значение Х н = 300 В) получен результат измерения действующего значения напряжения U= 220 В. Требуется определить предельные значения абсолютной Δ и относительной δ инструментальных погрешностей результата измерения U.
Оценим предельное значение основной абсолютной погрешности Δ:
Δ = γX к /100 = ±1,5·300/100 = ±4,5В.
Предельное значение основной относительной погрешности δ:
δ = Δ100/U = ±4,5·100/220 ≈ ±2,0%.
Расчет суммарной погрешности результата измерения в общем случае предполагает нахождение максимально возможного числа составляющих (основной, дополнительной, методической, взаимодействия и т.д.).
Дополнительная погрешность возникает при работе СИ (в частности, прибора) не в нормальных, а в рабочих условиях, когда одна или несколько влияющих величин выходят за пределы области нормальных значений (но находятся внутри диапазона рабочих значений).
Влияющая величина (ВВ) – это такая физическая величина β, которая не измеряется в данном эксперименте, но влияет на результат измерения или преобразования. Например, в эксперименте по измерению тока в электрической цепи некоторые другие физические величины (температура окружающей среды, атмосферное давление, относительная влажность воздуха, электрические и магнитные поля, напряжение питания СИ) являются влияющими величинами. Конечно, если мы измеряем температуру окружающей среды, то температура в данном эксперименте есть измеряемая величина.
Влияющие величины в общем случае могут меняться в довольно широких диапазонах. При оценке работоспособности СИ в различных условиях воздействия окружающей среды различают три области возможных значений ВВ:
Область нормальных значений ВВ (при этом значение ВВ находится в пределах заранее оговоренных – нормальных – значений);
Область рабочих значений ВВ (при этом значение ВВ находится в диапазоне своих рабочих значений);
Область значений ВВ, при которых возможны хранение или транспортировка СИ.
С точки зрения оценки инструментальных погрешностей нас интересуют лишь первые две области (рис. 1.11). Область нормальных значений ВВ обычно задается симметричным относительно номинального значения β 0 диапазоном β 1… β 2 . В этом диапазоне возможных значений ВВ условия применения СИ считаются нормальными (НУ) и при этом имеет место только основная погрешность СИ.
Рис. 1.11. Значения влияющей величины, условия применения и погрешности средств измерений.
Областью рабочих значений называется более широкий диапазон возможных изменений ВВ, в котором СИ может нормально использоваться. Границы этого диапазона задаются нижним β н и верхним β в предельными значениями ВВ, соответственно. В этом диапазоне значений ВВ условия применения СИ называются рабочими (РУ) и при этом имеет место не только основная, но еще и дополнительная погрешность. Таким образом, при работе в пределах рабочих условий, но за пределами нормальных, общая инструментальная погрешность складывается уже из основной и дополнительной составляющих.
Например, для самой важной практически во всех измерительных экспериментах ВВ – температуры окружающей среды – область нормальных (для России) значений и, следовательно, нормальных условий применения СИ в большинстве обычных технических измерительных экспериментов составляет (20 ± 5) °С или (20 ± 2) °С.
Области нормальных значений не являются постоянными, а зависят от особенностей выполняемых измерений, измеряемых величин, классов точности СИ. Например, чем точнее СИ, тем уже требуемый диапазон нормальных температур. Для мер электрического сопротивления высшего класса точности (0,0005; 0,001; 0,002) допустимое отклонение температуры от номинального значения составляет, соответственно, ±0,1 °С; ±0,2 °С; ±0,5 °С. Для зарубежных приборов часто за номинальное принимается значение температуры +23 °С.
Области нормальных значений ВВ в специальных измерениях оговариваются отдельно в описании СИ или в методиках проведения измерений.
Диапазоны рабочих условий эксплуатации для СИ разного назначения различны. Скажем, для СИ лабораторного применения это может быть диапазон температур 0...+40 °С.
Для СИ промышленного применения области рабочих значений ВВ являются более широкими, чем, скажем, для лабораторных СИ. Измерительная аппаратура военного назначения имеет еще более широкие области рабочих значений ВВ.
Условия хранения допускают наиболее широкие диапазоны значений ВВ. Например, для основного параметра окружающей среды – температуры – в паспорте на прибор может быть записано: «...диапазон рабочих температур: 0...+40 °С, диапазон температур хранения: –10...+60°С».
Зная класс точности, коэффициенты влияния окружающей среды (например, температурный коэффициент), а также коэффициенты влияния неинформативных параметров измеряемых сигналов (например, частоты периодического сигнала напряжения при измерении действующего значения), можно оценить значение дополнительной погрешности и затем найти суммарную инструментальную, сложив основную и дополнительную составляющие.
Рассмотрим пример нахождения оценки дополнительной составляющей инструментальной погрешности на примере влияния только одной (но самой важной и, к счастью, наиболее легко определяемой) ВВ – температуры. Допустим, после выполнения эксперимента по классу точности миллиамперметра найдена его основная инструментальная погрешность Δ о = ±1,0 мА; температура в ходе эксперимента была зафиксирована +28°С. Температурный коэффициент в паспорте на прибор определен таким образом: «...дополнительная погрешность на каждые 10 °С отличия от номинальной температуры +20 °С равна основной погрешности в пределах изменения температуры окружающей среды от 0 до +50 °С». Тогда предельное значение дополнительной абсолютной погрешности Δ д в данном случае определяется следующим образом:
Δ д = Δ о (28 – 20)/10 = ±1,0·8/10 = ±0,8 мА.
Конец работы -
ИЗМЕРЕНИЕ
Метрология – это наука об измерениях, методах и средствах обеспечения их единства, способах достижения требуемой точности. В метрологии различают три направления; теоретическое (фун
Физическая величина
Физическая величина (ФВ) – это свойство, в качественном отношении общее для многих физических объектов, но в количественном отношении – индивидуальное для каждого объекта. Все многообразие
Виды средств измерений
Средство измерений (СИ) – техническое средство, используемое при измерениях и имеющее нормированные метрологические характеристики. Все СИ подразделяются на пять видов: меры, измерительны
Виды и методы измерений
Получать значения ФВ (результаты измерений) можно различными способами. В практике электрических измерений применяются разнообразные виды и методы измерений. Существуют следующие виды измерений:
ЕДИНСТВО ИЗМЕРЕНИЙ
Под единством измерений понимают такое состояние измерений, при котором их результаты выражены в узаконенных единицах и погрешности результатов измерений известны с известной или заданной
Единицы физических величин
Единица физической величины – это такая физическая величина, которой по определению присвоено числовое значение, равное единице.
В нашей стране, как и в большинстве других стран,
Основные и дополнительные единицы физических величин
Физическая величина
Наименование единицы
Обозначение
русск
Стандартизация
Всего несколько десятилетий назад в мире не было единообразия единиц физических величин. В разных странах, в разных отраслях науки, техники, промышленного производства, в сельском хозяйстве, в тор
Эталоны
Эталон – это СИ, обеспечивающее хранение и/или воспроизведение единицы физической величины с целью передачи ее размера другим СИ (образцовым или рабочим) и официально утвержденное.
Погрешность результата измерения
Истинное значение измеряемой величины принципиально не может быть найдено (грамотный экспериментатор, понимая это, и не стремится к этому). Поэтому и реальное (истинное) значение погрешности резуль
Погрешности средств измерений
Как правило (и обычно в грамотно организованных экспериментах), определяющей составляющей в суммарной погрешности результата измерения является погрешность собственно СИ, т.е. инструментальная
Методическая погрешность
Как известно, погрешность результата измерения определяется не только классом точности СИ. Источниками недостоверности результата могут быть и другие причины. Рассмотрим примеры, поясняющие появлен
Погрешность взаимодействия
Эта составляющая общей погрешности результата возникает из-за конечных сопротивлений источника сигнала и пр
Динамическая погрешность
Динамическая погрешность – это погрешность СИ, возникающая при измерении изменяющейся в процессе измерений физической величины.
Предположение о статической модели объекта (без име
Субъективная погрешность
Различают нормальное (штатное, объяснимое, предсказуемое) проявление субъективности отсчитывания при фиксации результата измерения (отсчета) и ненормальное (непредсказуемое). Появление субъект
ОБРАБОТКА РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ
Одно значение измеряемой величины (отдельный результат прямого измерения), получаемое в процессе измерительного эксперимента, называется наблюдением. Окончательный результат измерения в о
Обработка прямых измерений
Различают однократные (одиночные) и многократные (множественные) прямые измерения.
Однократные измерения – это самые простые по выполнению и обработке – наиболее распростран
Многократные прямые измерения
В многократных (множественных) прямых измерениях получают ряд наблюдений (в общем случае различных) одной и той же физической величины. При этом возможны две постановки задачи.
Первая
Обработка косвенных измерений
Косвенные измерения в практике электрических измерений встречаются довольно часто. Вопрос оценки погрешности результата измерения – один из важнейших в таких экспериментах. Имея подробную и
Расчет погрешности результата косвенного измерения
Рассмотрим пример расчета погрешности результата косвенного измерения активной мощности с помощью амперметра на нагрузке с известным значением сопротивления. При известных и постоянных значениях
От погрешностей, присущих средствам измерений, зависит погрешность результата измерений той или иной физической величины. Погрешность средства измерений есть разница между значением величины, полученной при помощи этого средства, и истинным значением измеряемой величины. Поскольку истинное значение величины не известно, на практике вместо него пользуются действительным значением величины, полученным при помощи более точного средства измерений.
Погрешности средств измерений могут быть классифицированы следующим образом:
По характеру появления и причинам – систематические и случайные;
По отношению к условию применения – основные и дополнительные;
По способу (форме) числового выражения – абсолютные, относительные и приведенные.
Систематической погрешностью средства измерения называется составляющая погрешности, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Происхождение и характер этих погрешностей известен и выявляется в результате многократных измерений одной и той же величины. Влияние этих погрешностей исключается путем введением поправок, определяемых расчетным или опытным путем.
Случайной погрешностью средства измерения называется составляющая погрешности, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Она возникает в результате влияния на средства измерений таких случайных факторов как вибрация, наличие электромагнитных полей, изменение органов чувств наблюдателя. Они не могут быть исключены опытным путем. Для учета случайных погрешностей одну и ту же величину измеряют много раз данным средством измерений. К полученному ряду значений применимы теории вероятности и математической статистики, на основании которых оценивается случайная составляющая погрешности средств измерений.
Основная погрешность – это погрешность средства измерения, используемого в нормальных условиях, которые обычно определены в нормативно-технической документации на данное средство измерения.
Под дополнительными погрешностями понимают изменение погрешности средств измерений вследствие отклонения влияющих величин от нормальных значений.
Абсолютная погрешность измерительного прибора – это разность между показаниями прибора и истинным (действительным) значением измеряемой величины:
где Х П – показания прибора;
Х д – действительное значение измеряемой величины. За действительное значение измеряемой величины принимают показания образцового прибора.
Относительная погрешность прибора – это отношение абсолютной погрешности измерительного прибора к истинному (действительному) значению измеряемой величины, %:
Приведенная погрешность измерительного прибора - это отношение абсолютной погрешности измерительного прибора к нормирующему значению. нормирующее значение – условно принятое значение Х N , равное или верхнему пределу измерения, или диапазону измерений, или длине шкалы. Приведенную погрешность обычно выражают в %:
Точность СИ – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Класс точности СИ – это обобщенная характеристика данного типа СИ, как правило, отражающая уровень их точности, выражается пределами допускаемых основных и дополнительных погрешностей, а также другими характеристиками, влияющими на точность. Класс точности дает возможность судить о том, в каких пределах находится погрешность СИ данного типа, но не является непосредственным показателем точности измерений , выполняемых с помощью каждого из этих средств. Класс точности средств измерений конкретного типа устанавливается в стандартах, технических условиях или других нормативных документах.
В соответствии с основными нормативами документации (ГОСТ 12997-76 «Государственная система промышленных приборов и средств автоматизации. Технические условия») основной метрологической характеристикой измерительного прибора является класс точности , который является обобщенной характеристикой средств измерений, определяющей пределы допускаемых основных и дополнительных погрешностей. Под пределом допускаемой погрешности понимается наибольшая (без учета знака) погрешность средства измерений при которой оно может быть признано годным к эксплуатации.
ГОСТ 8.401-80 регламентирует способы значения классов точности в зависимости от способа выражения пределов допускаемых погрешностей средств измерений. Этим стандартом предусматривается выражение предельно допускаемых погрешностей средств измерений в виде абсолютных и приведенных погрешностей.
где - предел допускаемой приведенной погрешности, %;
х N – нормирующее значение, равное или верхнему пределу измерений или диапазону измерений, или длине шкалы.
Для измерительных приборов предельные допускаемые погрешности которых выражены как приведенные погрешности согласно выражению (5), должны быть присвоены классы точности, выбираемые из ряда чисел:
(1;1.5; 2; 2.5; 3; 4; 5; 6) 10 n , где n=(1.0; 0; -1; -2; и т.д.) Класс точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.
Для измерительных приборов, предел допускаемых погрешностей которых выражается относительной погрешностью в процентах, согласно выражению (4) класс точности определяется совокупностью значений с и d. Тогда условные обозначения состоят из двух чисел, разделенных косой чертой и равных с и d.
Таким образом, для большинства применяемых в практике приборов используются одночленные или двучленные обозначения класса точности. Например, обозначение класса точности 0,5 показывает, что пределы допускаемых погрешностей выражаются в процентах нормирующего значения. Обозначение класса точности 0,1/0,2 означает что предел допускаемой относительной погрешности в процентах значения измеряемой величины определяется формулой
,
где с=0,1 d=0,02
Статические погрешности СИ возникают при измерении физической величины, принимаемой за неизменную. Динамические погрешности средств измерений возникают при измерении изменяющейся во времени (в процессе измерений) физической величины.
На обеспечение качества измерений направлено применение аттестованных методик выполнения измерений (МВИ) – ГОСТ 8.563-96 «ГСИ. Методики выполнения измерений».
Методика выполнения измерений – это совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с известной погрешностью. МВИ – это, как правило, документированная измерительная процедура. МВИ может быть изложена в отдельном документе (стандарте, рекомендации), разделе стандарта, части технического документа (разделе ТУ, паспорта).
Аттестация МВИ – процедура установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям. В документах, регламентирующих МВИ в общем случае указывают: назначение МВИ; условия выполнения измерений; требования к погрешности измерений; метод измерений; требования к средствам измерения, вспомогательным устройствам, материалам и т.п.; операции при подготовке к выполнению измерений; операции при выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности выполняемых работ.