Дополнительная погрешность и ее расчет. Основная и дополнительная погрешности

В результате воздействия большого числа факторов, влия­ющих на изготовление и эксплуатацию средств измерений, по­казания приборов отличаются от истинных значений измеряе­мых ими величин. Эти отклонения характеризуют погрешность средств измерений. Погрешности СИ в отличие от погрешности измерений имеют другую физическую природу, так как они от носятся к СИ, с помощью которого осуществляют измерение. Они являются лишь составной частью погрешности измерения.

Классификация погрешностей средств измерений в зависи­мости от разных признаков:

В понятия абсолютной , относительной , систематической и случайной погрешностей вкладывается тот же смысл, что и в понятия погрешностей измерений.

Приведенная погрешность средства измерений равна отноше­нию абсолютной погрешности прибора ΔХ к некоторому норми­рующему значению X N:

γ = ΔX/X N или γ = 100% ΔХ/X N .

Таким образом, приведенная погрешность является разновид­ностью относительной погрешности прибора. В качестве норми­рующего значения X N принимают диапазон измерений, верх­ний предел измерений, длину шкалы и др.



Основная погрешность - погрешность средства измерений, используемого в нормальных условиях. При эксплуатации СИ на производстве возникают значительные отклонения от нор­мальных условий, вызывающие дополнительные погрешности.

Нормальными условиями для линейных измерений считают­ся:

Температура окружающей среды 20°С

Атмосферное давление 101325 Па (760 мм рт.ст.)

Относительная влажность окружающего воздуха 58%

Ускорение свободного падения 9,8 м/с

Направление линии и плоскости измерения - горизонтальное

Относительная скорость движения внешней воздушной среды равна нулю.

В тех случаях, когда средство измерения применяется для измерения постоянной или переменной во времени величины, для его характеристики используют понятия статическая и динамическая погрешности соответственно. Динамическая погрешность определяется как разность между погрешностью измерения в динамическом режиме и его статической погрешностью, равной значению величины в данный момент времени. Динами­ческие погрешности возникают вследствие инерционных свойств средств измерения.

Для рассмотрения зависимости погрешности средства измерения от значения измеряемой величины используют понятие номинальной и реальной функций преобразования - соответствен­но Y = (Х) и Y = fр(X).

Номинальная функция преобразования приписана измери­тельному устройству, указывается в его паспорте и используется при выполнении измерений.

Реальной функцией преобразования называют ту, которой обладает конкретный экземпляр СИ дан­ного типа.

Реальная функция преобразования имеет отклонение от но­минальной функции и связана со значением измеряемой вели­чины. Систематическую погрешность в функции измеряемой величины можно представить в виде суммы погрешности схемы, определяемо самой структурной схемой средства измерений, и технологических погрешностей, обусловленных погрешностями изготовления его элементов. Технологические погрешности принято разделять на аддитивную, мультипликативную, гистерезиса и линейности.

Аддитивной погрешностью (получаемой путем сложения), или погрешностью нуля, называют погрешность, которая оста­ется постоянной при всех значениях измеряемой величины.

Мультипликативная погрешность (получаемая путем умно­жения), или погрешность чувствительности СИ, линейно воз­растает или убывает с изменением измеряемой величины. В большинстве случаев аддитивная и мульти­пликативная составляющие присутствуют одновременно.

Погрешность гистерезиса, или Погрешность обратного хода, выражается в несовпадении реальной функции преобразования при увели­чении (прямой ход) и уменьшении (обратный ход) измеряемой величины. Если взаимное распо­ложение номинальной и реальной функций преобразования средства измерений вызвано нелинейностью, то эту погрешность называют погрешностью линейности .

В разных точках диапазона средств измерений погрешность может принимать различные значе­ния. В этом случае необходимо нор­мировать пределы допускаемых по­грешностей, т.е. устанавливать грани­цы, за пределы которых погрешность не должна выходить ни при изготовлении, ни в процессе эксплуатации. Для этого служит класс точности СИ.

Класс точности - это обобщенная характеристика, определяемая пре­делами допускаемых основных и до­полнительных погрешностей, а также другими свойствами, влия­ющими на точность, значения кото­рых устанавливают в стандартах на отдельные виды средств измерений.

Способы установления классов точности изложены в ГОСТ 8.401 “ГСИ. Классы точности средств измерения. Общие требования”. Стандарт не распространяется на средства измерений, для которых предусматриваются раздельные нормы на систематическую и случайные составляющие, а также на средства измерений, для которых нормированы номинальные функции влияния, а измерения проводятся без введения поправок на влияющие величины. Классы точности не устанавливаются и на средства измерений, для которых существенное значение имеет динамическая погрешность.

Класс точности не является непо­средственным показателем точности измерений, так как точность изме­рений зависит еще от метода и ус­ловий измерений.

В зависимости от вида погреш­ности средства измерений существу­ет несколько способов нормирования погрешности.

Если аддитивная погрешность СИ преобладает над мультипликативной, удобнее нормировать абсолютную или приведенную погрешности соответственно:

ΔХ = ±α ΔX/X N = ±p.

Нормирование по абсолютной погрешности не позволяет срав­нивать по точности приборы с разными диапазонами измерений, поэтому принято нормировать приведенную погрешность, где р - отвлеченное положительное число, выбираемое из ряда

(1,5; 2; 2,5; 4; 5; 6) 10* (п = 1, О, - 1, - 2 и т.д.);

X N - нормирующее значение, равное конечному значению шкалы прибора, диапазону измерений или длине шкалы, если она нелинейная.

Если мультипликативная погрешность преобладает над адди­тивной, то нормируется предел допускаемой относительной по­грешности:

δ = ΔX/X N =±q,

где q - отвлеченное положительное число, выбираемое из ряда, приведенного для р.

При одновременном проявлении аддитивной и мультиплика­тивной погрешностей нормируется предел относительной или аб­солютной погрешностей, определяемых формулами соответствен­но:

,

где Хк - конечное значение шкалы прибора; с и d - положи­тельные числа, выбираемые из ряда, приведенного для р; Xизм - значение измеряемой величины на входе(выходе) средств измерений или число делений, отсчитанных по шкале; а и b положительные числа, не зависящие от Xизм.

Обозначение классов точности в документации и на средствах измерений приведены в табл.

Если пределы допускаемой погрешности средств измерений задаются в виде графиков, таблиц или в сложной форме, то классы точности обозначаются римскими цифрами или прописными буквами латинского алфавита.



Регулировка и градуировка средств измерений

В большинстве случаев в измерительном приборе (преобразователе) можно найти или предусмотреть такие элементы, вариация параметров которых наиболее заметно сказывается на его систематической погрешности, главным образом погрешности схемы, аддитивной и мультипликативной погрешностях.

В общем случае в конструкции измерительного прибора должны быть предусмотрены два регулировочных узла: регулировка нуля и регулировка чувствительности . Регулировкой нуля уменьшают влияние аддитивной погрешности, постоянной для каждой точки шкалы, а регулировкой чувствительности уменьшают мультипликативные погрешности, меняющиеся линейно с изменением измеряемой величины. При правильной регулировке нуля и чувствительности уменьшается и влияние погрешности схемы прибора. Кроме того, некоторые приборы снабжаются устройствами для регулировки погрешности схемы (пружинные манометры).

Таким образом, под регулировкой средств измерения понимается совокупность операций, имеющих целью уменьшить основную погрешность до значений, соответствующих пределам ее допускаемых значений, путем компенсации систематической составляющей погрешности средств измерений, т.е. погрешности схемы, мультипликативной и аддитивной погрешностей.

Градуировкой называется процесс нанесения отметок на шкалы средств измерений, а также определение значений измеряемой величины, соответствующих уже нанесенным отметкам, для составления градуировочных кривых или таблиц.

Различают следующие способы градуировки:

- использование типовых (печатных) шкал , которые изготовляются заранее в соответствии с уравнением статической характеристики идеального прибора;

- индивидуальная градуировка шкал . Индивидуальную градуировку шкал осуществляют в тех случаях, когда статическая характеристика прибора нелинейна или близка к линейной, но характер изменения систематической погрешности в диапазоне измерения случайным образом меняется от прибора к прибору данного типа так, что регулировка не позволяет уменьшить основную погрешность до пределов ее допускаемых значений. Индивидуальную градуировку проводят в следующем порядке. На предварительно отрегулированном приборе устанавливают циферблат с еще не нанесенными отметками. К измерительному прибору подводят последовательно измеряемые величины нескольких наперед заданных или выбранных значений. На циферблате нанося отметки, соответствующие положениям указателя при этих значениях измеряемо величины, а расстояния между отметками делят на равные части. При индивидуальной градуировке систематическая погрешность уменьшается во всем диапазоне измерения, а в точках, полученных при градуировке, она достигает значения, равного погрешности обратного хода;

- градуировка условной шкалы . Условной называется шкала, снабженная некоторыми условными равномерно нанесенными делениями, например, через миллиметр или угловой градус. Градуировка шкалы состоит в определении при помощи образцовых мер или измерительных приборов значений измеряемой величины соответствующих некоторым отметкам, нанесенным на ней. В результате определяют зависимость числа делений шкалы, пройденных указателем, от значений измеряемой величины. Эту зависимость представляют в виде таблицы или графика. Если необходимо избавиться и от погрешности обратного хода. Градуировку осуществляют раздельно при прямом и обратном ходе.

Основная инструментальная погрешность находится по классу точности СИ. Например, при нормальных условиях щитовым элек­тромагнитным вольтметром класса точности 1,5 (т. е. имеющим пре­дел основной приведенной погрешности γ п, не превышающий ±1,5 %) с диапазоном измеряемых значений 0...300 В (нормирую­щее значение Х н = 300 В) получен результат измерения действую­щего значения напряжения U= 220 В. Требуется определить пре­дельные значения абсолютнойΔ и относительной δ инструмен­тальных погрешностей результата измерения U.

Оценим предельное значение основной абсолютной погреш­ности Δ:

Δ = γX к /100 = ±1,5·300/100 = ±4,5В.

Предельное значение основной относительной погрешности δ:

δ = Δ100/U = ±4,5·100/220 ≈ ±2,0%.

Расчет суммарной погрешности результата измерения в общем случае предполагает нахождение максимально возможного числа составляющих (основной, дополнительной, методической, взаи­модействия и т.д.).

Дополнительная погрешность возникает при работе СИ (в част­ности, прибора) не в нормальных, а в рабочих условиях, когда одна или несколько влияющих величин выходят за пределы обла­сти нормальных значений (но находятся внутри диапазона рабо­чих значений).

Влияющая величина (ВВ) – это такая физическая величина β, которая не измеряется в данном эксперименте, но влияет на ре­зультат измерения или преобразования. Например, в эксперимен­те по измерению тока в электрической цепи некоторые другие физические величины (температура окружающей среды, атмос­ферное давление, относительная влажность воздуха, электричес­кие и магнитные поля, напряжение питания СИ) являются влия­ющими величинами. Конечно, если мы измеряем температуру ок­ружающей среды, то температура в данном эксперименте есть из­меряемая величина.

Влияющие величины в общем случае могут меняться в доволь­но широких диапазонах. При оценке работоспособности СИ в раз­личных условиях воздействия окружающей среды различают три области возможных значений ВВ:

Область нормальных значений ВВ (при этом значение ВВ находится в пределах заранее оговоренных – нормальных – значений);

Область рабочих значений ВВ (при этом значение ВВ находится в диапазоне своих рабочих значений);

Область значений ВВ, при которых возможны хранение или транспортировка СИ.

С точки зрения оценки инструментальных погрешностей нас интересуют лишь первые две области (рис. 1.11). Область нормальных значений ВВ обычно задается симметричным относительно номи­нального значения β 0 диапазоном β 1… β 2 . В этом диапазоне воз­можных значений ВВ условия применения СИ считаются нор­мальными (НУ) и при этом имеет место только основная погрешность СИ.

Рис. 1.11. Значения влияющей величины, условия применения и погрешности средств измерений.

Областью рабочих значений называется более широкий диапа­зон возможных изменений ВВ, в котором СИ может нормально использоваться. Границы этого диапазона задаются нижним β н и верхним β в предельными значениями ВВ, соответственно. В этом диапазоне значений ВВ условия применения СИ называются рабо­чими (РУ) и при этом имеет место не только основная, но еще и дополнительная погрешность. Таким образом, при работе в преде­лах рабочих условий, но за пределами нормальных, общая инстру­ментальная погрешность складывается уже из основной и допол­нительной составляющих.

Например, для самой важной практически во всех измеритель­ных экспериментах ВВ – температуры окружающей среды – об­ласть нормальных (для России) значений и, следовательно, нор­мальных условий применения СИ в большинстве обычных техни­ческих измерительных экспериментов составляет (20 ± 5) °С или (20 ± 2) °С.

Области нормальных значений не являются постоянными, а зависят от особенностей выполняемых измерений, измеряемых величин, классов точности СИ. Например, чем точнее СИ, тем уже требуемый диапазон нормальных температур. Для мер элект­рического сопротивления высшего класса точности (0,0005; 0,001; 0,002) допустимое отклонение температуры от номинального зна­чения составляет, соответственно, ±0,1 °С; ±0,2 °С; ±0,5 °С. Для за­рубежных приборов часто за номинальное принимается значение температуры +23 °С.

Области нормальных значений ВВ в специальных измерениях оговариваются отдельно в описании СИ или в методиках проведе­ния измерений.

Диапазоны рабочих условий эксплуатации для СИ разного на­значения различны. Скажем, для СИ лабораторного применения это может быть диапазон температур 0...+40 °С.

Для СИ промышленного применения области рабочих значений ВВ являются более широкими, чем, скажем, для лаборатор­ных СИ. Измерительная аппаратура военного назначения имеет еще более широкие области рабочих значений ВВ.

Условия хранения допускают наиболее широкие диапазоны значений ВВ. Например, для основного параметра окружающей среды – температуры – в паспорте на прибор может быть записа­но: «...диапазон рабочих температур: 0...+40 °С, диапазон темпера­тур хранения: –10...+60°С».

Зная класс точности, коэффициенты влияния окружающей сре­ды (например, температурный коэффициент), а также коэффици­енты влияния неинформативных параметров измеряемых сигналов (например, частоты периодического сигнала напряжения при из­мерении действующего значения), можно оценить значение допол­нительной погрешности и затем найти суммарную инструменталь­ную, сложив основную и дополнительную составляющие.

Рассмотрим пример нахождения оценки дополнительной составляющей инструментальной погрешности на примере влияния только одной (но самой важной и, к счастью, наиболее легко оп­ределяемой) ВВ – температуры. Допустим, после выполнения эк­сперимента по классу точности миллиамперметра найдена его основная инструментальная погрешность Δ о = ±1,0 мА; темпера­тура в ходе эксперимента была зафиксирована +28°С. Температур­ный коэффициент в паспорте на прибор определен таким обра­зом: «...дополнительная погрешность на каждые 10 °С отличия от номинальной температуры +20 °С равна основной погрешности в пределах изменения температуры окружающей среды от 0 до +50 °С». Тогда предельное значение дополнительной абсолютной погреш­ности Δ д в данном случае определяется следующим образом:

Δ д = Δ о (28 – 20)/10 = ±1,0·8/10 = ±0,8 мА.

Составляющая погрешности измерений, обуслов­ленная свойствами применяемых средств измерений (далее СИ), называется инст­рументальной погрешностью измерения. Эта погреш­ность является важнейшей метрологической характери­стикой СИ и определяет, насколько действительные свойства средств измерений близки к номинальным.

Согласно ГОСТ 8.009-84, следует различать четыре составляющие погрешности средств измерений: основ­ную; дополнительную; обусловленную взаимодействием средств и объекта измерений; динамическую.

Основная погрешность . Она обусловлена неидеаль­ностью собственных свойств средств измерений и пока­зывает отличие действительной функции преобразова­ния средств измерений в нормальных условиях от но­минальной функции преобразования.

По способу числового выражения основной погреш­ности различают абсолютную, относительную и приве­денную погрешности .

Абсолютная погрешность измерительного прибора - разность между показанием прибораХ п и истинным зна­чениемХ и измеряемой величины:

Х =Х п – Х и .

Абсолютная погрешность, взятая с обратным знаком, называется поправкой:

П = -Х.

Под абсолютной погрешностью меры Х понимается разность между номинальным значением мерыХ н и действительным значе­нием воспроизводимой ею величиныХ д :

Х = Х н д .

Относительная погрешность измерительного прибора в процентах - отношение абсолютной погрешности к истин­ному значению измеряемой величины:

Относительная погрешность обычно существенно из­меняется вдоль шкалы аналогового прибора, с умень­шением значений измеряемой величины -увеличива­ется.

Если диапазон измерения прибора охватывает и нулевое значение измеряемой величины, то относительная погрешность обращается в бесконечность в соответствующей ему точке шкалы. В этом слу­чае пользуются понятиемприведенной погрешности .

Приведенная погрешность измерительного прибора в процентах - отношение абсолютной погрешности к нормирующему значениюХ N :


.

За нормирующее значение принимается значение, характерное для данного вида измерительного прибора. Это может быть, на­пример, верхний предел измерений, длина шкалы и т.д. Например. приведенная погрешность вольтметра с верхним пределом измере­ния 150 В при показании его 100,0 В и действительном значении измеряемого напряжения 100,6 В равна 0,4 % (нормирующее значе­ние в данном случае равно 150 В). Точность ряда средств измере­ний с различными диапазонами измерений может сопоставляться только по их приведенным погрешностям.

Основная погрешность прибора - погрешность при нормальных условиях использования прибора. Нормальные условия эксплуатации зависят от назначения прибора и его метрологических характеристик. Для основной массы приборов, используемых в промышленности, нормальными условиями эксплуатации СИ считаются: температура окружающего воздуха (20±5) °С; от­носительная влажность 30-80 %; атмосферное давле­ние 630-795 мм рт. ст.; напряжение питающей сети (220+4,4) В; частота питающей сети (50±0,5) Гц.

По ха­рактеру влияния на функцию преобразования ее можно представить в виде аддитивной и мультипликативной состав­ляющих .

Аддитивная погрешность а не зависит от чувствительности прибора и является постоянной для всех значений входной ве­личины в пределах диапазона измерений (прямая 3, рис. 3.13) и поэтому её называют погрешностью нуля.

Мультипликативная по­грешность b х зависит от чув­ствительности прибора и из­меняется пропорционально те­кущему значению входной ве­личины (прямая 2, рис. 3.13) и поэтом её называют погрешностью чувствительности.

Суммарная абсолютная погрешность выражается уравнением

= a + b x ,

т.е. аддитивная и мультипликативная погрешности присутствуют одновременно (прямая 1, рис. 3.13).

К аддитивной погрешности прибора можно отнести погрешность, вызванную трением в опорах электроизме­рительных приборов, которая не зависит от значения входного сигнала, а также помехи, шумы, погрешность дискретности (квантования) в цифровых приборах. Ес­ли прибору присуща только аддитивная погрешность или она существенно превышает другие составляющие, то целесообразно нормировать абсолютную погреш­ность.

К мультипликативной погрешности можно отнести погрешности изготовления добавочного резистора в вольтметре или шунта в амперметре, погрешности ко­эффициента деления делителя и т. д. Мультипликатив­ная составляющая абсолютной погрешности увеличива­ется с увеличением измеряемой величины, а так как относительная погрешность остается постоянной, то в этом случае целесообразно нормировать погрешность прибо­ра в виде относительной погрешности.

Аддитивная и мультипликативная погрешности мо­гут иметь как систематический, так и случайный ха­рактер.

Систематическая погрешность средства измерений - составляющая погрешности средства измерения, оста­ющаяся постоянной или закономерно изменяющаяся при многократных измерениях одной и той же величи­ны. К постоянным систематическим погрешностям отно­сят погрешности градуировки шкалы аналоговых при­боров; калибровки цифровых приборов; погрешности, обусловленные неточностью подгонки резисторов, тем­пературными изменениями параметров элементов в при­борах и т.д. К переменным систематическим погреш­ностям относят погрешности, обусловленные неста­бильностью напряжения источника питания, влияни­ем электромагнитных полей и других ве­личин.

Случайная погрешность средства измерений - со­ставляющая погрешности средства измерений, изменя­ющаяся случайным образом. Случайные погрешности могут возникнуть из-за нестабильности переходного сопротивления в контактах коммутирующих устройств, трения в опорах подвижной части приборов и т. д.

К случайным погрешностям относятся также по­грешности от гистерезиса -вариации показаний выход­ного сигнала средства измерения.

Таким образом, при определении основной погреш­ности абсолютная погрешность может быть представ­лена ее составляющими - систематической и случай­ной.

Дополнительная погрешность . Дополнительная по­грешность обусловлена реакцией средства измерений на отклонение условий эксплуатации от нормальных. В эксплуатационных условиях при установке прибора, например, на самолет, ему приходится работать при изменении температуры от - 60 до +60 °С, давления - от 1000 до 100 ГПа, напряжения пита­ния - на20 %, коэффициента гармоник - от 1 до 10 % и т. д. Это приведет к появлению погрешностей, естественно, больших, чем в нормальных (лабораторных) условиях или условиях поверки.

Если статическая характеристика преобразования средства измерений имеет вид y = F (x ,  1 , 2 ,…, n), гдеy - выходная ве­личина;х - входная величина; 1 , 2 ,…, n - влияющие величи­ны, то изменение выходной величиныy определяется не только изменением измеряемой величиных , но и изменениями влия­ющих величин 1 , 2 ,…, n . В этом случае

В этом выражении второй и последующие члены правой части являются составляющими погрешности. Если изменения влияю­щих величин находятся в пределах нормальных условий, то все указанные составляющие входят в состав основной погрешности. При отклонении влияющих величин за пределы нормальных усло­вий приращения указанных составляющих образуют дополни­тельные погрешности от изменения величин  1 , 2 ,…, n . Функции

называют функциями влияния, в которых 1 норм, 2 норм, … n норм - нормальные значения влияющих величин; 1 , 2 ,…, n - влияющие величины, для которых определяют дополнительные погрешности. Производные,, … ,называюткоэффициентами влияния.

Дополнительные погрешности нормируются указаниемкоэффициентов влияния изменения отдельных влияющих величин на изменение показаний в виде:  , % / 10 К - коэффициент влияния от изменения температуры на 10 К; U , % / (10 %U/U) – коэффициент влияния от изменения напряжения питания на 10 % и т. д. Хотя фактически эти функции влияния влияю­щих факторов, как правило, нелинейны, для простоты вычислений их приближенно считают линейными и возникающие дополнительные по­грешности определяют как доп =, где- коэффициент влияния;- отклонение от нормальных условий.

Погрешность прибора в реальных условиях его эксплуатации назы­вается эксплуатационной и складывается из его основной погрешности и всех дополнительных и может быть, естественно, много больше его основной погрешности. Таким образом, деление погрешностей на основную и дополнительные является чисто условным и оговаривается в технической документации на каждое средство измерений.

Погрешность, обусловленная взаимодействием средств измерений и объекта измерения. Подключение средства измерений к объекту измерений во многих случаях приводит к изменению значения измеряемой величины относительно того значения, которое она име­ла до подключения средства измерения к объекту из­мерений и определение которого является целью изме­рений. Эта составляющая зависит от свойств средства измерений и объекта измерений.

В тех случаях, когда средство измерения используется для из­мерения постоянной или переменной во времени величины для его характеристики используют понятия статической идинами­ческой погрешностей .

Статическая погрешность - это погрешность средства измере­ния, используемого для измерения постоянной величины. Например, погрешности, возникающие при измерении постоянного напряжения или частоты генератора образцовых частот, являются статическими погрешностями.

Динамическая погрешность . Динамическая погрешность средства измерения - это разность между погрешностью средства измерений в динамическом режиме и его статической погрешностью, соответствующей значению величины в данный момент времени. Она обусловлена реак­цией средства измерения на скорость (частоту) измене­ния входного сигнала. Эта погрешность зависит от ди­намических свойств (инерционности) средства измере­ния, частотного спектра входного сигнала, изменений нагрузки и влияющих величин. На выходной сигнал средства измерений влияют значения входного сигнала и любые изменения его во времени. Различают полную и частную динамические характеристики.

Полная динамическая характеристика - характери­стика, полностью описывающая принятую математиче­скую модель динамических свойств средства измерений и однозначно определяющая изменение выходного сиг­нала средства измерений при любом изменении во вре­мени информативного или неинформативного парамет­ра входного сигнала или влияющей величины. Полную динамическую характеристику аналоговых средств из­мерений выбирают из следующих характеристик: диф­ференциального уравнения, передаточной функции, им­пульсной и переходной характеристик, амплитудно-фазовой, амплитудно-частотной характеристик.

При линейном, экспоненциальном и прямолинейном изменении входной величины для нахождения динамической погрешности используют операторную форму записи.

Абсолютная динамическая погрешность при этом определяется как


,

где S p (p ) и S и (p ) - операторные чувствительности реального и идеального средств измерений соответственно.

Относительная динамическая погрешность имеет вид


.

При гармонических входных величинах пользуются понятиями амплитудно-частотной и фазочастотной погрешностей.

Амплитудно-частотная погрешность определяется выражением


,

где и- модули комплексной чувствительности реального и идеального средств измерения соответственно.

Фазочастотная погрешность определяется как разность междуфазочастотными характеристиками реального и идеального средств измерения:

 = р () - и ().

Частная динамическая характеристика - любой функционал или параметр полной динамической харак­теристики. К частным динамическим характеристикам аналоговых средств измерений можно отнести время реакции, коэффициент демпфирования, значение ам­плитудно-частотной характеристики на резонансной ча­стоте.

Для аналого-цифровых и цифроаналоговых преобра­зователей используются другие динамические характеристики.

Ряд метрологических характеристик подлежит нормированию с целью единообразного определения результатов измерений и оценки погрешностей измерений.

Основная инструментальная погрешность находится по классу точности СИ. Например, при нормальных условиях щитовым элек­тромагнитным вольтметром класса точности 1,5 (т. е. имеющим пре­дел основной приведенной погрешности γ п, не превышающий ±1,5 %) с диапазоном измеряемых значений 0...300 В (нормирую­щее значение Х н = 300 В) получен результат измерения действую­щего значения напряжения U= 220 В. Требуется определить пре­дельные значения абсолютной Δ и относительной δ инструмен­тальных погрешностей результата измерения U.

Оценим предельное значение основной абсолютной погреш­ности Δ:

Δ = γX к /100 = ±1,5·300/100 = ±4,5В.

Предельное значение основной относительной погрешности δ:

δ = Δ100/U = ±4,5·100/220 ≈ ±2,0%.

Расчет суммарной погрешности результата измерения в общем случае предполагает нахождение максимально возможного числа составляющих (основной, дополнительной, методической, взаи­модействия и т.д.).

Дополнительная погрешность возникает при работе СИ (в част­ности, прибора) не в нормальных, а в рабочих условиях, когда одна или несколько влияющих величин выходят за пределы обла­сти нормальных значений (но находятся внутри диапазона рабо­чих значений).

Влияющая величина (ВВ) – это такая физическая величина β, которая не измеряется в данном эксперименте, но влияет на ре­зультат измерения или преобразования. Например, в эксперимен­те по измерению тока в электрической цепи некоторые другие физические величины (температура окружающей среды, атмос­ферное давление, относительная влажность воздуха, электричес­кие и магнитные поля, напряжение питания СИ) являются влия­ющими величинами. Конечно, если мы измеряем температуру ок­ружающей среды, то температура в данном эксперименте есть из­меряемая величина.

Влияющие величины в общем случае могут меняться в доволь­но широких диапазонах. При оценке работоспособности СИ в раз­личных условиях воздействия окружающей среды различают три области возможных значений ВВ:

Область нормальных значений ВВ (при этом значение ВВ находится в пределах заранее оговоренных – нормальных – значений);

Область рабочих значений ВВ (при этом значение ВВ находится в диапазоне своих рабочих значений);

Область значений ВВ, при которых возможны хранение или транспортировка СИ.

С точки зрения оценки инструментальных погрешностей нас интересуют лишь первые две области (рис. 1.11). Область нормальных значений ВВ обычно задается симметричным относительно номи­нального значения β 0 диапазоном β 1… β 2 . В этом диапазоне воз­можных значений ВВ условия применения СИ считаются нор­мальными (НУ) и при этом имеет место только основная погрешность СИ.

Рис. 1.11. Значения влияющей величины, условия применения и погрешности средств измерений.

Областью рабочих значений называется более широкий диапа­зон возможных изменений ВВ, в котором СИ может нормально использоваться. Границы этого диапазона задаются нижним β н и верхним β в предельными значениями ВВ, соответственно. В этом диапазоне значений ВВ условия применения СИ называются рабо­чими (РУ) и при этом имеет место не только основная, но еще и дополнительная погрешность. Таким образом, при работе в преде­лах рабочих условий, но за пределами нормальных, общая инстру­ментальная погрешность складывается уже из основной и допол­нительной составляющих.

Например, для самой важной практически во всех измеритель­ных экспериментах ВВ – температуры окружающей среды – об­ласть нормальных (для России) значений и, следовательно, нор­мальных условий применения СИ в большинстве обычных техни­ческих измерительных экспериментов составляет (20 ± 5) °С или (20 ± 2) °С.

Области нормальных значений не являются постоянными, а зависят от особенностей выполняемых измерений, измеряемых величин, классов точности СИ. Например, чем точнее СИ, тем уже требуемый диапазон нормальных температур. Для мер элект­рического сопротивления высшего класса точности (0,0005; 0,001; 0,002) допустимое отклонение температуры от номинального зна­чения составляет, соответственно, ±0,1 °С; ±0,2 °С; ±0,5 °С. Для за­рубежных приборов часто за номинальное принимается значение температуры +23 °С.

Области нормальных значений ВВ в специальных измерениях оговариваются отдельно в описании СИ или в методиках проведе­ния измерений.

Диапазоны рабочих условий эксплуатации для СИ разного на­значения различны. Скажем, для СИ лабораторного применения это может быть диапазон температур 0...+40 °С.

Для СИ промышленного применения области рабочих значений ВВ являются более широкими, чем, скажем, для лаборатор­ных СИ. Измерительная аппаратура военного назначения имеет еще более широкие области рабочих значений ВВ.

Условия хранения допускают наиболее широкие диапазоны значений ВВ. Например, для основного параметра окружающей среды – температуры – в паспорте на прибор может быть записа­но: «...диапазон рабочих температур: 0...+40 °С, диапазон темпера­тур хранения: –10...+60°С».

Зная класс точности, коэффициенты влияния окружающей сре­ды (например, температурный коэффициент), а также коэффици­енты влияния неинформативных параметров измеряемых сигналов (например, частоты периодического сигнала напряжения при из­мерении действующего значения), можно оценить значение допол­нительной погрешности и затем найти суммарную инструменталь­ную, сложив основную и дополнительную составляющие.

Рассмотрим пример нахождения оценки дополнительной составляющей инструментальной погрешности на примере влияния только одной (но самой важной и, к счастью, наиболее легко оп­ределяемой) ВВ – температуры. Допустим, после выполнения эк­сперимента по классу точности миллиамперметра найдена его основная инструментальная погрешность Δ о = ±1,0 мА; темпера­тура в ходе эксперимента была зафиксирована +28°С. Температур­ный коэффициент в паспорте на прибор определен таким обра­зом: «...дополнительная погрешность на каждые 10 °С отличия от номинальной температуры +20 °С равна основной погрешности в пределах изменения температуры окружающей среды от 0 до +50 °С». Тогда предельное значение дополнительной абсолютной погреш­ности Δ д в данном случае определяется следующим образом:

Δ д = Δ о (28 – 20)/10 = ±1,0·8/10 = ±0,8 мА.

Конец работы -

ИЗМЕРЕНИЕ
Метрология – это наука об измерениях, методах и средствах обеспечения их единства, способах достижения требуемой точно­сти. В метрологии различают три направления; теоретическое (фун­

Физическая величина
Физическая величина (ФВ) – это свойство, в качественном от­ношении общее для многих физических объектов, но в количе­ственном отношении – индивидуальное для каждого объекта. Все многообразие

Виды средств измерений
Средство измерений (СИ) – техническое средство, использу­емое при измерениях и имеющее нормированные метрологиче­ские характеристики. Все СИ подразделя­ются на пять видов: меры, измерительны

Виды и методы измерений
Получать значения ФВ (результаты измерений) можно различ­ными способами. В практике электрических измерений применя­ются разнообразные виды и методы измерений. Существуют сле­дующие виды измерений:

ЕДИНСТВО ИЗМЕРЕНИЙ
Под единством измерений понимают такое состояние измере­ний, при котором их результаты выражены в узаконенных едини­цах и погрешности результатов измерений известны с известной или заданной

Единицы физических величин
Единица физической величины – это такая физическая величи­на, которой по определению присвоено числовое значение, рав­ное единице. В нашей стране, как и в большинстве других стран,

Основные и дополнительные единицы физических величин
Физическая величина Наименование единицы Обозначение русск

Стандартизация
Всего несколько десятилетий назад в мире не было единообразия единиц физических величин. В раз­ных странах, в разных отраслях науки, техники, промышленного производства, в сельском хозяйстве, в тор

Эталоны
Эталон – это СИ, обеспечивающее хранение и/или воспро­изведение единицы физической величины с целью передачи ее размера другим СИ (образцовым или рабочим) и официально ут­вержденное.

Погрешность результата измерения
Истинное значение измеряемой величины принципиально не может быть найдено (грамотный экспериментатор, понимая это, и не стремится к этому). Поэтому и реальное (истинное) значение погрешности резуль

Погрешности средств измерений
Как правило (и обычно в грамотно организованных экспери­ментах), определяющей составляющей в суммарной погрешности результата измерения является погрешность собственно СИ, т.е. инструментальная

Методическая погрешность
Как известно, погрешность результата измерения определяется не только классом точности СИ. Источниками недостоверности результата могут быть и другие причины. Рассмотрим примеры, поясняющие появлен

Погрешность взаимодействия
Эта составляющая общей погрешности результата возникает из-за конечных сопротивлений источника сигнала и пр

Динамическая погрешность
Динамическая погрешность – это погрешность СИ, возникаю­щая при измерении изменяющейся в процессе измерений физи­ческой величины. Предположение о статической модели объекта (без име

Субъективная погрешность
Различают нормальное (штатное, объяснимое, предсказуемое) проявление субъективности отсчитывания при фиксации результа­та измерения (отсчета) и ненормальное (непредсказуемое). Появле­ние субъект

ОБРАБОТКА РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ
Одно значение измеряемой величины (отдельный результат пря­мого измерения), получаемое в процессе измерительного экспе­римента, называется наблюдением. Окончательный результат изме­рения в о

Обработка прямых измерений
Различают однократные (одиночные) и многократные (множе­ственные) прямые измерения. Однократные измерения – это самые простые по выполнению и обработке – наиболее распростран

Многократные прямые измерения
В многократных (множественных) прямых измерениях получают ряд наблюдений (в общем случае различных) одной и той же фи­зической величины. При этом возможны две постановки задачи. Первая

Обработка косвенных измерений
Косвенные измерения в практике электрических измерений встречаются довольно часто. Вопрос оценки погрешности резуль­тата измерения – один из важнейших в таких экспериментах. Имея подробную и

Расчет погрешности результата косвенного измерения
Рассмотрим пример расчета погрешности результата косвенно­го измерения активной мощности с помощью амперметра на на­грузке с известным значением сопротивления. При известных и постоянных значениях

От погрешностей, присущих средствам измерений, зависит погрешность результата измерений той или иной физической величины. Погрешность средства измерений есть разница между значением величины, полученной при помощи этого средства, и истинным значением измеряемой величины. Поскольку истинное значение величины не известно, на практике вместо него пользуются действительным значением величины, полученным при помощи более точного средства измерений.

Погрешности средств измерений могут быть классифицированы следующим образом:

По характеру появления и причинам – систематические и случайные;

По отношению к условию применения – основные и дополнительные;

По способу (форме) числового выражения – абсолютные, относительные и приведенные.

Систематической погрешностью средства измерения называется составляющая погрешности, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Происхождение и характер этих погрешностей известен и выявляется в результате многократных измерений одной и той же величины. Влияние этих погрешностей исключается путем введением поправок, определяемых расчетным или опытным путем.

Случайной погрешностью средства измерения называется составляющая погрешности, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Она возникает в результате влияния на средства измерений таких случайных факторов как вибрация, наличие электромагнитных полей, изменение органов чувств наблюдателя. Они не могут быть исключены опытным путем. Для учета случайных погрешностей одну и ту же величину измеряют много раз данным средством измерений. К полученному ряду значений применимы теории вероятности и математической статистики, на основании которых оценивается случайная составляющая погрешности средств измерений.

Основная погрешность – это погрешность средства измерения, используемого в нормальных условиях, которые обычно определены в нормативно-технической документации на данное средство измерения.

Под дополнительными погрешностями понимают изменение погрешности средств измерений вследствие отклонения влияющих величин от нормальных значений.

Абсолютная погрешность измерительного прибора – это разность между показаниями прибора и истинным (действительным) значением измеряемой величины:

где Х П – показания прибора;

Х д – действительное значение измеряемой величины. За действительное значение измеряемой величины принимают показания образцового прибора.

Относительная погрешность прибора – это отношение абсолютной погрешности измерительного прибора к истинному (действительному) значению измеряемой величины, %:

Приведенная погрешность измерительного прибора - это отношение абсолютной погрешности измерительного прибора к нормирующему значению. нормирующее значение – условно принятое значение Х N , равное или верхнему пределу измерения, или диапазону измерений, или длине шкалы. Приведенную погрешность обычно выражают в %:

Точность СИ – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Класс точности СИ – это обобщенная характеристика данного типа СИ, как правило, отражающая уровень их точности, выражается пределами допускаемых основных и дополнительных погрешностей, а также другими характеристиками, влияющими на точность. Класс точности дает возможность судить о том, в каких пределах находится погрешность СИ данного типа, но не является непосредственным показателем точности измерений , выполняемых с помощью каждого из этих средств. Класс точности средств измерений конкретного типа устанавливается в стандартах, технических условиях или других нормативных документах.

В соответствии с основными нормативами документации (ГОСТ 12997-76 «Государственная система промышленных приборов и средств автоматизации. Технические условия») основной метрологической характеристикой измерительного прибора является класс точности , который является обобщенной характеристикой средств измерений, определяющей пределы допускаемых основных и дополнительных погрешностей. Под пределом допускаемой погрешности понимается наибольшая (без учета знака) погрешность средства измерений при которой оно может быть признано годным к эксплуатации.

ГОСТ 8.401-80 регламентирует способы значения классов точности в зависимости от способа выражения пределов допускаемых погрешностей средств измерений. Этим стандартом предусматривается выражение предельно допускаемых погрешностей средств измерений в виде абсолютных и приведенных погрешностей.

где - предел допускаемой приведенной погрешности, %;

х N – нормирующее значение, равное или верхнему пределу измерений или диапазону измерений, или длине шкалы.

Для измерительных приборов предельные допускаемые погрешности которых выражены как приведенные погрешности согласно выражению (5), должны быть присвоены классы точности, выбираемые из ряда чисел:

(1;1.5; 2; 2.5; 3; 4; 5; 6) 10 n , где n=(1.0; 0; -1; -2; и т.д.) Класс точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Для измерительных приборов, предел допускаемых погрешностей которых выражается относительной погрешностью в процентах, согласно выражению (4) класс точности определяется совокупностью значений с и d. Тогда условные обозначения состоят из двух чисел, разделенных косой чертой и равных с и d.

Таким образом, для большинства применяемых в практике приборов используются одночленные или двучленные обозначения класса точности. Например, обозначение класса точности 0,5 показывает, что пределы допускаемых погрешностей выражаются в процентах нормирующего значения. Обозначение класса точности 0,1/0,2 означает что предел допускаемой относительной погрешности в процентах значения измеряемой величины определяется формулой

,

где с=0,1 d=0,02

Статические погрешности СИ возникают при измерении физической величины, принимаемой за неизменную. Динамические погрешности средств измерений возникают при измерении изменяющейся во времени (в процессе измерений) физической величины.

На обеспечение качества измерений направлено применение аттестованных методик выполнения измерений (МВИ) – ГОСТ 8.563-96 «ГСИ. Методики выполнения измерений».

Методика выполнения измерений – это совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с известной погрешностью. МВИ – это, как правило, документированная измерительная процедура. МВИ может быть изложена в отдельном документе (стандарте, рекомендации), разделе стандарта, части технического документа (разделе ТУ, паспорта).

Аттестация МВИ – процедура установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям. В документах, регламентирующих МВИ в общем случае указывают: назначение МВИ; условия выполнения измерений; требования к погрешности измерений; метод измерений; требования к средствам измерения, вспомогательным устройствам, материалам и т.п.; операции при подготовке к выполнению измерений; операции при выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности выполняемых работ.