, (2.4)
где 2 - дисперсия генеральной совокупности. Генеральной
совокупностью называют все множество возможных значений измерений xi или возможных значений погрешностей
xi.
Широкое использование закона
Гаусса в теории ошибок объясняется следующими причинами:
1) равные по абсолютному значению
погрешности встречаются одинаково часто при большом числе измерений;
2) малые по абсолютному значению
погрешности встречаются чаще, чем большие, т. е. вероятность появления
погрешности тем меньше, чем больше ее абсолютное значение;
3) погрешности измерений принимают
непрерывный ряд значений.
Однако, эти условия никогда строго не
выполняются. Но эксперименты подтвердили, что в области, где погрешности не
очень велики, нормальный закон распределения хорошо согласуется с опытными
данными. С помощью нормального закона можно найти вероятность появления
погрешности того или иного значения.
Распределение Гаусса характеризуется
двумя параметрами: средним значением случайной величины и дисперсией 2. Среднее значение определяется
абсциссой (х =)
оси симметрии кривой распределения, а дисперсия показывает, как быстро
уменьшается вероятность появления погрешности с увеличением ее абсолютного
значения. Кривая имеет максимум при х =. Следовательно, среднее значение
является наиболее вероятным значением величины х. Дисперсия определяется
полушириной кривой распределения, т. е. расстоянием от оси симметрии до точек
перегиба кривой. Она является средним квадратом отклонения результатов
отдельных измерений от их среднего арифметического значения по всему распределению.
Если при измерении физической величины получают только постоянные значения х
=, то 2 = 0. Но если значения случайной
величины х принимают значения, не равные , то ее дисперсия не равна нулю и положительна.
Дисперсия, таким образом, служит мерой флуктуации значений случайной величины.
Мера рассеяния результатов отдельных
измерений от среднего значения должна выражаться в тех же единицах, что и
значения измеряемой величины. В связи с этим в качестве показателя флуктуации
результатов измерений гораздо чаще используют величину
,
называемую средней квадратичной
погрешностью. Она является важнейшей характеристикой результатов измерений
и остается постоянной при неизменности условий эксперимента. Значение этой
величины определяет форму кривой распределения. Так как при изменении площадь под кривой, оставаясь
постоянной (равной единице), меняет свою форму, то с уменьшением кривая распределения вытягивается
вверх вблизи максимума при х =, и сжимаясь в горизонтальном направлении. С
увеличением значение функции р(хi) уменьшается, и кривая распределения
растягивается вдоль оси х (см. рис. 2).
Для нормального закона распределения
средняя квадратическая погрешность отдельного измерения
, (2.5)
а средняя квадратическая погрешность
среднего значения
. (2.6)
Средняя квадратическая
погрешность более точно характеризует погрешности измерений, чем средняя
арифметическая погрешность, так как она получена достаточно строго из закона
распределения случайных величин погрешностей. Кроме того, непосредственная
связь ее с дисперсией, вычисление которой облегчается рядом теорем, делает среднюю
квадратическую погрешность очень удобным параметром.
Наряду с размерной
погрешностью используют и безразмерную относительную
погрешность =/, которая, как и x, выражается либо в долях
единицы, либо в процентах. Окончательный результат измерений записывают в виде:
, . (2.7)
Однако, на практике
невозможно провести слишком много измерений, поэтому нельзя построить
нормальное распределение, чтобы точно определить истинное значение х0.
В этом случае хорошим приближением к истинному значению можно считать , а достаточно точной
оценкой ошибки измерений – выборочную дисперсию , вытекающую из нормального закона
распределения, но относящуюся к конечному числу измерений. Такое название
величины объясняется
тем, что из всего множества значений хi, т. е. генеральной совокупности
выбирают (измеряют) лишь конечное число значений величины хi (равное n), называемых выборкой.
Выборка характеризуется уже выборочным средним значением и выборочной дисперсией.
Тогда выборочная средняя
квадратическая погрешность отдельного измерения (или эмпирический стандарт)
, (2.8)
а выборочная средняя
квадратическая погрешность ряда измерений
. (2.9)
Из выражения (2.9) видно,
что, увеличивая число измерений, можно сделать сколь угодно малой среднюю
квадратическую погрешность . При n > 10 заметное изменение величины достигается лишь при весьма значительном
числе измерений, поэтому дальнейшее увеличение числа измерений нецелесообразно.
К тому же, невозможно полностью исключить систематические погрешности, и при , меньшей систематической
ошибки дальнейшее увеличение числа опытов также не имеет смысла.
Таким образом, задача
нахождения приближенного значения физической величины и его погрешности решена.
Теперь необходимо определить надежность найденного действительного значения.
Под надежностью измерений понимают вероятность попадания истинного значения в
данный доверительный интервал. Интервал (– ,+
), в котором находится с
заданной вероятностью истинное значение х0, называют доверительным
интервалом.
Допустим, что вероятность
отличия результата измерений х от истинного значения х0
на величину, большую, чем ,
равна 1 – , т. е.
p(– < х0 <+ ) = 1 – . (2.10)
В теории ошибок обычно под понимают величину . Поэтому
p(– < х0 <+ ) = Ф(t), (2.11)
где Ф(t) – интеграл
вероятности (или функция Лапласа), а также нормальная функция распределения:
, (2.12)
где .
Таким образом, чтобы
охарактеризовать истинное значение, требуется знать как погрешность, так и
надежность. Если доверительный интервал увеличивается, то возрастает надежность
того, что истинное значение х0 попадает в данный интервал.
Высокая степень надежности необходима при ответственных измерениях. Это
означает, что в таком случае нужно выбирать большой доверительный интервал или
вести измерения с большей точностью (т. е. уменьшить величину ), что можно сделать, например,
многократным повторением измерений.
Под доверительной
вероятностью понимается вероятность того, что истинное значение измеряемой
величины попадает в данный доверительный интервал. Доверительный интервал
характеризует точность измерения данной выборки, а доверительная вероятность –
достоверность измерения.
В подавляющем большинстве
экспериментальных задач доверительная вероятность составляет 0.90.95 и более высокая
надежность не требуется. Так при t = 1 согласно формулам (2.10 –2.12) 1 – = Ф(t) = 0.683, т. е. более 68 % измерений находится
в интервале (–,+). При t = 2 1 – = 0.955, а при t = 3 параметр 1 – = 0.997. Последнее означает, что в интервале (–,+) находятся почти все измеренные значения. Из
данного примера видно, что интервал действительно содержит большинство
измеренных значений, т. е. параметр может служить хорошей характеристикой точности измерений.
До сих пор предполагалось,
что число измерений хотя и конечно, но достаточно велико. В действительности же
число измерений почти всегда бывает небольшим. Более того, как в технике, так и
в научных исследованиях нередко используют результаты двух-трех измерений. В
этой ситуации величины и
в лучшем случае
могут определить лишь порядок величины дисперсии. Существует корректный метод
для определения вероятности нахождения искомого значения в заданном
доверительном интервале, основанный на использовании распределения Стьюдента
(предложенного в 1908 г. английским математиком В.С. Госсетом). Обозначим через
интервал, на
который может отклоняться среднее арифметическое значение от истинного значения х0,
т. е. x = х0 –. Иными словами, мы хотим
определить значение
.
Тогда
, (2.13)
где Sn определяется формулой (2.8).
Эта величина подчиняется распределению Стьюдента. Распределение Стьюдента
характерно тем, что не зависит от параметров х0 и нормальной генеральной совокупности
и позволяет при небольшом числе измерений (n < 20) оценить погрешность x = –
хi по заданной доверительной
вероятности или по заданному значению x найти надежность измерений. Это
распределение зависит только от переменной t и числа степеней свободы l = n – 1. Распределение Стьюдента справедливо
при n2 и симметрично относительно t = 0 (см. рис. 3). С ростом числа измерений
t-распределение стремится к
нормальному распределению (фактически при n > 20).
Доверительную вероятность при
заданной погрешности результата измерений получают из выражения
p(–< х0 <+) = 1 – . (2.14)
При этом величина t аналогична коэффициенту t в формуле (2.11). Величину t называют коэффициентом Стьюдента,
его значения приводятся в справочных таблицах. Используя соотношения (2.14) и
справочные данные можно решить и обратную задачу: по заданной надежности определить допустимую погрешность результата
измерений.
Распределение Стьюдента позволяет
также установить, что с вероятностью, как угодно близкой к достоверности, при
достаточно большом n среднее арифметическое значение
будет как угодно
мало отличаться от истинного значения х0.
Предполагалось, что закон
распределения случайной погрешности известен. Однако часто при решении
практических задач не обязательно знания закона распределения, достаточно лишь
изучить некоторые числовые характеристики случайной величины, например среднее
значение и дисперсию. При этом вычисление дисперсии позволяет оценить доверительную
вероятность даже в случае, когда закон распределения погрешности неизвестен или
отличается от нормального.
В случае, если проведено
всего одно измерение, точность измерения физической величины (если оно
проведено тщательно) характеризуется точностью измерительного прибора.
3. ПОГРЕШНОСТИ КОСВЕННЫХ
ИЗМЕРЕНИЙ
Часто при проведении
эксперимента встречается ситуация, когда искомые величины и(хi) непосредственно определить
невозможно, однако можно измерить величины хi. Например, для измерения плотности чаще всего измеряют массу m и объем V, а значение плотности рассчитывают
по формуле = m/V. Величины хi содержат, как обычно, случайные погрешности, т. е. наблюдают
величины xi' = xixi. Как и ранее, считаем, что xi распределены по нормальному
закону.
1. Пусть и = f(х)
является функцией одной переменной. В этом случае абсолютная погрешность
. (3.1)
Относительная погрешность
результата косвенных измерений
. (3.2)
2. Пусть и = f(х,
у) является функцией двух переменных. Тогда абсолютная погрешность
, (3.3)
а относительная погрешность
составит
. (3.4)
3. Пусть и = f(х,
у, z, …) является функцией
нескольких переменных. Тогда абсолютная погрешность по аналогии
(3.5)
и относительная погрешность
, (3.6)
где , и определяются согласно формуле (2.9).
В таблице 2 приводятся
формулы для определения погрешностей косвенных измерений для некоторых часто
встречающихся формул.
Таблица 2
Функция
u
|
Абсолютная погрешность u
|
Относительная погрешность u
|
|
|
|
|
|
|
|
|
|
ex
|
|
|
ln x
|
|
|
sin x
|
|
|
cos x
|
|
|
tg x
|
|
|
ctg x
|
|
|
xy
|
|
|
xy
|
|
|
x/y
|
|
|
4. ПРОВЕРКА НОРМАЛЬНОСТИ
РАСПРЕДЕЛЕНИЯ
Все приведенные выше
доверительные оценки как средних значений, так и дисперсий основаны на гипотезе
нормальности закона распределения случайных ошибок измерения и поэтому могут
применяться лишь до тех пор, пока результаты эксперимента не противоречат этой
гипотезе.
Если результаты эксперимента
вызывают сомнение в нормальности закона распределения, то для решения вопроса о
пригодности или непригодности нормального закона распределения нужно произвести
достаточно большое число измерений и применить одну из описанных ниже методик.
Проверка по среднему
абсолютному отклонению (САО). Методика может использоваться для не очень больших выборок (n <
120). Для этого вычисляется САО по формуле:
. (4.1)
Для выборки, имеющий
приближенно нормальный закон распределения, должно быть справедливо выражение
. (4.2)
Если данное неравенство (4.2)
выполняется, то гипотеза нормальности распределения подтверждается.
Проверка по критерию
соответствия 2 ("хи-квадрат") или
критерию согласия Пирсона. Критерий основан на сравнении эмпирических частот с
теоретическими, которые можно ожидать при принятии гипотезы о нормальности
распределения. Результаты измерений после исключения грубых и систематических
ошибок группируют по интервалам таким образом, чтобы эти интервалы покрывали
всю ось и чтобы количество данных в каждом интервале было достаточно большим (не
менее пяти). Для каждого интервала (хi –1, хi)
подсчитывают число тi результатов измерения, попавших в этот интервал. Затем вычисляют
вероятность попадания в этот интервал при нормальном законе распределения вероятностей
рi:
, (4.3)
Далее вычисляют сумму
, (4.4)
где l – число всех
интервалов, n – число всех результатов измерений (n = т1
+ т2 +…+ тl).
Страницы: 1, 2, 3, 4, 5
|