|
Очевидно, что в силу случайных колебаний эмпирические частоты будут отличаться от теоретических вероятностей . Чтобы контролировать это различие, следует подобрать хорошую меру расхождения между экспериментальными данными и гипотетическим теоретическим распределением. По аналогии с идеей метода наименьших квадратов в качестве такой меры расхождения можно взять, например, , где положительные числа можно выбирать более или менее произвольно. Как показал К. Пирсон, если выбрать , то полученная величина будет обладать рядом замечательных свойств. Таким образом, положим | ||||||||
(51) |
Подчеркнем, что величина вычисляется по выборке. Функцию принято называть статистикой Пирсона. Обсудим ее свойства.
Поведение , когда гипотеза верна.
Речь идет о поведении при увеличении объема выборки: .
Теорема К. Пирсона. Предположим, что гипотеза верна. Тогда при распределение величины сходится к распределению хи-квадрат с степенью свободы, то есть,
Практический смысл этой теоремы в том, что при большом объеме выборки распределение можно считать распределением хи-квадрат с степенью свободы.
Поведение , когда гипотеза неверна.
Предположим теперь, что и разбиение таково, что
где вероятности вычислены по функции распределения . Тогда можно показать (см., например, [13, § 10.4]), что
(52)
То обстоятельство, что поведение существенно различно в зависимости от того верна или нет гипотеза , дает возможность построить критерий для ее проверки. Зададимся некоторым уровнем значимости (допустимой вероятностью ошибки) и возьмем квантиль , определенную формулой (45):
Определим критическое множество :
Таким образом, наши действия по принятию (или отвержению) гипотезы состоят в следующем. Подстановкой имеющихся данных в формулу (51) вычисляется значение функции , которое затем сравнивается с :
если , то гипотеза отвергается (при этом говорят, что выборка обнаруживает значимое отклонение от гипотезы ),
если , то гипотеза принимается (говорят, что выборка совместима с гипотезой ).
Действительно, такое решающее правило соответствует вышеизложенным фактам о поведении функции . Приведем аргументы, основанные на здравом смысле, свидетельствующие в пользу этого решающего правила. Если значения функции оказались ``слишком большими'', то, принимая во внимание (52), разумно считать, что гипотеза не имеет места. Если же значения ``не слишком большие'', то, скорее всего, гипотеза верна, поскольку это согласуется с теоремой Пирсона.
При таком решающем правиле мы может допустить ошибку, отвергнув верную гипотезу . Из теоремы Пирсона вытекает, что при больших величина вероятности этой ошибки близка к .
Пусть наблюдаемая случайная величина зависит от случайной величины или случайного вектора . Значения мы либо задаем, либо наблюдаем. Обозначим через функцию, отражающую зависимость среднего значения от значений :
(29)
Функция называется линией регрессии на , а уравнение -- регрессионным уравнением.
В регрессионном анализе изучается односторонняя зависимость переменной Y от одной или нескольких переменных X1 ,... ,Xk . Переменную Y называют функцией отклика или объясняемой переменной, а X1 ,... ,Xk - объясняющими переменными. Основная задача регрессионного анализа - установление формы зависимости между объясняемой и объясняющими переменными и анализ достоверности модельных параметров этой зависимости.
Пусть требуется найти аналитический вид (формулу вычисления) некоторого экономического показателя Y.
На первом шаге регрессионного анализа идентифицируют переменные X1 ,... ,Xk , от которых зависит Y, т.е. определяют те существенные факторы, которые воздействуют на этот показатель. Символически этот факт записывается так: .
На втором шаге регрессионного анализа требуется спецификация формы связи между Y и X1 ,... ,Xk , т.е. определение вида функции f. Ориентиром для определения вида зависимости являются содержание решаемой задачи, результаты наблюдений за поведением показателя относительно изменения факторов на основе статистических данных. Например, выборочные наблюдения пар наблюдаемых значений , приведенные на Рис. 9.1a), говорят о линейном характере зависимости вида , а на Рис 9.1b) - о полиномиальной зависимости вида .
Рис. 9.1. Примеры эмпирических зависимостей
Предположим, что в результате спецификации определена линейная зависимость между показателем Y и факторами X1 ,... ,Xk :
Задача третьего шага регрессионного анализа заключается в определении конкретных числовых значений параметров на основе статистических данных о наблюдениях значений Y, X1 ,... ,Xk.
Естественно, линейные зависимости вида (9.2.1) наиболее просты для эконометрических исследований. Оказывается, что в ряде случаев к виду (9.2.1) можно привести и нелинейные зависимости с помощью логарифмирования, введения обратных величин и других приемов. Преобразование нелинейных функций в линейные называется линеаризацией.
Начнем с очень простого примера. Предположим, что есть три образца некоторого материала, массы которых , и неизвестны. В наличии имеются весы, допускающие случайную нормально распределенную погрешность. Образцы взвешивают раздельно, получая при этом показания весов , и соответственно. Затем три образца взвешивают вместе и получают показания весов . Если допустить, что весы всякий раз делают независимую ошибку, то, как правило, окажется, что .
Если бы мы допустили ``идеальную'' ситуацию, когда весы определяют массу абсолютно точно, то, очевидно, в четвертом взвешивании не было бы никакого смысла. Что касается реального опыта, когда к теоретическим массам добавляются случайные ошибки, то интуитивно кажется, что четвертое взвешивание может содержать в себе полезную информацию. Вопрос только в том, как ее правильно обработать.
Теперь сформулируем и обсудим общую модель, а затем вернемся к примеру.
Предположим, что неизвестные величины последовательно измеряются некоторым измерительным прибором, прибавляющим случайную ошибку, распределенную по нормальному закону . Считая эти измерения независимыми между собой и обозначая результаты этих измерений через соответственно, запишем
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11
Новости |
Мои настройки |
|
© 2009 Все права защищены.