Стандартные ошибки коэффициентов регрессии: Стандартная ошибка коэффициента множественной регрессии имеет такой

Стандартная ошибка коэффициента регрессии

Стандартные ошибки коэффициентов регрессии: Стандартная ошибка коэффициента множественной регрессии имеет такой

⇐ Предыдущая1234567Следующая ⇒

Для оценки существенности коэффициента регрессии его ве­личина сравнивается с

его стандартной ошибкой, т. е. определяется фактическое значение t-критерия

Стьюдентa: которое

затем сравнивается с табличным значением при определенном уровне значимости

и числе степеней свободы (n- 2).

Стандартная ошибка параметра а:

Значимость линейного коэффициента корреляции проверя­ется на основе величины

ошибки коэффициента корреляции тr:

Общая дисперсия признака х:

Коэф. регрессии Его

величина показывает ср. изменение результата с изменением фактора на 1 ед.

Ошибка аппроксимации:

16. Оценка значимости параметров уравнения множественной регрессии

Множественная регрессия-это уравнение связи с несколькими независимыми переменными

Y = b0 + b1xi1 + … + bjxij + … + bkxik + ei

где ei — случайные ошибки наблюдения, независимые между собой, имеют нулевую среднюю и дисперсию s.

Экономический смысл параметров множественной регрессии
Коэффициент множественной регрессии bj показывает, на какую величину в среднем изменится результативный признак Y, если переменную Xj увеличить на единицу измерения, т. е. является нормативным коэффициентом.

Матричная запись множественной линейной модели регрессионного анализа:

Y = Xb + e

Модель множественной регрессии вида Y = b0 + b1X1 + b2X2;

Для оценки параметров уравнения множественной регрессии применяют метод наименьших квадратов.

Как и в случае множественной регрессии, статистическая значимость коэффициентов множественной регрессии с m объясняющими переменными проверяется на основе t-статистики:

имеющей в данном случае распределение Стьюдента с числом степеней свободы v = n- m-1. При требуемом уровне значимости наблюдаемое значение t-статистики сравнивается с критической точной распределения Стьюдента.

В случае, если , то статистическая значимость соответствующего коэффициента множественной регрессии подтверждается. Это означает, что фактор Xj линейно связан с зависимой переменной Y. Если же установлен факт незначимости коэффициента bj, то рекомендуется исключить из уравнения переменную Xj. Это не приведет к существенной потере качества модели, но сделает ее более конкретной.

Формула средней ошибки параметра зависит от какого параметра оценивается. Общая для всех параметров уравнения регрессии формула выглядит следующим образом:

Mbi=квадратный корень из SSост./n-m-1 * [X в степени T * X] в минус первой степени) ii

SSост. = E(y-y с домиком) в квадрате

n – число наблюдений

m – количество параметров без свободного члена.

([X в степени T * X] в минус первой степени)ii — ii – диагональный элемент с номером ii матрицы ([X в степени T * X] в минус первой степени) , причём y = a+b1x1+ … + bpxp + E , i=0,1,2…p

Mbo=Ma

0 1 2

0 (0)

1 ( )

2 ( )

3 ( )

Квадратный корень из SSост.-m-1 – стандартная ошибка регрессии

В большинстве случаев приведённую формулу ошибки можно упростить, в частности, если имеется парное линейное уравнение регрессии, то ошибка коэффициента регрессии рассчитывается по формуле:

Mb = квадратный корень из SSост.\ (n-m-1) * E (x – x c штрихом) в квадрате

Ma = квадратный корень из SSост. * Ex в квадрате\ (n-m-1) * E ( x – x с штрихом) в квадрате * n

y=a+b1x1+…+bpxp+ E

Mbi= Gy/Gx * квадратный корень из 1-R в квадрате \ ( 1 – R в квадрате xi(x)) – (n-m-1)

Для определения ошибки собственного члена не подходит.

R в квадрате xi (x) = r в квадрате

Общий критерий Фишера

Значимость уравнения множественной регрессии в целом, так же как и в парной регрессии, оценивается с помощью F-критерия. Сопоставляя факторную и остаточную дисперсии в расчете на одну степень свободы, получим величину F-отношения, т.е. критерий F:

F= Dфакт/Dост = (R²/1-R²) * (n-m-1/m),

где Dфакт – факторная сумма квадратов на одну степень свободы

R² — индекс (коэффициент) множественной детерминации

n – число наблюдений

m – число параметров при переменных x (в линейной регрессии совпадает с числом включенных в модель факторов)

Dост – остаточная сумма квадратов на одну степень свободы.

Величина m характеризует число степеней свободы для факторной суммы квадратов, а (n-m-1) – число степеней свободы для остаточной суммы квадратов.

Применение критерия Фишера предполагает:

1) расчет фактического значения критерия Fфакт

2) по таблице – табличного значения Fтабл

3) сравнение Fфакт и Fтабл, если факт>табл, то оцениваемое уравнение регрессии значимо с вероятностью P= 1-a (альфа), где а- вероятность ошибки.

Общий f-критерий:

, где SSфакт – факторная сумма квадратов =

SSост – остаточная сумма квадратов = , n- кол-во наблюдений, m – кол-во параметров уравнения регрессии без свободного члена

Табличное значение F-критерия – это максимальная величина отношения дисперсий.

Формулу фактического значения часто используют в измененном виде:

Таблица дисперсионного анализа

Оценка значимости уравнения регрессии обычно дается в виде таблицы дисперсионного анализа.

Источники вариации Число степеней свободы df Сумма квадратов отклонений Дисперсия на одну степень свободы (MS=SS/df) Fфакт Fтабл, при а=0,05
Регрессия m SSфакт = ∑(y-y¯)² SSфакт/m MSфакт/ MSост Fтабл
Случайные колебания n-m-1 SSост = ∑(y-y)² SSост/ n-m-1
Общая вариация n-1 SSобщ = ∑(y-y¯)²

19.Показатели частной корреляции и детерминации

Для оценки изолирован влияния кажд фактора на рез-т при устранении воздействия прочих факторов модели исп-ся частные показатели корреляции.

Показатели частн корреляц представляют собой отношение сокращения остаточной дисперсии за счет дополнит включения в анализ нов фактора к остаточн дисперсии, имевшей место до введения его в модель. 1)индекс частной корреляции для фактора х1. η yx1*x2x3…xn=корень из (G2yx2x3..xm(ост) – G2yx1x2x3..

xm(ост))/G2yx2x3..xm(ост) Под корнем в числителе- сокращение остаточн дисперсии за счет включения в модель фактора x1 после остальных факторов. 2)частный коэф корреляции ryx1*x2x3..xm=корень из (1-(1– R2yx1*x2x3..xm)/(1- R2yx2x3..

xm))Рекурентные формулы расчета частн коэф корреляции 1го порядка: Порядок частн показателя корреляции соотв-ет числу факторных признаков, влияние котор устраняется. Для 2х факторн модели част коэф корреляции:

ryx1*x2= (ryx1 — ryx2* rx1x2)/корень из((1- ryx22)* (1- rx1x22)) и

ryx2*x1= (ryx2 — ryx1* rx1x2)/корень из((1- ryx12)* (1- rx1x22))

Измеряется от -1 до 1. Исп-ся для оценки целесообразности добавления нов фактора в ур-ние после других факторов. Если частн коэф корреляции стремится к 0, то добавление нов.фактора не целесообразно.

20. Частный F-критерий

Для оценки статистич целесообразности добавления нов факторов в регрессион модель исп-ся частн критерий Фишера, т.к на рез-ты регрессион анализа влияет не только состав факторов, но и последовательность включения фактора в модель. Это обьясняется наличием связи между факторами.

Fxj =( (R2 по yx1x2…xm – R2 по yx1x2…xj-1,хj+1…xm)/(1- R2 по yx1x2…xm) )*( (n-m-1)/1)

Fтабл (альфа,1, n-m-1) Fxj больше Fтабл – фактор xj целесообразно лючать в модель после др.факторов.

Если рассматривается уравнение y=a+b1x1+b2+b3x3+e, то определяютсяпоследовательно F-критерий для уравнения с одним фактором х1, далее F-критерий для дополнительного включения в модель фактора х2, т. е. дляперехода от однофакторного уравнения регрессии к двухфакторному, и,наконец, F-критерий для дополнительного включения в модель фактора х3, т.е. дается оценка значимости фактора х3 после включения в модель факторов x1их2. В этом случае F-критерий для дополнительного включения фактора х2после х1 является последовательным в отличие от F-критерия длядополнительного включения в модель фактора х3, который является частным F-критерием, ибо оценивает значимость фактора в предположении, что он включенв модель последним. С t-критерием Стьюдента связан именно частный F-критерий. Последовательный F-критерий может интересовать исследователя настадии формирования модели. Для уравнения y=a+b1x1+b2+b3x3+e оценказначимости коэффициентов регрессии Ь1,Ь2,,b3 предполагает расчет трехмежфакторных коэффициентов детерминации.

Тест Парка

Тест Парка – нахождение параметров для регрессии следующего вида:

lnE2=a+bln*xi+б, где

xi — фактор, который предположительно оказывает влияние на дисперсионный остаток

б — случайный остаток (но который остался от др. случ. остатка)

Оцен-ся значимость коэффициента b (знач, если t факт>t табл),

если значимый – остатки гетероскедастичны,

если незначим – гомоскед.

Тест Глейзера

|E| = а+bxik + б

а,b – неизвестные параметры, зависят от ур. регрессии

k – задается произвольно, обычно k может быть равно: -2;-1;-0,5;0,5;1;2.

Дается оценка значимости b, если он значим – гетероскедостичность в остатке (т.е. отсутствие зависимости x от y)

Если изменится форма регрессии, то параметры меняются. t>t табл -> параметры значимы -> гетероскедастичность по определенному фактору (xi).

Если гетероскедостичность хотя бы по одному тесту -> остатки гетероскедостичны в общем и тест Глейзера можно не продолжать

Тест Уайта.

используется для анализа гетероскедастичности случайных остатков (E).

Т.е. изменения дисперсии случайных остатков от наблюдения к наблюдению.

Для выбора хорошей модели уравнения регрессии необходимо, чтобы Е были гомоскедастичны, т.е. их дисперсия была постоянна, и не зависела от дисперсии фактора х.

В тесте Уайта моделируется уравнение рессии,сост. из элементов, включающих все факторы, входящие в уравнение регрессии+Эти же факторы в квадрате+необязательная часть,- попарные произведения факторов.

Для случая модели с двумя факторами (x1 и x2), ур-я будут иметь вид:

E2=a+b11x1+b21x2+b12x12+b22x22+c12x1x2+δ

В рамках теста нужно оценить знач-ть всего ур. в целом, с помощью F-критерия Фишера. Если Fфакт>Fтабл =>Ур. значимо => все ф-ры оказывают влияние на величину Е и => остатки гетероскед-ны. И наоборот.

Из этого Ур-я иногда следует назвать факторы, вызыв-е гетероскед-ть остатков. Это ф-ры, имеющие значимые параметры при них. Находятся ф-ры с помощью t-критерия Стьюдента.

Tсли Tфакт>Tтабл => ф-р значим и влияет на остатки, вызывая их гетероскедостичность, если же Tфактф-р незначим и не влияет на остатки. Т.е.

если Tтабл=2,45,а Tфакт по (x2)= — 4, можно сделать вывод, что x2 значим и влияет на гетероскедастичность остатков.(Т.К. значение t-критерия берём по модулю!)

Тест Гольдфельда-Квандта.

С помощью этого теста исследуются случайные остатки (Е) на предмет гомоскедастичности.

Этапы теста:

  1. совок-ть наблюдений упорядочивают по фактору, кот. предположительно влияет на Е.
  2. Всю эту совок-ть делят на три группы (n1,n2,n3). При этом, n1 и n3 должны содержать равное кол-во эл-тов(n1=n3). n2 мож.быть =n1 и n3 (Желательно!), или же быть меньше n1 и n3.
  3. По 1 и 3 совок-ти строят ур-я регрессии используя Метод Наименьш.Квадратов. Причём они должны иметь ту же структуру, что и исходн. ур-е регр. Т.е. если исходн. ур-е имеет 2 фак-ра (x1,x2), то и новые ур-я должны иметь столько же фак-ров.
  4. Для кажд.из 2-х ур-й рассчитывают остаточные дисперсии( соответственно SS1ост и SS3ост)
  5. Далее находят фактич.знач-е F-критерия, для этого бОлшую остат.дисперсию делят на меньшую. (нпр. SS1ост /SS3ост)
  6. Далее находят Fтабл при df1=df2=n1-m-1. Если Fфакт>=Fтабл, то остатки Е гетероскед-ны по тому фактору, по кот.мы проводили упорядоч-ние в 1п.

Например: Отсортируем совок-ть по фактору x2(он предположит-но влияет на Е)

Y x1 x2

121 56 28

80 114 36

56 124 42

75 98 46

88 102 50

45 17 54

110 116 54

63 28 56

113 50 63

160 115 88

203 118 105

237 154 106

Разделим совок-ть на 3 гр:n1=n3=n3=4

Построим Ур-я для n1 и n3 вида: y=a +b1x1+b2x2 +E

y = 193 – 0,64×1 – 1,25×2 + E

y = -17,8 + 0,49×1 + 1,57×2 + E

SSост(1): = 57,1

SSост(3)= 503,3

Fфакт=503,3/57,1= 8,8

df1 = df2 = 4 -2-1 = 1, Fтабл=161,4 => Fфакт E – гомоскед-ны

Вопрос 30 Применение МНК к одной из парных нелинейных функций регрессии (параболе, гиперболе, степенной, показательной)

Не весь вопрос

После того, как функции были приведены к линейной форме, с ними можно работать как с обычными линейными функциями.

К линеаризованным функциям применяется МНК (для нахождения параметров уравнения регрессии)

Применение MНК для оценки параметров параболы второй степени приводит к след системе нормальных уравнений:

∑y= n*a + b*∑x + c* ∑x2

∑y*x= a*∑x + b*∑x2 + c*∑x3

∑y*x2 = a*∑x2 + b*∑x3 + c* ∑x4

Решить ее относительно параметров a, b и с можно методом определителей:

a= ∆a/∆ ; b=∆b/∆ ; c=∆c/∆

Вопрос 31Коэффициент эластичности для нелинейных функций.

Э = f ‘ (x)* x / f (x) – общая формула. Потом коэф эласт рассчит для каждой конкретн функции через произв:

Парабола (парабола второго порядка):

Y=a + bx +cx2 + E

Y ‘ = b+2c, следовательно

Э = (( b + 2*c*x) *x )/ (a+b*x+c*x2)

Как и в лин функции вместо x часто подставляют x средн. Для общей хар-ки эластичности, но это не ведет к упрощению. (Э ср. = b*x cр./ y ср.)

Гипербола: Э = -b/ (a*x + b)

Показательная: Э = x * ln b

Степенная:

F ‘ (x) = a*b*x(b-1) соответственно Э = b

№ 35 – Прогнозирование по нелинейным по параметрам функциям регрессии (степенной, показательной)

Особенности прогнозирования по нелинейным функциям заключается в том, что сначала точечный и интервальный прогноз оценивается по линеаризованной форме, а затем при необходимости значение прогноза пересчитывается для исходной формулы. Необходимость возникает, когда функции были нелинейными по параметрам и следовательно зависимая переменная у была преобразована (пролонгирована).

y=a+b/x +E

y=a+bx+E

x(среднее)=1/x

yпр+(-)t(табличное)*m(упр)

y=axbE

lny=lna+blnx+lnE

Y=A+BX+E

Y(выровненный), пролонгированный=5 y(выровненный), пролонгир=еyпр=е5

Y пролонгир.min=3 y пролонгир.min= е3

Yпролонгир.max=7 y пролонгир.min=е7

⇐ Предыдущая1234567Следующая ⇒

Дата добавления: 2016-07-29; просмотров: 5222 | Нарушение авторских прав

Рекомендуемый контект:

Похожая информация:

Поиск на сайте:

Источник: https://lektsii.org/6-29200.html

Множественная регрессия

Стандартные ошибки коэффициентов регрессии: Стандартная ошибка коэффициента множественной регрессии имеет такой
Суть регрессионного анализа: построение математической модели и определение ее статистической надежности.

Вид множественной линейной модели регрессионного анализа: Y = b0 + b1xi1 + … + bjxij + … + bkxik + ei где ei — случайные ошибки наблюдения, независимые между собой, имеют нулевую среднюю и дисперсию s.

Назначение множественной регрессии: анализ связи между несколькими независимыми переменными и зависимой переменной.

Экономический смысл параметров множественной регрессии
Коэффициент множественной регрессии bj показывает, на какую величину в среднем изменится результативный признак Y, если переменную Xj увеличить на единицу измерения, т. е. является нормативным коэффициентом.

Матричная запись множественной линейной модели регрессионного анализа: Y = Xb + e где Y — случайный вектор — столбец размерности (n x 1) наблюдаемых значений результативного признака (y1, y2,…

, yn);
X — матрица размерности [n x (k+1)] наблюдаемых значений аргументов;
b — вектор — столбец размерности [(k+1) x 1] неизвестных, подлежащих оценке параметров (коэффициентов регрессии) модели;
e — случайный вектор — столбец размерности (n x 1) ошибок наблюдений (остатков).

На практике рекомендуется, чтобы n превышало k не менее, чем в три раза.

Задачи регрессионного анализа
Основная задача регрессионного анализа заключается в нахождении по выборке объемом n оценки неизвестных коэффициентов регрессии b0, b1,…, bk.

Задачи регрессионного анализа состоят в том, чтобы по имеющимся статистическим данным для переменных Xi и Y:

  • получить наилучшие оценки неизвестных параметров b0, b1,…, bk;
  • проверить статистические гипотезы о параметрах модели;
  • проверить, достаточно ли хорошо модель согласуется со статистическими данными (адекватность модели данным наблюдений).

Построение моделей множественной регрессии состоит из следующих этапов:

  1. выбор формы связи (уравнения регрессии);
  2. определение параметров выбранного уравнения;
  3. анализ качества уравнения и поверка адекватности уравнения эмпирическим данным, совершенствование уравнения.

Множественная регрессия:

  • Множественная регрессия с одной переменной
  • Множественная регрессия с двумя переменными
  • Множественная регрессия с тремя переменными

Инструкция.

Укажите количество данных (количество строк), количество переменных x нажмите Далее.

Множественная регрессия с двумя переменными

Модель множественной регрессии вида Y = b0 +b1X1 + b2X2;
1) Найтинеизвестные b0, b1,b2 можно, решим систему трехлинейных уравнений с тремя неизвестными b0,b1,b2:

Для решения системы можете воспользоваться решение системы методом Крамера2) Или использовав формулы
Для этого строим таблицу вида:

Yx1x2(y-yср)2(x1-x1ср)2(x2-x2ср)2(y-yср)(x1-x1ср)(y-yср)(x2-x2ср)(x1-x1ср)(x2-x2ср)

Выборочные дисперсии эмпирических коэффициентов множественной регрессии можно определить следующим образом:

Здесь z'jj — j-тый диагональный элемент матрицы Z-1 =(XTX)-1.
Приэтом: где m — количество объясняющихпеременных модели.

В частности, для уравнения множественной регрессииY = b0 + b1X1 + b2X2с двумя объясняющими переменными используются следующие формулы:

Или

или
,,.
Здесьr12 — выборочный коэффициент корреляции между объясняющимипеременными X1 и X2; Sbj — стандартная ошибкакоэффициента регрессии; S — стандартная ошибка множественной регрессии (несмещенная оценка).
По аналогии с парной регрессией после определения точечных оценокbj коэффициентов βj (j=1,2,…,m) теоретического уравнения множественной регрессии могут быть рассчитаны интервальные оценки указанных коэффициентов.

Доверительный интервал, накрывающий с надежностью (1-α) неизвестное значение параметра βj, определяется как

далее.. Чтобы найти параметры множественной регресии средствами Excel, используется функция ЛИНЕЙН(Y;X;0;1),где Y — массив для значений Y

где X — массив для значений X (указывается как единый массив для всех значений Хi)

Для этой цели, как и в случае множественной регрессии, используется коэффициентдетерминации R2:
Справедливо соотношение 0Fкр, то R2 статистически значим.
Статистическая значимость коэффициентов множественной регрессии и близкое к единице значение коэффициента детерминации R2 не гарантируют высокое качество уравнения множественной регрессии. Поэтому следующим этапом проверки качества уравнения множественной регрессии является проверка выполнимости предпосылок МНК. Причины и последствия невыполнимости этих предпосылок, методы корректировки регрессионных моделей будут рассмотрены в последующих главах. В данном параграфе рассмотрим популярную в регрессионном анализе статистику Дарбина-Уотсона.
При статистическом анализе уравнения регрессии на начальном этапе часто проверяют выполнимость одной предпосылки: условия статистической независимости отклонений между собой.

При этом проверяется некоррелированность соседних величин ei,i=1,2,…n.. Для анализа коррелированности отклонений используют статистику Дарбина-Уотсона:
Критические значения d1 и d2 определяются на основе специальных таблиц для требуемого уровня значимости α, числа наблюдений n и количества объясняющих переменных m.

Частные коэффициенты (или индексы) корреляции, измеряющие влияние на у фактора хi при неизменном уровне других факторов определяются по стандартной формуле линейного коэффициента корреляции, т.е. последовательно беруться пары yx1,yx2,…

, x1x2, x1x3 и так далее и для каждой пары находится коэффициент корреляции
Вычисления в MS Excel. Матрицу парных коэффициентов корреляции переменных можно рассчитать, используя инструмент анализа данных Корреляция.

Для этого:
1) Выполнить команду Сервис / Анализ данных / Корреляция.
2) Указать диапозон данных;

Для этой цели, как и в случае множественной регрессии, используется коэффициентдетерминации R2:

Справедливо соотношение 0 < =R2 < = 1. Чем ближе этот коэффициент к единице, тем больше уравнение множественной регрессии объясняет поведение Y.
Для множественной регрессии коэффициент детерминации является неубывающей функцией числа объясняющих переменных. Добавление новой объясняющей переменной никогда не уменьшает значение R2, так как каждая последующая переменная может лишь дополнить, но никак не сократить информацию, объясняющую поведениезависимой переменной.Иногда при расчете коэффициента детерминации для получения несмещенных оценок в числителе и знаменателе вычитаемой из единицы дроби делается поправка на число степеней свободы, т.е. вводится так называемый скорректированный (исправленный) коэффициент детерминации:Соотношение может быть представлено в следующем виде:
для m>1. С ростом значения mскорректированный коэффициент детерминации растет медленнее, чем обычный.Очевидно, что только при R2 = 1. может принимать отрицательные значения.
Доказано, что  увеличивается при добавлении новой объясняющей переменной тогда и только тогда, когда t-статистика для этой переменной по модулю больше единицы. Поэтому добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.
Рекомендуется после проверки общего качества уравнения регрессии провести анализ его статистической значимости. Для этого используется F-статистика:
Показатели F и R2 равны или не равен нулю одновременно. Если F=0, то R2=0, следовательно, величина Y линейно не зависит от X1,X2,…,Xm.Расчетное значение F сравнивается с критическим Fкр. Fкр, исходя из требуемого уровня значимости α и чисел степеней свободы v1 = m и v2 = n — m — 1, определяется на основе распределения Фишера. Если F > Fкр, то R2 статистически значим.

Источник: https://www.semestr.ru/ks306

3.6. СТАНДАРТНЫЕ ОШИБКИ ОЦЕНОК

Стандартные ошибки коэффициентов регрессии: Стандартная ошибка коэффициента множественной регрессии имеет такой

Макеты страниц

Качество подбора функции регрессии можно оценить с помощью стандартных ошибок или дисперсий остатков и оценок параметров регрессии.

Стандартная ошибка или дисперсия остатков. Стандартная ошибка остатков называется также стандартной ошибкой оценки регрессии в связи с интерпретацией возмущающей переменной и как результата ошибки спецификации функции регрессии (см. главу 2).

О дисперсии остатков шла речь ранее в разделах 2.4, 2.9, 3.1 и 3.3. Возмущающая переменная и является случайной с определенным распределением вероятностей. Математическое ожидание этой переменной равно нулю (предпосылка 1), а дисперсия — (предпосылка 2, см. раздел 2.9).

Таким образом, это дисперсия возмущения в генеральной совокупности. Нам неизвестны значения возмущающей переменной. Можно судить о ней только по остаткам и. Вычисленная по этим остаткам дисперсия является оценкой дисперсии возмущающей переменной.

Несмещенной оценкой дисперсии возмущающего воздействия будет, следующее выражение

В знаменателе формулы (3.32) стоит число степеней свободы где — объем выборки, число объясняющих переменных. Такое выражение числа степеней свободы связано с тем, что остатки должны удовлетворять условиям. Эти условия непосредственно вытекают из предпосылок 1 и 5 (см. раздел 2.9). Кратко

поясним это утверждение. Параметры множественной регрессии

вычисляют путем решения системы нормальных уравнений, в матричной форме записи имеющих вид

Подставим (2.60) в (2.63):

Раскрыв скобки и сделав соответствующие выкладки, получим

Матричное уравнение (3.33) содержит т. условий (уравнений), которые накладываются на остатки, и это приводит к уменьшению числа степеней свободы. При в силу того, что для всех

что является следствием предпосылки 1 (математическое ожидание возмущающей переменной равно нулю). Из (3.33) при также получим

что вытекает из предпосылки 5 (переменные не коррелируют со значениями возмущения, т. е. являются действительно объясняющими, а не подлежащими объяснению переменными).

Следовательно, в регрессионном анализе могут обсуждаться только односторонне направленные зависимости.

Поскольку термин «степень свободы» используется для обозначения независимой информации, в данном случае число связей, налагаемых на независимых случайных наблюдений, можно интерпретировать как параметров которыми определяется функция регрессии.

В связи с тем что вычисление числителя в формуле (3.32) довольно затруднительно, мы хотим, опустив вывод, привести более простой способ его определения:

или в матричной форме записи:

Выражения сумм в правой части (3.35) содержатся в рабочей таблице для построения регрессии, а оценки параметров уже получены. Если снова обратиться к понятию коэффициента детерминации, введенному в разделах 3.1 и 3.2, то станет ясным физический смысл дисперсии

(или стандартного отклонения) остатков — это та доля общей дисперсии которая не может быть объяснена зависимостью переменной у от переменных

Стандартные ошибка или дисперсии оценок параметров регрессии. При описании этих показателей будем исходить из заданных значений объясняющих переменных.

Как указывалось в разделе 2.9, оценки параметров регрессии являются случайными величинами, имеющими определенное распределение вероятностей. Возможные значения оценок рассеиваются вокруг истинного значения параметра . Определим меру рассеяния оценки параметра. Обозначим через матрицу дисперсий и ковариаций оценок параметров регрессии:

Симметрическая матрица (3.36) на главной диагонали содержит дисперсии оценок параметров регрессии

а вне главной диагонали — их ковариации

Краткая форма записи матрицы (3.36):

Подставив в (3.39) формулу (2.86) из раздела 2.9

получим

или

Далее, в силу того, что

имеем

Так как неизвестно, используем его оценку В результате получаем оценку матрицы (3.41),

элементами главной диагонали которой являются искомые оценки дисперсий. Матрицу легко определить, поскольку матрица известна (см. вычисление оценок параметров в разделе 2.7), вычисляется по (3.32).

Если мы обозначим через элемент главной диагонали матрицы то оценка дисперсии параметра регрессии будет определяться выражением

т. е. она равна произведению дисперсии остатков на элемент главной диагонали обратной матрицы Таким образом, стандартная ошибка оценки параметра регрессии определяется как

Найдем дисперсию и стандартную ошибку оценок параметров простой линейной регрессии. В случае простой линейной регрессии имеем

а также

Согласно формуле (3.42) получим

Умножая на первый элемент главной диагонали матрицы получим оценку дисперсии постоянной уравнения регрессии

а также ее стандартную ошибку:

Умножив на второй элемент главной диагонали матрицы , получим оценку дисперсии коэффициента регрессии :

а также стандартную ошибку этого коэффициента:

Рассмотрим более обстоятельно стандартную ошибку коэффициента простой линейной регрессии. Для этого сумму квадратов отклонений в (3.48) заменим на выражение, полученное путем преобразования формулы (1.8):

Формула (3.48) приобретет вид

Итак, стандартная ошибка коэффициента регрессии зависит:

от рассеяния остатков. Чем больше доля вариации значений переменной у, необъясненной ее зависимостью от найденной методом наименьших квадратов, тем больше стандартная ошибка коэффициента регрессии. Следовательно, чем сильнее наблюдаемые значения переменной у отклоняются от расчетных значений регрессии, тем менее точной является полученная оценка параметра регрессии;

от рассеяния значений объясняющей переменной х. Чем сильнее это рассеяние, тем меньше стандартная ошибка коэффициента регрессии. Отсюда следует, что при вытянутом облаке точек на диаграмме рассеяния получаем более надежную оценку функции регрессии, чем при небольшом скоплении точек, близко расположенных друг к другу;

от объема выборки. Чем больше объем выборки, тем меньше стандартная ошибка коэффициента регрессии. Здесь существует непосредственная связь с таким свойством оценки параметра регрессии, как асимптотическая несмещенность (см. раздел 2.9).

Стандартная ошибка оценки параметра регрессии используется для оценки качества подбора функции регрессии. Для этого вычисляется относительный показатель рассеяния, обычно выражаемый в процентах:

Чем больше относительная стандартная ошибка оценки параметра, тем более оцененные величины отличаются от наблюдаемых значений зависимой переменной и тем менее надежны оценки прогноза, основанные на данной функции регрессии.

Пример

Вычислим сначала стандартную ошибку для простой линейной регрессии из раздела 2.4, которой описывалась зависимость производительности труда от уровня механизации работ. Итак, имеем

а также

Используя формулы (3.43) и (3.44), получим следующие значения дисперсий и стандартных ошибок оценок параметров регрессии:

По (3.50) относительные стандартные ошибки равны:

Далее по данным из раздела 2.7 вычислим дисперсии и стандартные ошибки оценок параметров множественной регрессии для зависимости производительности труда от уровня механизации работ, среднего возраста работников и среднего процента выполнения нормы. Обратная матрица для этой множественной регрессии найдена в разделе 2.7. По (3.32) вычислим

Применяя (3.43), (3.44) и (3.50), получим следующие результаты:

В то время как для простой линейной регрессии величины стандартных ошибок оценок параметров были приемлемы, для множественной регрессии такой вывод можно сделать только относительно стандартной ошибки коэффициента регрессии Оценка функции множественной регрессии, несмотря на большой коэффициент детерминации (см. раздел 3.3) не очень надежна. Отсюда очевидно, что стандартные ошибки оценок параметров служат источником дополнительной информации о качестве подбора функции регрессии. Более обстоятельно с выводами, вытекающими из результатов данного примера, мы познакомимся в разделе 8.7.

Элементы матрицы стоящие вне главной диагонали и, как было отмечено выше, являющиеся ковариациями, также могут быть использованы для оценки качества подбора функции регрессии. Они характеризуют связь между отклонениями оценок двух параметров регрессии от их истинных значений.

Ковариация положительна, когда знаки отклонений от от совпадают. Если оба отклонения положительные, то оценки являются завышенными, если отрицательные — заниженными.

Ковариация отрицательна, если положительному отклонению от (завышенная оценка) соответствует отрицательное отклонение от (заниженная оценка) и наоборот.

Пример

Вычислим для простой регрессии ковариацию между постоянной и коэффициентом регрессии

Отсюда следует, что завышение (или занижение) оценки истинного значения параметра сопровождается занижением (или соответственно завышением)

Запишем полностью матрицу ковариаций и дисперсий оценок параметров регрессии, так как далее нам придется еще к ней обращаться:

Вычислим ковариации между оценками параметров для множественной регрессии:

На основе этих ковариаций можно так же, как в случае простой регрессии, оценить связи между отдельными параметрами регрессии. Но мы не будем здесь на этом останавливаться.

Запишем теперь полностью матрицу ковариаций и дисперсий оценок параметров множественной регрессии:

Эта матрица будет применяться для специальных критериев в главах 8 и 11.

Источник: http://scask.ru/g_book_mkor.php?id=27

Стандартная ошибка уравнения регрессии — Энциклопедия по экономике

Стандартные ошибки коэффициентов регрессии: Стандартная ошибка коэффициента множественной регрессии имеет такой
Стандартная ошибка оценки, также известная как стандартная ошибка уравнения регрессии, определяется следующим образом (см. (6.23))  [c.

280]
Стандартная ошибка уравнения регрессии, Эта статистика SEE представляет собой стандартное отклонение фактических значений теоретических значений У.  [c.650]

Что такое стандартная ошибка уравнения регрессии ).

Какие допущения лежат в основе парной регрессии 10. Что такое множественная регрессия  [c.679]

Следующий этап корреляционного анализа — расчет уравнения связи (регрессии). Решение проводится обычно шаговым способом. Сначала в расчет принимается один фактор, который оказывает наиболее значимое влияние на результативный показатель, потом второй, третий и т.д.

И на каждом шаге рассчитываются уравнение связи, множественный коэффициент корреляции и детерминации, /»»-отношение (критерий Фишера), стандартная ошибка и другие показатели, с помощью которых оценивается надежность уравнения связи. Величина их на каждом шаге сравнивается с предыдущей.

Чем выше величина коэффициентов множественной корреляции, детерминации и критерия Фишера и чем ниже величина стандартной ошибки, тем точнее уравнение связи описывает зависимости, сложившиеся между исследуемыми показателями.

Если добавление следующих факторов не улучшает оценочных показателей связи, то надо их отбросить, т.е. остановиться на том уравнении, где эти показатели наиболее оптимальны.
 [c.149]

Прогнозное значение ур определяется путем подстановки в уравнение регрессии ух =а + Ьх соответствующего (прогнозного) значения хр. Вычисляется средняя стандартная ошибка прогноза
 [c.9]

В линейной регрессии обычно оценивается значимость не только уравнения в целом, но и отдельных его параметров. С этой целью по каждому из параметров определяется его стандартная ошибка ть и та.
 [c.53]

В прогнозных расчетах по уравнению регрессии определяется предсказываемое (ур) значение как точечный прогноз ух при хр =хь т. е. путем подстановки в уравнение регрессии 5 = а + b х соответствующего значения х. Однако точечный прогноз явно не реален. Поэтому он дополняется расчетом стандартной ошибки ух, т. е. Шух, и соответственно интервальной оценкой прогнозного значения (у )
 [c.57]

Чтобы понять, как строится формула для определения величин стандартной ошибки ух, обратимся к уравнению линейной регрессии ух = а + b х. Подставим в это уравнение выражение параметра а  [c.57]

При прогнозировании на основе уравнения регрессии следует помнить, что величина прогноза зависит не только от стандартной ошибки индивидуального значения у, но и от точности прогноза значения фактора х. Его величина может задаваться на основе анализа других моделей исходя из конкретной ситуации, а также из анализа динамики данного фактора.
 [c.61]

В скобках указаны стандартные ошибки параметров уравнения регрессии.
 [c.327]

В скобках указаны стандартные ошибки параметров уравнения регрессии. Определим по этому уравнению расчетные значения >>, ,, а затем параметры уравнения регрессии (7.44). Получим следующие результаты  [c.328]

Стандартные ошибки коэффициентов уравнения регрессии, t — критерий
 [c.7]

На каждом шаге рассматриваются уравнение регрессии, коэффициенты корреляции и детерминации, F-критерий, стандартная ошибка оценки и другие оценочные показатели. После каждого шага перечисленные оценочные показатели сравниваются с
 [c.39]

Проблемы с методологией регрессии. Методология регрессии — это традиционный способ уплотнения больших массивов данных и их сведения в одно уравнение, отражающее связь между мультипликаторами РЕ и финансовыми фундаментальными переменными. Но данный подход имеет свои ограничения. Во-первых, независимые переменные коррелируют друг с другом .

Например, как видно из таблицы 18,2, обобщающей корреляцию между коэффициентами бета, ростом и коэффициентами выплат для всех американских фирм, быстрорастущие фирмы обычно имеют большой риск и низкие коэффициенты выплат.

Обратите внимание на отрицательную корреляцию между коэффициентами выплат и ростом, а также на положительную корреляцию между коэффициентами бета и ростом.

Эта мультиколлинеарность делает мультипликаторы регрессии ненадежными (увеличивает стандартную ошибку) и, возможно, объясняет ошибочные знаки при коэффициентах и крупные изменения этих мультипликаторов в разные периоды.

Во-вторых, регрессия основывается на линейной связи между мультипликаторами РЕ и фундаментальными переменными, и данное свойство, по всей вероятности, неадекватно.

Анализ остаточных явлений, связанных с корреляцией, может привести к трансформациям независимых переменных (их квадратов или натуральных логарифмов), которые в большей степени подходят для объяснения мультипликаторов РЕ. В-третьих, базовая связь между мультипликаторами РЕ и финансовыми переменными сама по себе не является стабильной. Если же эта связь смещается из года в год, то прогнозы, полученные из регрессионного уравнения, могут оказаться ненадежными для более длительных периодов времени. По всем этим причинам, несмотря на полезность регрессионного анализа, его следует рассматривать только как еще один инструмент поиска подлинного значения ценности.
 [c.649]

На рисунке 16.6 явно просматривается четкая линейная зависимость объема частного потребления от величины располагаемого дохода.

Уравнение парной линейной регрессии, оцененное по этим данным, имеет вид С= -217,6 + 1,007 Yf Стандартные ошибки для свободного члена и коэффициента парной регрессии равны, соответственно, 28,4 и 0,012, а -статистики — -7,7 и 81 9. Обе они по модулю существенно превышают 3, следовательно, их статистическая значимость весьма высока.

Впрочем, несмотря на то, что здесь удалось оценить статистически значимую линейную функцию потребления, в ней нарушены сразу две предпосылки Кейнса — уровень автономного потребления С0 оказался отрицательным, а предель-
 [c.304]

Стандартные ошибки свободного члена и коэффициента регрессии равны, соответственно, 84,7 и 0,46 их /-статистики — (-21,4 и 36,8).

По абсолютной величине /-статистики намного превышают 3, и это свидетельствует о высокой надежности оцененных коэффициентов.

Коэффициент детерминации /Р уравнения равен 0,96, то есть объяснено 96% дисперсии объема потребления. И в то же время уже по рисунку видно, что оцененная рефессия не очень хоро-
 [c.320]

Эта стандартная ошибка S у, равная 0,65, указывает отклонение фактических данных от прогнозируемых на основании использования воздействующих факторов j i и Х2 (влияние среди покупателей бабушек с внучками и высокопрофессионального вклада Шарика). В то же время мы располагаем обычным стандартным отклонением Sn, равным 1,06 (см. табл.

8), которое было рассчитано для одной переменной, а именно сами текущие значения уги величина среднего арифметического у, которое равно 6,01.

Легко видеть, что S у< Sn следовательно, ошибки прогнозирования, как правило, оказываются меньшими, если использовать уравнение регрессии (учитывается вклад факторов j i и Х2), а не ограничиваться только значением у.  [c.64]

Эти два выражения показывают, как возникает ковариация между [52 и Рз в СИЛУ присутствия 2ыу в каждом из выражений для ошибок Р2 и (33.

Положительное и большое значение ос приводит, как мы видим, к большим противоположным значениям ошибок J32 и(33- Если (32 оценивает значение р 2 снизу, то р3 оценивает значение ps сверху, и наоборот.

Очень важным является то обстоятельство, что стандартные ошибки могут служить одним из индикаторов наличия мульти-коллинеарности. Формула (5.

84) показывает, что истинное значение стандартной ошибки возрастает с увеличением а, однако эта формула содержит неизвестный параметр а . В оцененной величине стандартной ошибки значение а заменяется на Ее2/(п — /г), где 2е2 — сумма квадратов остатков после подгонки уравнения регрессии к эмпирическим данным. Как было показано в (5.19),
 [c.162]

С помощью парной регрессии устанавливается математическая зависимость (в виде уравнения) между метрической зависимой (критериальной) переменной и метрической независимой переменной (предиктором).

Уравнение описывает прямую линиию, и для его вывода используют метод наименьших В случае построения регрессии с нормированными данными отрезок, отсекаемый на оси OY, принимает значение, равное 0, и коэффициенты регрессии называют взвешенными Силу тесноты связи измеряют ко-детерминации который получают, вычисляя отношение к Стандартную ошибку уравнения регрессии используют для оценки точности предсказания, и ее можно интерпретировать как род средней ошибки, сделанной при теоретическом предсказании Y, исходя из уравнения регрессии.
 [c.678]

В скобках указаны стандартные ошибки коэффициентов регрессии. «Коэффициенты детерминации рассчитаны по линеаризованным уравнениям регрессии.  [c.237]

Это уравнение намного лучше, чем (5). Все коэффициенты статистически значимы, их коэффициенты по абсолютной величине в 7-10 раз превышают свои стандартные ошибки. Уравнение соответствует макроэкономической теории, говорящей об отрицательной зависимости величины реального чистого экспорта от реального ВНП и валютного курса. Взглянув на рис. 18.

7, можно отметить, что рассчитанные по уравнению регрессии величины ВНП за 1965-1990 гг. очень близки к фактическим. Единственной проблемой является то, что статистика Дарбина-Уотсона существенно меньше двух, -таким образом, можно попытаться улучшить это уравнение.

При этом мы надеемся избавиться от автокорреляции остатков (то есть, получить более близкую к двум DW) и, возможно, увеличить долю объясненной дисперсии RNX, то есть R2.
 [c.346]

В скобках указаны стандартные ошибки параметров уравнения регрессии. Применение метода инструментальных переменных привело к статистической незначимости параметра С[ = 0,109 при переменной yf . Это произошло ввиду высокой мультиколлинеарности факторов, иyt v.

Несмотря на то что результаты, полученные обычным МНК, на первый взгляд лучше, чем результаты применения метода инструментальных переменных, результатам обычного МНК вряд ли можно доверять вследствие нарушения в данной модели его предпосылок.

Поскольку ни один из методов не привел к получению достоверных результатов расчетов параметров, следует перейти к получению оценок параметров данной модели авторегрессии методом максимального правдоподобия.
 [c.328]

Нетрудно заметить, что в данном случае не выполняются необходимые предпосылки МНК об отклонениях Si точек наблюдений от линии регрессии (см. параграф 6.1). Эти отклонения явно не обладают постоянной дисперсией и не являются взаимно независимыми.

Нарушение необходимых предпосылок делает неточными полученные оценки коэффициентов регрессии, увеличивая их стандартные ошибки, и обычно свидетельствует о неверной спецификации самого уравнения.

Поэтому следующим этапом проверки качества уравнения регрессии является проверка выполнимости предпосылок МНК. Причины невыполнимости этих предпосылок, их последствия и методы корректировки будут подробно рассмотрены в последующих главах.

В данном разделе мы лишь обозначим эти проблемы, а также обсудим весьма популярную в регрессионном анализе статистику Дарбина— Уотсона.
 [c.164]

В скобках указаны стандартные ошибки соответствующих коэффициентов. Можно отметить, что статистическое качество полученного уравнения регрессии практически идеально. Все г-статистики превышают 5 по абсолютной величине (а, грубо говоря, границей для очень хорошей оценки является 3).

Очень высока доля дисперсии зависимой переменной, объясненная с помощью уравнения регрессии, — 94,2% — особенно с учетом того, что уравнение регрессии связывает относительные величины, не имеющие выраженного временного тренда.

Статистика Дарбина-Уотсона ЯИ очень близка к 2, и, даже не прибегая к таблицам, здесь ясно, что гипотеза об отсутствии автокорреляции остатков первого порядка будет принята при любом разумно малом уровне значимости.

Итак, мы имеем хороший пример линейной регрессии, когда можно оценить ее статистическую значимость, не прибегая к таблицам распределений Стьюден-та, Фишера или Дарбина-Уотсона, а лишь по общему порядку полученных статистик.
 [c.330]

Это уравнение приемлемо по всем параметрам и статистическим характеристикам. Единственное, что имеет смысл сделать в нем, это замена переменных ER и ER на одну переменную ER(-l). Это можно сделать, поскольку абсолютные величины коэффициентов при ER и ER почти одинаковы.

В таком случае можно сделать преобразование (-a-ER+aAER) = (-aER + a(ER — ER(-l))=-aER(-l), и мы можем использовать это равенство для сокращения числа объясняющих переменных.

1 Включив снова преобразование AR(l) (для которого коэффициент авторегрессии соседних отклонений et получился равен р=0,71, со стандартной ошибкой 0,16), получаем уравнение регрессии  [c.363]

Подобным же образом на основе соответствующих формул рассчитывают стандартные ошибки параметров уравнения регрессии, а затем и t-критерии для каждого параметра. Важно опять-таки проверить, чтобы соблюдалось условие tpa 4 > tTa6n. В противном случае доверять полученной оценке параметра нет оснований.
 [c.139]

Для определения профиля посетителей магазинов местного торгового центра, не имеющих определенной цели (browsers), маркетологи использовали три набора независимых переменных демографические, покупательское поведение психологические. Зависимая переменная представляет собой индекс посещения магазина без определенной цели, индекс (browsing index).

Методом ступенчатой включающей все три набора переменных, выявлено, что демографические факторы — наиболее сильные предикторы, определяющие поведение покупателей, не преследующих конкретных целей. Окончательное уравнение регрессии, 20 из 36 возможных переменных, включало все демографические переменные.

В следующей таблице приведены коэффициенты регрессии, стандартные ошибки коэффициентов, а также их уровни значимости.
 [c.668]

Источник: https://economy-ru.info/info/75588/

Стандартная ошибка уравнения регрессии. Оценка статистической значимости показателей корреляции, параметров уравнения регрессии. Дисперсионный анализ. Критерии Фишера и Стьюдента

Стандартные ошибки коэффициентов регрессии: Стандартная ошибка коэффициента множественной регрессии имеет такой

После того, как найдено уравнение линейной регрессии, проводится оценка, как уравнения в целом, так и отдельных его параметров.

Оценка значимости уравнения в целом, делается с помощью F-критерия. При этом выдвигается нулевая гипотеза H0, т.е. , и , и следовательно, фактор х не оказывает влияния на у, т.е. они не и взаимодействуют друг с другом.

Сначала проанализируем общую дисперсию, это предшествует определению F- критерия. Центральное место занимает разложение общей суммы квадратов отклонений переменной у от среднего значения на две части.

Общая сумма Объясненная Необъясненная квадратов регрессия (остаточная) отклонений регрессия

Общая сумма квадратов отклонений у от вызвана влиянием множества причин. Условно разделим их на две группы: изучаемый фактор х и прочие факторы.

Если фактор не оказывает влияние на результат, то линия регрессии на графике параллельна оси ОХ и .

Тогда вся дисперсия результативного признака обусловлена воздействием прочих факторов и общая сумма квадратов отклонений совпадает с остаточной.

Если же прочие факторы не влияют на результат, то у связан с х функционально и остаточная сумма квадратов равна нулю. Сумма квадратов отклонений, объясняющей регрессией совпадает с общей суммой квадратов.

Т.к. не все точки поля корреляции лежат на линии регрессии, то всегда имеет место их разброс. Он обусловлен влиянием фактора х, т.е. регрессией у по х, а также вызван действием прочих причин (необъясненная вариация).

Пригодность линии регрессии для прогноза зависит от того, какая часть общей вариации признака у, приходится на долю объясненную вариацией.

Если сумма квадратов отклонений, обусловленных регрессией, будет больше остаточной суммы квадратов, то уравнение регрессии статистически значимо и фактор х оказывает существенное воздействие на у. Это равносильно тому, что .

Любая сумма квадратных отклонений связана с числом степеней свободы ( ) , т.е. с числом свободы независимого варьирования признака. Число степеней свободы связано с числом единиц совокупности n и с числом, определяемым по ней констант. Т.о.

число степеней свободы должно показать, сколько независимых отклонений из n возможных требуется для образования данной суммы квадратов. Так, для общей суммы квадратов требуется независимых отклонений, т. к.

по совокупности из n единиц после расчёта среднего уровня свободно варьируется лишь число отклонений.

Например,

, тогда т. к. , то свободно варьируются только 4 отклонения, а пятое отклонение может быть определено, если предыдущие четыре известны.

При расчёте объясненной или факторной суммы квадратов используются теоретические (расчётные) значения результативного признака , найденные из уравнения .

В линейной регрессии

, а

— общая дисперсия признака у;

— дисперсия признака у, обусловленная фактором х.

Поскольку при заданном объёме наблюдений по х и у факторная сумма квадратов при линейной регрессии зависит только от одной константы (коэффициента регрессии b), то данная сумма квадратов имеет одну степень свободы.

К этому же выводу можно прийти по другому.

Отсюда следует, что при заданном наборе переменных у и х расчетное значение является в линейной регрессии функцией только одного параметра — коэффициента регрессии, поэтому факторная сумма квадратов отклонений имеет число степеней свободы, равное 1.

Существует равенство между числом степеней свободы общей, факторной и остаточной суммами квадратов. Число степеней свободы остаточной суммы квадратов при линейной регрессии составляет . Число степеней свободы для общей суммы квадратов определяется числом единиц, и т. к. мы используем среднюю вычисленную по данным выборки, то теряем одну степень свободы, то есть .

Разделив каждую переменную сумму квадратов на соответствующее ей число степеней свободы, получим средний квадрат отклонений, или дисперсию на 1 степень свободы.

; ; .

Определение дисперсии на одну степень свободы приводит дисперсии к сравнимому виду. Сопоставляя факторную и остаточную дисперсии в расчёте на одну степень свободы, получим величину F-критерия.

F-критерий для проверки нулевой гипотезы.

Н0 : .

Если Н0 справедлива, то фактическая и остаточная дисперсии не отличаются друг от друга. Для Н0 необходимо опровержение, чтобы Дфакт превышала Дост в несколько раз.

Английский статистик Снедекор разработал таблицу критических значений F-критерия – это максимальная величина отношения дисперсий, которая может иметь место при случайном их расхождении для данного уровня вероятности наличия нулевой гипотезы.

Вычисленное значение F-отношений признаётся достоверным (отличным от единицы), если оно больше табличного. В этом случае Н0 (отсутствие связи) отклоняется и делается вывод о существенности этой связи: , отклоняется.

Если же , то вероятность Н0 выше заданного уровня (например 0,05) и она не может быть отклонена без серьёзного риска сделать неправильный вывод о наличии связи.

Н0 не отклоняется, а уравнение регрессии становится незначимым.

Величина F-критерия связана с коэффициентом детерминации . Факторную сумму квадратов отклонений можно представить как , ( — общая дисперсия y; — дисперсия y, обусловленая фактором x (факторная)), а остаточную сумму ( , ). Тогда .

Оценка значимости уравнения регрессии даётся в виде таблицы дисперсионного анализа.

Источники вариацииЧисло степеней свободы квадратов отклоненийДисперсия на 1 степень свободыFотн
Факт.Табл.
Общая Объясняющая Остаточная— 6,61 —

В линейной регрессии обычно оценивается значимость не только уравнения в целом, но и отдельных параметров. Поэтому по каждому из параметров определяется его стандартная ошибка: и , .

Стандартная ошибка коэффициента регрессии определяется по формуле: ;

— остаточная дисперсия на одну степень свободы ошибки.

Величина стандартной ошибки совместно с t-распределением Стьюдента при n-2 степенях свободы применяется для проверки существенности коэффициента регрессии и для расчёта его доверительных интервалов.

Для оценки существенности коэффициента регрессии его величина сравнивается со стандартной ошибкой, т.е. определяется фактическое значение t-критерия Стьюдента: , который сравнивается с табличным значением при определённом уровне значимости и числе степеней свободы , .

Если фактическое значение больше табличного, то гипотезу о несущественности коэффициентов отвергаем. Доверительный интервал для коэффициента регрессии b определим по формуле предельная ошибка .

Так как коэффициент регрессии носит в эконометрических исследованиях чётко экономическую интерпретацию, то доверительные интервалы не должны содержать противоречивых результатов, например, . То есть, что истинное значение коэффициента одновременно содержит положительные, отрицательные величины и даже 0, чего не может быть.

Стандартная ошибка параметра a определяется:

Процедура оценивания не отличается от рассмотренной выше для b.

, его величина сравнивается с табличной, при .

Для оценки статистической значимости коэффициентов регрессии и корреляции рассчитывается t-критерий Стьюдента и доверительные интервалы для каждого из показателей.

Выдвигается гипотеза Н0 о случайной природе показателей, то есть о незначительном отличии их от нуля.

Оценки значимости коэффициентов регрессии и корреляции с помощью t-критерия Стьюдента проводится путём сопоставления их значений с величиной случайной ошибки (S2 остаточная дисперсия на 1 степень свободы, ).

; ; ;

; ; .

Сравниваем фактические и критические (табл.) значения и принимаем или отвергаем Н0

, то Н0 отклоняется, и считается, что и сформировались под влиянием систем фактора x.

Для расчёта доверительного интервала определяем предельную ошибку для каждого показателя.

; .

Формулы для расчёта доверительных интервалов имеют вид:

Если в границы доверительного интервала попадает нуль, то есть нижняя граница отрицательна, а верхняя положительна, то оцениваемый параметр принимается равный 0, так как не может одновременно принимать положительное и отрицательное значения степенями свободы.

Значимость линейного коэффициента корреляции проверяется на основе величины коэффициента корреляции mr

.

Фактическое значение t-критерия Стьюдента определяется

, данная формула свидетельствует, что в парной линейной регрессии , ибо , а также , следовательно .

Таким образом, проверка гипотез о значимости коэффициентов регрессии и корреляции равносильна проверке гипотезы о существенности линейного уравнения.

Если при . То есть коэффициент а существенно отличен от нуля – является правильной, а зависимость достоверной.

Рассмотренная формула оценки коэффициента корреляции рекомендуется к применению при большом числе наблюдений и если r не близко к +1 или -1.

Если , то распределение его оценок отличается от нормального или распределения Стьюдента, так как величина ограничена значениями (-1; +1). Чтобы обойти это затруднение Р.

Фишером было предложено для оценки существенности ввести вспомогательную величину z , связанную с следующим отношением

изменяется , что соответствует нормальному распределению. Стандартная ошибка величины определяется , где n – число наблюдений.

При r = 0,991 .

Z можно взять в таблице для соответствующего значения r.

Выдвигаем гипотезу H0 – корреляция отсутствует: .

, то есть фактическое значение превышает его табличное значение на уровне значимости и .

В виду того, что r и z связаны между собой приведённым выше отношением, можно вычислить критические значения r, соответствующие каждому из значений z.

Таблицы критических значений r разработаны для уровней значимости 0,05 и 0,01 и соответствующего числа степеней свободы. Критические значения предполагают справедливость нулевой гипотезы, то есть мало отличается от нуля.

Если фактическое значение коэффициента по абсолютной величине превышает табличное, то данное значение считается существенным.

Если же , то фактическое значение r несущественно.

Интервалы прогноза по линейному уравнению регрессии.

В прогнозных расчётах по уравнению регрессии определяется то, что уравнение не является реальным, для есть ещё стандартная ошибка . Поэтому интервальная оценка прогнозного значения

Выразим из уравнения

, то есть стандартная ошибка зависит и ошибки коэффициента регрессии b,

.

Из теории выборки известно, что . Используя в качестве оценки остаточную дисперсию на одну степень свободы , получим формулу расчёта ошибки среднего значения переменной y: .

Ошибка коэффициента регрессии: .

В прогнозных расчетах по уравнению регрессии определяется уравнение как точечный прогноз при , то есть путём подстановки в уравнение регрессии . Однако точечный прогноз явно нереален.

— формула стандартной ошибки предсказываемого значения y при заданных , характеризует ошибку положения линии регрессии. Величина стандартной ошибки , достигает min при , и возрастает по мере того, как «удаляется» от в любом направлении. То есть чем больше разность между и x, тем больше ошибка , с которой предсказывается среднее значение y для заданного значения .

Можно ожидать наилучшие результаты прогноза, если признак — фактор x находится в центре области наблюдений х и нельзя ожидать хороших результатов прогноза при удалении от .

Если же значение оказывается за пределами наблюдаемых значений х, используемых при построении ЛР, то результаты прогноза ухудшаются в зависимости то того, насколько отклоняется от области наблюдаемых значений фактора х. Доверит. интервалы при .

На графике доверительной границы представляет собой гиперболы, расположенные по обе стороны от линии регрессии.

Две гиперболы по обе стороны от линии регрессии определяют 95%-ные доверительные интервалы для среднего значения y при заданном значении x.

Однако фактические значения y варьируют около среднего значения . Индивидуальные значения y могут отклоняться от на величину случайной ошибки , дисперсия которой оценивается как остаточная дисперсия на одну степень свободы . Поэтому ошибка предсказываемого индивидуального значения y должна включать не только стандартную ошибку , но и случайную ошибку .

Средняя ошибка прогнозируемого индивидуального значения y составит:

.

При прогнозировании на основе уравнения регрессии следует помнить, что величина прогноза зависит не только от стандартной ошибки индивидуального значения y, но и от точности прогноза значений фактора x.

Его величина может задаваться на основе анализа других моделей, исходя из конкретной ситуации, а также из анализа динамики данного фактора.

Рассмотренная формула средней ошибки индивидуального значения признака y ( ) может быть использована также для оценки существенности различия предсказываемого значения исходя из регрессионной модели и выдвинутой гипотезы развития событий.

Понятие о множественной регрессии. Классическая линейная модель множественной регрессии (КЛММР). Определение параметров уравнения множественной регрессии методом наименьших квадратов.

Парная регрессия используется при моделировании, если влиянием других факторов, воздействующих на объект исследования можно пренебречь.

Например, при построении модели потребления того или иного товара от дохода, исследователь предполагает, что в каждой группе дохода одинаково влияние на потребление таких факторов, как цена товара, размер семьи, ее состав. Однако, уверенности в справедливости данного утверждения нет.

Прямой путь решения такой задачи состоит в отборе единиц совокупности с одинаковыми значениями всех других факторов, кроме дохода.

Он приводит к планированию эксперимента – метод, который используется в естественнонаучных исследованиях. Экономист лишен возможности регулировать другие факторы. Поведение отдельных экономических переменных контролировать нельзя, т.

е. не удается обеспечить равенство прочих условий для оценки влияния одного исследуемого фактора.

Как поступить в этом случае? Надо выявить влияние других факторов, введя их в модель, т.е. построить уравнение множественной регрессии.

Такого рода уравнения используется при изучении потребления.

Коэффициенты bj – частные производные у по факторами хi

при условии, что все остальные хi = const

Рассмотрим современную потребительскую функцию (впервые 30е годы предложил Кейнс Дж.М.) как модель вида С = f(y,P,M,Z)

c — потребление. у – доход

P – цена, индекс стоимости.

M – наличные деньги

Z – ликвидные активы

При этом

Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функций издержек производства, в макроэкономических вопросах и других вопросах эконометрики.

В настоящее время множественная регрессия – один из наиболее распространенных методов в эконометрике.

Основная цель множественной регресси  – построить модель с большим числом факторов, определив при этом влияние каждого их них в отдельности, а также совокупное воздействие на моделируемый показатель.

Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели.

Она включает в себя два круга вопросов:

1. Отбор факторов;

2. Выбор уравнения регрессии.

Включение в уравнение множественной регрессии того или иного набора факторов связано с представлением исследователя о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Требования к факторам, включаемым во множественную регрессию:

1. они должны быть количественно измеримы, если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность (например, в модели урожайности качество почвы задается в виде баллов; в модели стоимости объектов недвижимости: районы должны быть проранжированы).

2. факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи.

Включение в модель факторов с высокой интеркорреляцией, когда Rуx1

Источник: https://studopedia.ru/9_163553_standartnaya-oshibka-uravneniya-regressii-otsenka-statisticheskoy-znachimosti-pokazateley-korrelyatsii-parametrov-uravneniya-regressii-dispersionniy-analiz-kriterii-fishera-i-styudenta.html

Studio-pravo
Добавить комментарий