Курсовая работа: Линейная регрессия

При решении практических задач исследователи сталкиваются с тем, что корреляционные связи не ограничиваются связями между двумя признаками: результативным у и факторным х.


Дата добавления на сайт: 19 февраля 2025
Содержание

Введение
1. Теоретическая часть
.1 Линейная регрессия
.1.1 Парная линейная регрессия
.1.2 Множественная линейная регрессия
.2 Теорема Гаусса-Маркова
. Практическая часть
.1. Характеристика экзогенных и эндогенных переменных
.2 Построение двухфакторного уравнения регрессии
2.3 Построение однофакторных уравнений регрессии
.4 Прогнозирование значения результативного признака
Заключение
Список используемых источников

Введение

При решении практических задач исследователи сталкиваются с тем, что корреляционные связи не ограничиваются связями между двумя признаками: результативным у и факторным х.
В действительности результативный признак зависит от нескольких факторных.
Задачи многофакторного анализа:
.Обосновать взаимосвязи факторов, влияющих на исследуемый показатель.
2.Определить степень влияния каждого фактора на результативный признак путем построения модели-уравнения множественной регрессии, которая позволяет установить, в каком направлении и на какую величину изменится результативный показатель при изменении каждого фактора, входящего в модель.
.Количественно оценить тесноту связи между результативным признаком и факторами.

1. Теоретическая часть

.1 Линейная регрессия

.1.1 Парная линейная регрессия
Регрессионное уравнение, разрешённое относительно исследуемой переменной у при наличии одной факторной переменной x, в общем виде записывается как:

Линейная регрессия (рис. 1)Линейная регрессия (рис. 2) (1.1)
уравнение регрессия экзогенный гаусс
и показывает, каково будет в среднем значение переменной y, если переменная х примет конкретное значение. Индекс р указывает на то, что мы получаем расчётное значение переменной y. Термин в среднем употреблен потому, что при влиянии неучтённых в модели факторов и в следствие погрешностей измерения фактическое значение переменной y может быть разным для одного значения x.
Если f(x) является линейной функцией, то получим общий вид модели парной линейной регрессии:

Линейная регрессия (рис. 3)Линейная регрессия (рис. 4)(1.2)

где a Ї постоянная величина (или свободный член уравнения), Ї коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны наблюдения.
Коэффициент регрессии характеризует изменение переменной y при изменении значения x на единицу. Если Линейная регрессия (рис. 5), то переменные положительно коррелированны, если Линейная регрессия (рис. 6) Ї отрицательно коррелированны. Фактическое значение исследуемой переменной y тогда может быть представлено в виде:
Линейная регрессия (рис. 7), (1.3)

где е Ї разность между фактическим значением (результатом наблюдения) и значением, рассчитанным по уравнению модели.
Если модель адекватно описывает исследуемый процесс, то е Ї независимая нормально распределённая случайная величина с нулевым математическим ожиданием (Ме = 0) и постоянной дисперсией (Dе = у2). Наличие случайной компоненты е отражает тот факт, что присутствуют другие факторы, влияющие на исследуемую переменную и не учтённые в модели.
Построение уравнения регрессии сводится к оценке ее параметров. Для оценки используется метод наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака у от оценок Линейная регрессия (рис. 8) минимальна, т.е.

Линейная регрессия (рис. 9) min.

В результате операции МНК получаются оценки коэффициентов регрессии:

b = Cov (X,Y):Линейная регрессия (рис. 10), (1.4)= Линейная регрессия (рис. 11) (1.5)
Линейная регрессия (рис. 12) = Линейная регрессия (рис. 13)уi: n; Линейная регрессия (рис. 14) = Линейная регрессия (рис. 15)хi: n; Cov (X,Y) = Линейная регрессия (рис. 16); Линейная регрессия (рис. 17)= Линейная регрессия (рис. 18).

Надежность оценок a и b характеризуется их дисперсиями:
Проверка качества уравнения регрессии осуществляется по ряду позиций.
Оценка статистической значимости коэффициентов регрессии.

Линейная регрессия (рис. 19)Линейная регрессия (рис. 20) (1.6)
Линейная регрессия (рис. 21)Линейная регрессия (рис. 22), (1.7)
S2 = Линейная регрессия (рис. 23)еi2:(n - 2), Линейная регрессия (рис. 24)Линейная регрессия (рис. 25).

Используется критерий Стьюдента. Вычисляются Линейная регрессия (рис. 26)Линейная регрессия (рис. 27) Линейная регрессия (рис. 28)Линейная регрессия (рис. 29) и сравниваются с tкрит. Результатом сравнения является вывод о значимости коэффициентов a и b.
Интервальные оценки коэффициентов уравнения регрессии.
Так как объем выборки ограничен, то a и b Ї случайные величины, поэтому желательно найти доверительные интервалы для истинных значений Линейная регрессия (рис. 30)0,Линейная регрессия (рис. 31)1. Для этого также используется t Ї критерий Стьюдента.
Проверка значимости уравнения регрессии в целом.
Позволяет установить, соответствует ли математическая модель экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных для описания зависимой переменной. Мерой общего качества уравнения регрессии является коэффициент детерминации R2:

Линейная регрессия (рис. 32)Линейная регрессия (рис. 33). (1.8)

Выражение (1.8) вытекает из соотношения:

Линейная регрессия (рис. 34)Линейная регрессия (рис. 35), (1.9)
где Линейная регрессия (рис. 36)Линейная регрессия (рис. 37) Ї объясненная сумма квадратов, она характеризует разброс, обусловленный регрессией;
Линейная регрессия (рис. 38)Линейная регрессия (рис. 39) Ї остаточная (необъясненная) сумма квадратов, характеризует случайную составляющую разброса yi относительно линии регрессии Линейная регрессия (рис. 40)Линейная регрессия (рис. 41).
Из соотношений (1.8) и (1.9) следует, что коэффициент детерминации R2 есть ни что иное, как:

R2 = Линейная регрессия (рис. 42)ki2: Линейная регрессия (рис. 43)( yi - Линейная регрессия (рис. 44))2. (1.10)

В итоге, коэффициент детерминации можно вычислить по (1.8) или по (1.10).
Прогноз значений зависимой переменной.
Под прогнозными понимаем значениях Yр при определенных значениях объясняющей переменной Хр. Так как задача решается в условиях неопределенности то прогноз удобнее всего давать на основе интервальных оценок, построенных с заданной надежностью Линейная регрессия (рис. 45).
Причем здесь возможно два подхода:
) предсказание среднего значения, т.е. M (Y: Х=xр);
) предсказание индивидуальных значений Y: Х=xр.
Интервальный прогноз для среднего значения вычисляется следующим образом:

Линейная регрессия (рис. 46)р = Линейная регрессия (рис. 47) tкр S Линейная регрессия (рис. 48), (1.11)

где Линейная регрессия (рис. 49)р = a+ bxр ;
tкр Ї критическое значение, полученное по распределению Стьюдента при количестве степеней свободы Линейная регрессия (рис. 50)= n - 2 и заданной вероятности Линейная регрессия (рис. 51)/2.
Интервальный прогноз для индивидуального значения вычисляется по формуле:

Линейная регрессия (рис. 52)р = Линейная регрессия (рис. 53) tкр S Линейная регрессия (рис. 54). (1.12)

.1.2 Множественная линейная регрессия
Линейная модель множественной регрессии имеет вид:

Линейная регрессия (рис. 55),(1.13)

где Линейная регрессия (рис. 56)Ї расчётные значения исследуемой переменной,
Линейная регрессия (рис. 57) - факторные переменные.
Каждый из коэффициентов уравнения Линейная регрессия (рис. 58) имеет такую экономическую интерпретацию: он показывает, насколько изменится значение исследуемого признака при изменении соответствующего фактора на 1 при неизменных значениях других факторных переменных.
Фактическое значение исследуемой переменной тогда представимо в виде:

Линейная регрессия (рис. 59) (1.14)

Для адекватности модели необходимо, чтобы случайная величина е, являющаяся разностью между фактическими и расчётными значениями, имела нормальный закон распределения с математическим ожиданием равным нулю и постоянной дисперсией у2.
Имея n наборов данных наблюдений, с использованием представления (1.14), мы можем записать n уравнений вида:

Линейная регрессия (рис. 60),(1.15)

где Линейная регрессия (рис. 61) ѕ значения исследуемой и факторных переменных в i-м наблюдении,
еi Ї отклонение фактического значения yi от расчётного значения yрi.
Систему уравнений (1.15) удобно исследовать в матричном виде:

Линейная регрессия (рис. 62),(1.16)

где Yв Ї вектор выборочных данных наблюдений исследуемой переменной (n элементов),
Xв Ї матрица выборочных данных наблюдений факторных переменных (Линейная регрессия (рис. 63)элементов),
А Ї вектор параметров уравнения (m+1 элементов),
E Ї вектор случайных отклонений (n элементов):

Линейная регрессия (рис. 64) (1.17)

При построении модели множественной регрессии возникает необходимость оценки (вычисления) коэффициентов линейной функции, которые в матричной форме записи обозначены вектором A. Формула для вычисления параметров регрессионного уравнения методом наименьших квадратов (МНК) по данным наблюдений следующая:

Линейная регрессия (рис. 65). (1.18)

Нахождение параметров с помощью соотношения (1.18) возможно лишь в том случае, когда между различными столбцами и различными строками матрицы исходных данных X отсутствует строгая линейная зависимость (иначе не существует обратная матрица). Это условие не выполняется, если существует линейная или близкая к ней связь между результатами двух различных наблюдений, или же если такая связь существует между двумя различными факторными переменными. Линейная или близкая к ней связь между факторами называется мультиколлинеарностью. Чтобы избавиться от мультиколлинеарности, в модель включают один из линейно связанных между собой факторов, причём тот, который в большей степени связан с исследуемой переменной.
На практике чтобы избавиться от мультиколлениарности проверяют для каждой пары факторных переменных выполнение следующих условий:

Линейная регрессия (рис. 66).(1.19)

То есть коэффициент корреляции между двумя факторными переменными должен быть меньше 0,8 и, одновременно, меньше коэффициентов корреляции между исследуемой переменной и каждой из этих двух факторных переменных. Если хотя бы одно из условий (1.19) не выполняется, то в модель включают только один из этих двух факторов, а именно, тот, у которого модуль коэффициента корреляции с Y больше.
Значимость параметров модели множественной регрессии aj проверяется с помощью t-критерия Стьюдента аналогично тому, как мы проверяли значимость коэффициентов модели парной регрессии. Для каждого параметра уравнения вычисляется t-статистика:

Линейная регрессия (рис. 67) (1.20)
Линейная регрессия (рис. 68)Линейная регрессия (рис. 69),

где Sст Ї стандартная ошибка оценки,
bjj Ї диагональный элемент матрицы Линейная регрессия (рис. 70).
Далее по таблицам определяется значение tкр в зависимости от уровня значимости б и параметра n-m-1. Наконец, каждая из t-статистик (1.20) сравнивается с табличным значением. Если РtajР > tкр, то коэффициент aj считается значимым. В противном случае коэффициент не является значимым и его можно положить равным нулю, тем самым исключить из модели фактор xj (качество модели при этом не ухудшится).
Качество модели оценивается стандартным способом для уравнений регрессии: по адекватности и точности на основе анализа остатков регрессии е.
Как и в случае парной линейной регрессии, коэффициент детерминации Линейная регрессия (рис. 71) можно вычислить по формуле (1.8), индекс корреляции R (в случае линейной множественной регрессии он называется коэффициентом множественной регрессии) Линейная регрессия (рис. 72), среднюю относительную ошибку Линейная регрессия (рис. 73) по формуле:
Линейная регрессия (рис. 74)Линейная регрессия (рис. 75) (1.21).

Процедура проверки значимости уравнения регрессии в целом также производится аналогично случаю парной регрессии. Вычисляется F-критерий Фишера по формуле:

Линейная регрессия (рис. 76)Линейная регрессия (рис. 77) (1.22)

затем определяется критическое значение и сравнивается с расчётным значением.
Важную роль при оценке влияния отдельных факторов играют коэффициенты регрессионной модели aj. Однако непосредственно с их помощью нельзя сопоставить факторы по степени их влияния на зависимую переменную из-за различия единиц измерения и разного масштаба колебаний (степени колеблемости) при использовании разных наборов результатов наблюдений.
Для устранения таких различий применяются частные коэффициенты эластичности:

Линейная регрессия (рис. 78), (1.24)

где Линейная регрессия (рис. 79)Ї среднеквадратические отклонения переменных:

Линейная регрессия (рис. 80). (1.25)
Коэффициент эластичности показывает, на сколько процентов изменяется исследуемая переменная при изменении факторной переменной на 1 процент. Если коэффициент эластичности меньше 0, то при увеличении значения фактора исследуемая переменная уменьшается. Таким образом, коэффициенты эластичности можно сравнивать между собой по модулю для выяснения того, изменения какого фактора больше влияют на изменение исследуемой переменной. Однако коэффициент эластичности не учитывает степень колеблемости факторов.
Бета-коэффициент показывает, на какую часть величины среднеквадратического отклонения Линейная регрессия (рис. 81) изменится переменная y с изменением соответствующей независимой переменной xj на величину своего среднеквадратического отклонения при фиксированном уровне значений остальных факторных переменных.
Указанные коэффициенты позволяют упорядочить факторы по степени их влияния на исследуемую переменную.
Долю влияния фактора в суммарном влиянии всех факторов можно оценить по величине дельта - коэффициентов:

Линейная регрессия (рис. 82),(1.26)

где Линейная регрессия (рис. 83) Ї коэффициент парной корреляции между фактором xj и исследуемой переменной y.
Одной из важнейших целей построения эконометрической модели является прогнозирование поведения исследуемого процесса или объекта.
Как и в случае парной регрессии вычисляются точечное и интервальное прогнозные значения исследуемой переменной.
Точечный прогноз осуществляется подстановкой прогнозного набора факторных переменных в уравнение регрессии:
Линейная регрессия (рис. 84).(1.27)

Если прогноз осуществляется не для одного набора факторных переменных, а для некоторого ряда наборов, то ряд точечных прогнозов исследуемой переменной можно представить в виде вектора, и вычислять его удобнее с использованием операций с матрицами:

Линейная регрессия (рис. 85),(1.28)
Линейная регрессия (рис. 86)(1.29)

Интервальный прогноз в рамках модели множественной регрессии строится с использованием соотношений, являющихся обобщением формул парной регрессионной модели. Для нахождения размаха доверительного интервала необходимо вычислить матрицу V:

Линейная регрессия (рис. 87). (1.30)

В выражении (1.30) участвуют матрица Xв, составленная из значений факторных переменных, имевших место в рядах наблюдений и матрица Xпрогн, составленная из прогнозируемых значений факторных переменных. Размерность матрицы V равна Линейная регрессия (рис. 88), то есть зависит от числа прогнозируемых наборов факторных переменных. Размах прогнозного интервала для i-го набора факторных переменных равен:

Линейная регрессия (рис. 89)Линейная регрессия (рис. 90) (1.31)
где Линейная регрессия (рис. 91)Ї диагональный элемент матрицы (1.30). Тогда фактические значения исследуемой величины y для i-го набора значений факторных переменных с вероятностью (1-б) попадают в интервал:

Линейная регрессия (рис. 92). (1.32)

.2 Теорема Гаусса-Маркова

Рассмотрим основные гипотезы модели множественной линейной регрессии:
1) Линейная регрессия (рис. 93) (t = 1, 2,…, n) Ї спецификация модели.
) Линейная регрессия (рис. 94) Ї детерминированные (независимые) переменные.
) Линейная регрессия (рис. 95) Ї не зависит от t.
) Линейная регрессия (рис. 96) (при t ≠ s) Ї некоррелированность ошибок для разных наблюдений.
) Линейная регрессия (рис. 97)~Линейная регрессия (рис. 98) т.е. Линейная регрессия (рис. 99) Ї нормально распределенная случайная величина с математическим ожиданием, равным 0, и дисперсией Линейная регрессия (рис. 100).
В этом случае модель 1-3 называется нормальной линейной множественной регрессионной моделью.
Гипотезы, лежащие в основе множественной регрессии, удобно записать в матричной форме.
Обозначим
Линейная регрессия (рис. 101) Ї матрица-столбец;
Линейная регрессия (рис. 102) Ї вектор коэффициентов размерности Линейная регрессия (рис. 103);
Линейная регрессия (рис. 104) Ї вектор ошибок;
Линейная регрессия (рис. 105) Ї матрица объясняющих переменных Линейная регрессия (рис. 106)Линейная регрессия (рис. 107) размерности Линейная регрессия (рис. 108).
Столбцами матрицы X являются векторы регрессоров размерности Линейная регрессия (рис. 109), т.е. Линейная регрессия (рис. 110) i = 1, 2,…, n.
Тогда условия гипотез 1-3 в матричной форме будут иметь вид:
) Линейная регрессия (рис. 111) Ї спецификация модели.
) X Ї детерминированная матрица, имеющая максимальный ранг, равный k.
) Линейная регрессия (рис. 112), Линейная регрессия (рис. 113)
где Линейная регрессия (рис. 114)Ї единичная матрица.
) Линейная регрессия (рис. 115)~Линейная регрессия (рис. 116) т.е. Линейная регрессия (рис. 117) Ї нормально распределенный случайный вектор со средним 0 и матрицей ковариаций Линейная регрессия (рис. 118)
Как и в случае регрессионного уравнения с одной переменной, целью метода является выбор вектора оценок Линейная регрессия (рис. 119), минимизирующего сумму квадратов остатков Линейная регрессия (рис. 120) (т.е. квадрат длины вектора остатков e):

Линейная регрессия (рис. 121) Ї min.
Линейная регрессия (рис. 122)

Применяя необходимые условия минимума с использованием дифференцирования по вектору Линейная регрессия (рис. 123) получим:

Линейная регрессия (рис. 124)

откуда, учитывая невырожденность матрицы Линейная регрессия (рис. 125) находим оценку метода наименьших квадратов (МНК):

Линейная регрессия (рис. 126) (1.33)

Теорема Гаусса-Маркова утверждает, что модель с гипотезами 1-3 имеет оценку МНК Линейная регрессия (рис. 127) наиболее эффективную (в смысле наименьшей дисперсии) оценку в классе линейных (по Y) несмещенных оценок.

2. Практическая часть

.1 Характеристика экзогенных и эндогенных переменных

В практической части работы будут проведены исследования зависимости между объясняемой (экзогенной) переменной у Ї индекс человеческого развития в ряде государств мира и объясняющими (эндогенными) переменными: х1 Ї ВВП 1997г., % к 1990г. и х6 Ї ожидаемая продолжительность жизни при рождении 1997г., число лет. Значения переменных приведены в Таблице 2.1

Таблица 2.1 - Исходные данные
Странаух1х6
Австрия0,904115,077,0
Австралия0,922123,078,2
Белоруссия0,76374,068,0
Бельгия0,923111,077,2
Великобритания0,918113,077,2
Германия0,906110,077,2
Дания0,905119,075,7
Индия0,545146,062,6
Испания0,894113,078,0
Италия0,900108,078,2
Канада0,932113,079,0
Казахстан0,74071,067,6
Китай0,701210,069,8
Латвия0,74494,068,4
Нидерланды0,921118,077,9
Норвегия0,927130,078,1
Польша0,802127,072,5
Россия0,74761,066,6
США0,927117,076,7
Украина0,72146,068,8
Финляндия0,913107,076,8
Франция0,918110,078,1
Построим графики зависимости результативного признака от каждого фактора в отдельности, используя MS Excel for Windows:

Линейная регрессия (рис. 128)
Рисунок 2.1 Ї График зависимости у от х1

Линейная регрессия (рис. 129)
Рисунок 2.2 Ї График зависимости у от х6

На обоих графиках прослеживается преимущественно линейная форма зависимости между переменными, поэтому можно высказать предположение о линейной форме зависимости у от обоих факторов.
Рассчитаем парные коэффициенты корреляции, применяя формулы:
Линейная регрессия (рис. 130) (2.1)
Линейная регрессия (рис. 131)Линейная регрессия (рис. 132) (2.2)

где средние значения находятся так:

Линейная регрессия (рис. 133) (2.3)
Линейная регрессия (рис. 134) (2.4)
Линейная регрессия (рис. 135) (2.5)
Линейная регрессия (рис. 136) (2.6)

Таблица 2.2 Ї Расчетная таблица для определения парных коэффициентов корреляции
Странаух1х6(х1)2х1 х6у х1у х6у2
Австрия0,90411577132258855103,9669,6080,817216
Австралия0,92212378,2151299618,6113,40672,10040,850084
Белоруссия0,76374685476503256,46251,8840,582169
Бельгия0,92311177,2123218569,2102,45371,25560,851929
Великобритания0,91811377,2127698723,6103,73470,86960,842724
Германия0,90611077,212100849299,6669,94320,820836
Дания0,90511975,7141619008,3107,69568,50850,819025
Индия0,54514662,6213169139,679,5734,1170,297025
Испания0,89411378127698814101,02269,7320,799236
Италия0,910878,2116648445,697,270,380,81
Канада0,93211379127698927105,31673,6280,868624
Казахстан0,747167,650414799,652,5450,0240,5476
Китай0,70121069,84410014658147,2148,92980,491401
Латвия0,7449468,488366429,669,93650,88960,553536
Нидерланды0,92111877,9139249192,2108,67871,74590,848241
Норвегия0,92713078,11690010153120,5172,39870,859329
Польша0,80212772,5161299207,5101,85458,1450,643204
Россия0,7476166,637214062,645,56749,75020,558009
США0,92711776,7136898973,9108,45971,10090,859329
Украина0,7214668,821163164,833,16649,60480,519841
Финляндия0,91310776,8114498217,697,69170,11840,833569
Франция0,91811078,1121008591100,9871,69580,842724
Чехия0,83399,273,99840,647330,8882,633661,55870,693889
Швейцария0,91410178,6102017938,692,31471,84040,835396
Швеция0,92310578,5110258242,596,91572,45550,851929
У21,2427411860,6322770,6204586,62328,931592,2818,29687
Ср.знач.0,849109,674,42412910,828183,46793,157363,69140,7319

Получим расчетные значения:
Линейная регрессия (рис. 137)
Линейная регрессия (рис. 138)
Линейная регрессия (рис. 139)

Линейная регрессия (рис. 140)
Линейная регрессия (рис. 141)

Анализ показывает, что зависимая переменная у имеет тесную связь с х6 (ryx6 = 0,9620) и менее тесную, очень слабую связь с х1 (ryx1 = -0,0043).
Факторы x1 и x6 не тесно связаны между собой (Линейная регрессия (рис. 142)Линейная регрессия (рис. 143)= 0,1633), что свидетельствует об отсутствии между ними коллинеарности.

.2 Построение двухфакторного уравнения регрессии

Построим уравнение множественной регрессии в линейной форме с двумя факторами.
Линейное уравнение множественной регрессии имеет вид:

Линейная регрессия (рис. 144)

где Линейная регрессия (рис. 145) (j = 1, k ) - стандартизированные коэффициенты регрессии.
В двухфакторном регрессионном анализе найти уравнение регрессии в стандартизированном масштабе Линейная регрессия (рис. 146)Линейная регрессия (рис. 147) можно через формулы:

Линейная регрессия (рис. 148)
Линейная регрессия (рис. 149)

Линейная регрессия (рис. 150)Линейная регрессия (рис. 151), следовательно делаем вывод, что фактор x6 влияет на результативный признак сильнее чем фактор x1.

Линейная регрессия (рис. 152)

Возвращаемся к натуральному масштабу используя следующие формулы:

Линейная регрессия (рис. 153)Линейная регрессия (рис. 154) и Линейная регрессия (рис. 155)Линейная регрессия (рис. 156)
Линейная регрессия (рис. 157)
Линейная регрессия (рис. 158)

Линейная регрессия (рис. 159)
Определяем коэффициент множественной корреляции, используя следующую формулу:

Линейная регрессия (рис. 160)

Линейная регрессия (рис. 161)
Коэффициент корреляции показывает, что связь между y и факторами прямая и сильная.
Далее определяем коэффициент детерминации по формуле:

Линейная регрессия (рис. 162)

Линейная регрессия (рис. 163)
Коэффициент детерминации Линейная регрессия (рис. 164)Линейная регрессия (рис. 165) означает, что наша модель объясняет 95,2% общего разброса значений результативного признака, т.е. долю факторной дисперсии в общей дисперсии.
Сравнительную оценку силы связи факторов проведем с помощью общих (средних) коэффициентов эластичности, используя следующую формулу:

Линейная регрессия (рис. 166)

Средние значения следующие:
Линейная регрессия (рис. 167)Линейная регрессия (рис. 168) Линейная регрессия (рис. 169)Линейная регрессия (рис. 170) Линейная регрессия (рис. 171)Линейная регрессия (рис. 172)

Линейная регрессия (рис. 173)
Линейная регрессия (рис. 174)

Линейная регрессия (рис. 175)
При изменении фактора х1 на 1% Y изменится от своей величины на 0,0774% при неизменном х6. При изменении фактора х6 на 1% Y изменится от своей величины на 1,8218% при неизменном х1. Наименьшее влияние на Y оказывает фактор х1 Ї ВВП 1997г., % к 1990г.
Определим общий F-критерий Фишера по формуле:

Линейная регрессия (рис. 176)

где n Ї объем выборки,
k Ї число факторов модели.
Получим:
Линейная регрессия (рис. 177)
Так как Линейная регрессия (рис. 178)Линейная регрессия (рис. 179)
и поэтому уравнение регрессии, и показатель тесноты связи на 95% уровне статистически значимы.
Для оценки статистической значимости модели по параметрам рассчитывают t-критерии Стьюдента.
Поскольку, то t-статистики Стьюдента:
Линейная регрессия (рис. 180)Линейная регрессия (рис. 181) Линейная регрессия (рис. 182)Линейная регрессия (рис. 183)
Линейная регрессия (рис. 184)Линейная регрессия (рис. 185) следовательно, коэффициент регрессии b1 статистически значимый.
Линейная регрессия (рис. 186)Линейная регрессия (рис. 187) следовательно, коэффициент регрессии b6 статистически не значим.

.3 Построение однофакторных уравнений регрессии

Строим однофакторные уравнения линейной регрессии, которое имеет вид:

Линейная регрессия (рис. 188)
Линейная регрессия (рис. 189)
Линейная регрессия (рис. 190)
Линейная регрессия (рис. 191)
Линейная регрессия (рис. 192)
Линейная регрессия (рис. 193)
Линейная регрессия (рис. 194)

На основе коэффициентов корреляции рассчитываем коэффициенты детерминации:
Линейная регрессия (рис. 195)
Линейная регрессия (рис. 196)
Доля факторной дисперсии в общей для первого однофакторного уравнения регрессии составляет 0,002%, тогда как для второго уравнения Ї 92,5%. Второе уравнение значительно качественнее первого.
2.4 Прогнозирование значения результативного признака

На основе полученных трех уравнений регрессии определим прогнозное значения результативного признака, используя средние величины факторных признаков:
Для множественной регрессии:
Линейная регрессия (рис. 197)
Для однофакторной регрессии у и Х1:
Линейная регрессия (рис. 198)
Для однофакторной регрессии у и Х6:
Линейная регрессия (рис. 199)
Учитывая, что у линейной множественной регрессии коэффициент детерминации - 0,9522 самый высокий, то из 3-х моделей выбор делаем в ее пользу, т.е. в пользу модели:
Линейная регрессия (рис. 200)

Заключение

Данная работа выполнена в соответствии с изученными теоретическими материалами по построению линейных моделей регрессии, краткий обзор которых приведен в теоретической части работы.
В практической части работы рассматривались зависимости между объясняемой (экзогенной) переменной у Ї индекс человеческого развития в ряде государств мира и объясняющими (эндогенными) переменными: х1 Ї ВВП 1997 г., % к 1990 г. и х6 Ї ожидаемая продолжительность жизни при рождении 1997 г., число лет. С использованием возможностей MS Excel for Windows были получены графические изображения парных зависимостей, на основании которых, был сделан вывод о необходимости построения линейных моделей регрессии, которые и были построены:
Модель множественной линейной регрессии
Линейная регрессия (рис. 201)
и две модели парных линейных регрессий:
Линейная регрессия (рис. 202)
Линейная регрессия (рис. 203)
Первая и третья модели оказались статистически (95%) значимы и значимы их коэффициенты (на основании критерия Фишера и Стьюдента), их прогнозные значения достаточно близки: 0,849 и 0,851 соответственно. На основании сравнения коэффициентов детерминации: 0,9522 и 0,9254 выбор сделан в пользу первой модели, так как она объясняет 95,2% факторной дисперсии в общей и ее следует использовать для прогнозных расчетов.

список используемых источников

1. Бабешко, Л.О. Основы эконометрического моделирования: учеб. пособие. Изд. 2-е. испр. / Л.О. Бабешко. - М.: КомКнига, 2006, -432 с.
. Бывшев, В.А. Эконометрика: учеб. пособие / В.А. Бывшев. - М.: Финансы и статистика, 2008. -480 с.
. Доугерти, К. Введение в эконометрику: учебник: пер. с англ./ К. Доугерти. - М.: Инфра-М, 2009.
. Елисеева, И.И. Практикум по эконометрике: Учеб. пособие / И.И. Елисеева, С.В. Курышева, Н.М. Гордиенко и др., под ред. И.И. Елисеевой. - М.: Финансы и статистика. 2001.
. Кремер, Н.Ш. Эконометрика: Учебник / Н.Ш. Кремер, Б.А. Путко, Под ред. Н.Ш. Кремера. - М.: ЮНИТИ-ДАНА, 2002.
. Эконометрика: Учебник, - 2-е изд., перераб. и доп. - 2-е изд., / И.И. Елисеева, С.В. Курышева, Т.В. Костеева и др. / под ред. И.И. Елисеевой. - М.: Финансы и статистика. 2007.
. Айвазян, С.А. Прикладная статистика и основы эконометрики / С.А. Айвазян, В.С. Мхитарян. - М.: ЮНИТИ, 1998.

Комментарии:

Вы не можете оставлять комментарии. Пожалуйста, зарегистрируйтесь.