Теоретические основы проведения регрессионного анализа

Методы регрессии используют для определения зависимости между переменными (двумя и более). На практике достаточно часто приходится представлять такую зависимость в математическом виде. Например, можно предположить, что между затратами на рекламу и объёмом выручки есть зависимость. Эта зависимость может выражаться в следующем виде:

где у — объём выручки; х — затраты на рекламу. По формуле видно, что объём продаж в 5 раз больше суммы затрат на рекламу.

Конечно, на практике, в реальных условиях, зависимости не столь просты, как в данном примере. Тем важнее правильно составить уравнение, описывающее зависимости между факторами, — и это вполне возможно.

Вторая тема данного пособия была посвящена изучению теоретических и практических основ корреляционного анализа, в ней также были рассмотрены различные графики разброса с целью иллюстрации зависимости между переменными. Прямая линия «наилучшего соответствия», проведённая через точки на графике, называется линией регрессии. Линейное уравнение регрессии имеет следующий вид:

где у — зависимая переменная; х — независимая переменная; а — свободный коэффициент регрессии; b — значение коэффициента при переменной х.

Значения коэффициентов b и а могут быть рассчитаны по формулам (3.3) и (3.4).

где у — среднее арифметическое значение у; X — среднее арифметическое значение х.

Значения коэффициентов а и b подставляют в общее уравнение регрессии для определения зависимости между у и х.

Статистическую оценку тесноты связи между зависимой переменной и независимыми переменными вычисляют на основе коэффициента множественной детерминации. Он выражает долю объяснённой изучаемыми факторами дисперсии результативного признака и принимает значения от 0 до 1.

Уравнение регрессии используют для нахождения ожидаемого значения зависимой переменной у для заданных значений переменной х.

Методы регрессии используют при краткосрочном прогнозировании.

Основные термины, используемые в регрессионном анализе

Гребневая регрессия

Гребневую регрессию (Салин, Чурилова 2002: 118-119) используют, когда независимые переменные коррелируют между собой, то есть при мультиколлинеарности. В данном случае устойчивые оценки регрессионных коэффициентов не могут быть получены с помощью метода наименьших квадратов (из-за высокого значения стандартных ошибок). Гребневые оценки параметров регрессии хоть и смещены, но имеют лучшие характеристики точности. В гребневой регрессии к диагонали корреляционной матрицы добавляется константа Я (лямбда) — для того чтобы все диагональные элементы корреляционной матрицы были равны 1,0. Когда лямбда равна нулю, гребневые оценки превращаются в оценки метода наименьших квадратов. Гребневая регрессия искусственно занижает коэффициенты корреляции, чтобы получить более устойчивые оценки коэффициентов регрессии. Сложность использования гребневой регрессии в том, что на практике сложно определить подходящее значение Я.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ   След >