Главная Случайная страница


Категории:

ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника






Анализ и способы снижения влияния мультиколлинеарности

На значимость модели

Мультиколлинеарность – попарная корреляционная зависи­мость между факторами.

Мультиколлинеарная зависимость присутствует, если коэффи­циент парной корреляции .

Отрицательное воздействие мультиколлинеарности состоит в следующем:

1. Усложняется процедура выбора главных факторов.

2. Искажается смысл коэффициента множественной корреля­ции (он предполагает независимость факторов).

3. Усложняются вычисления при построении самой модели.

4. Снижается точность оценки параметров регрессии, искажа­ется оценка дисперсии.

Следствием снижения точности является ненадежность коэффициентов регрессии и отчасти неприемлемость их использования для интерпретации как меры воздействия соответствующей объяс­няющей переменной на зависимую переменную.

Оценки коэффициента становятся очень чувствительными к выборочным наблюдениям. Небольшое увеличение объема выборки может привести к очень сильным сдвигам в значениях оценок. Кроме того, стандартные ошибки оценок входят в формулы крите­рия значимости, поэтому применение самих критериев становится также ненадежным. Из сказанного ясно, что исследователь должен пытаться установить стохастическую мультиколлинеарность и по возможности устранить ее.

Для измерения мультиколлинеарности можно использовать ко­эффициент множественной детерминации

, (4.23)

где R – коэффициент множественной корреляции.

При отсутствии мультиколлинеарности факторов

, (4.24)

где dyjкоэффициент парной детерминации, вычисляемый по формуле

, (4.25)

где – коэффициент парной корреляции между j-м фактором и зависи­мой переменной у.

При наличии мультиколлинеарности соотношение (4.24) не со­блюдается. Поэтому в качестве меры мультиколлинеарности ис­пользуется следующая разность:

. (4.26)

Чем меньше эта разность, тем меньше мультиколлинеарность. Для устранения мультиколлинеарности используется метод исклю­чения переменных.Этот метод заключается в том, что высоко кор­релированные объясняющие переменные (факторы) устраняются из регрессии и она заново оценивается. Отбор переменных, подле­жащих исключению, производится с помощью коэффициентов парной корреляции. Опыт показывает, что если , то од­ну из переменных можно исключить, но какую переменную ис­ключить из анализа, решают исходя из управляемости факторов на уровне предприятия.

Обычно в модели оставляют тот фактор, на который можно разработать мероприятие, обеспечивающее улучшение значения этого фактора в планируемом году. Возможна ситуация, когда оба мультиколлинеарных фактора управляемы на уровне предприятия.

 

Решить вопрос об исключении того или иного фактора можно толь­ко в соответствии с процедурой отбора главных факторов.

Отбор факторов не самостоятельный процесс, он сопровожда­ется построением модели. Принятие решения об исключении фак­торов производится на основе анализа значений специальных ста­тистических характеристик и с учетом управляемости факторов на уровне предприятия.

Процедура отбора главных факторов обязательно включает сле­дующие этапы:

1. Анализ факторов на мультиколлинеарностъ и ее исключение.Здесь производится анализ значений коэффициентов парной кор­реляции между факторами хi и xj.

2. Анализ тесноты взаимосвязи факторов(х)с зависимой пере­менной(у).

Для анализа тесноты взаимосвязи х и у используются значения коэффициента парной корреляции между фактором и функцией ( ). Величина определяется на ЭВМ и представлена в корреля­ционной матрицевида:

№ переменной x1 x2 x3 xm y
x1
x2
x3
xm
y

 

Факторы, для которых = О, т. е. не связанные с у, подлежат исключению в первую очередь. Факторы, имеющие наименьшее значение , могут быть потенциально исключены из модели. Во­прос об их окончательном исключении решается в ходе анализа других статистических характеристик.

3. Анализ коэффициентов р" факторов, которые потенциально мо­гут быть исключены.

Коэффициент β учитывает влияние анализируемых факторов на у с учетом различий в уровне их колеблемости. Коэффициент β показывает, насколько сигм (средних квадратических отклоне­ний) изменяется функция с изменением соответствующего аргу­мента на одну сигму при фиксированном значении остальных ар­гументов:

, (4.27)

Где – коэффициент β k-roфактора; – среднее квадратическое отклонение k-гофактора; среднее квадратическое отклонение функции; коэффициент регрессии при к-мфакторе.

Из двух факторов хi и xj может быть исключен тот фактор, ко­торый имеет меньшее значение β.

Допустим, исключению подлежит один из мультиколлинеарных факторов хi или xj. Оба фактора управляемы на уровне предприя­тия, коэффициенты регрессии аi и аj статистически значимы. Фак­тор хi более тесно связан с у, т. е. , но при этом . В этом случае обычно исключению подлежит фактор xj.

4. Проверка коэффициентов регрессии на статистическую значи­мость.

Проверка может быть произведена двумя способами:

• проверка статистической значимости ак по критерию Стьюдентапроводится по следующей формуле:

, (4.27)

где аk – коэффициент регрессии при к-м факторе;

Sak – стандартное отклонение оценки параметра ак (Ферстер Э., Ренц Б. Методы корреляционного и регрессионного ана­лиза. - М.: Финансы и статистика, 1983).

Число степеней свободы статистики tk равно f = п - т -1, где т – количество факторов, включенных в модель. Значение /, вы­числяемое по (4.28), сравнивают с критическим значением tfa, най­денным по таблице Приложения 1 при заданном уровне значи­мости а и числе степеней свободы f (двухсторонняя критическая область).

Если tk > tfa, то ак существенно больше 0, а фактор хк оказыва­ет существенное влияние на у. При этом фактор хк оставляем в мо­дели. Если tk < tfa, то фактор исключаем из модели;

• проверка статистической значимости ак по критерию Фишера

, (4.29)

где t2 - многомерный аналог критерия Стьюдента.

Число степеней свободы статистики Fk следующее: f1 = 1, f2 = п – т-1. Значение Fk, вычисляемое по формуле (4.29), срав­нивают с критическим значением , найденным по таблице Приложения 2, при заданных уровне значимости а и числе степе­ней свободы f1, f2.

Если , то ак — существенно больше 0, а фактор хк ока­зывает существенное влияние на у. При этом фактор хк оставляем в модели. Если , то фактор исключаем из модели.

5. Анализ факторов на управляемость.

В ходе логического анализа на основе экономических знаний исследователь должен сделать вывод: можно ли разработать орга­низационно-технические мероприятия, направленные на улучше­ние (изменение) выбранных факторов на уровне предприятия. Ес­ли это возможно, то данные факторы управляемы. Неуправляемые факторы на уровне предприятия могут быть исключены из модели. Например, из двух факторов х1 – средняя техническая скорость ав­томобилей и х2 – время погрузки-разгрузки на одну ездку при ра­венстве или близких по значению таких характеристик, как и , βx1 и βx2 исключению подлежит x1. На уровне АТП практиче­ски невозможно повлиять на значение технической скорости, ко­торая зависит в основном от климатических условий и величины транспортного потока.

6. Строится новая регрессионная модель без исключенных факто­ров.Для этой модели определяется коэффициент множественной
детерминации Д.

7. Исследование целесообразности исключения факторов из моде­ли с помощью коэффициента детерминации.

Прежде чем вынести решение об исключении переменных из анализа в силу их незначимого влияния на зависимую перемен­ную, производят исследования с помощью коэффициента детер­минации.

В первой регрессии содержится т объясняющих переменных, во второй – только часть из них, а именно т1 объясняющих перемен­ных. При этом т = m1 + т2, т.е. во вторую регрессию мы не вклю­чили т2 объясняющих переменных. Теперь следует проверить, вно­сят ли совместно эти т2 переменных существенную долю в объяс­нение вариации переменной у. Для этого используется статистика

, (4.30)

которая имеет F-распределение c и степенями свободы. Здесь Дт означает коэффициент детерминации регрессии с т объясняющими переменными, а Дт1 коэффициент детерминации регрессии с m1 факторами.

Разность т - Дт1) в числителе формулы является мерой до­полнительного объяснения вариации переменной у за счет включе­ния т2 переменных.

Критическое значение находят по таблице F-распределения при заданном уровне значимости а и f1 и f2 степенях свободы. Ес­ли , то включение дополнительно объясняющих переменных совместно не оказывает значимого влияния на переменную у. Если , то т2, объясняющих переменных совместно оказы­вают существенное влияние на вариацию переменной у, и, следо­вательно, в этом случае все т2 переменные нельзя исключать из модели.

При реализации первой ситуации ( )факторы оконча­тельно исключаются из модели.

7. Проверка адекватности модели. Данный этап анализа включает:

оценку значимости коэффициента детерминации. Данная оценка необходима для решения вопроса: оказывают ли выбранные фак­торы влияние на зависимую переменную? Оценку значимости Д следует проводить, так как может сложиться такая ситуация, ког­да величина коэффициента детерминации будет целиком обус­ловлена случайными колебаниями в выборке, на основании ко­торой он вычислен. Это объясняется тем, что величина Д суще­ственно зависит от объема выборки.

Для оценки значимости коэффициента множественной детер­минации используется следующая статистика:

, (4.31)

которая имеет F-распределение с и степеня­ми свободы. Здесь Д = R2 , а т – количество учитываемых объясня­ющих переменных (факторов).

Значение статистики F, вычисленное по эмпирическим дан­ным, сравнивается с табличным значением . Критическое зна­чение определяется по таблице Приложения 2 по заданному а и степеням свободы f1и f 2. Если , то вычисленный коэффи­циент детерминации значимо отличается от 0 и, следовательно, включенные в регрессию переменные достаточно объясняют зави­симую переменную, что позволяет говорить о значимости самой регрессии (модели);

проверку качества подбора теоретического уравнения. Она прово­дится с использованием средней ошибки аппроксимации. Средняя ошибка аппроксимации регрессии определяется по фор­муле:

; (4.32)

вычисление специальных показателей, которые применяются для характеристики воздействия отдельных факторов на результиру­ющий показатель. Это коэффициент эластичности, который по­казывает, насколько процентов в среднем изменяется функция с изменением аргумента на 1% при фиксированных значениях других аргументов:

; (4.33)

доля влияния каждого фактора xj в отдельности на вариацию у (Елисеева И. И., Юзбашев М. М.Общая теория статистики. — М.: Фи­нансы и статистика, 1999):

, (4.34)

где – коэффициент бетта фактора xj.

Показатель gj является мерой вариации результативного при­знака за счет изолированного влияния фактора xj. Следует отме­тить, что система факторов, входящая в модель регрессии, — это не простая их сумма, так как система предполагает внутренние связи, взаимодействие составляющих ее элементов. Действие системы не равно арифметической сумме воздействий составляющих ее эле­ментов. Поэтому необходимо определить показатель системного эффекта факторов :

.

На основе анализа специальных показателей и значений пар­ной корреляции х с у делают вывод, какие из главных факторов оказывают наибольшее влияние на у. После этого переходят к раз­работке организационно-технических мероприятий, направленных на улучшение значений этих факторов, с целью повышения (сни­жения) результативного показателя у.

8. Экономическая интерпретация.

Результаты регрессионного анализа сравниваются с гипотеза­ми, сформулированными на первом этапе исследования, и оцени­вается их правдоподобие с экономической точки зрения.

9. Прогнозирование неизвестных значений зависимой переменой.

Полученное уравнение регрессии находит практическое приме­нение в прогностическом анализе. Прогноз получают путем под­становки в регрессию с численно оцененными параметрами значе­ний факторов. Следует подчеркнуть, что прогнозирование резуль­татов по регрессии лучше поддается содержательной интерпрета­ции, чем простая экстраполяция тенденций, так как полнее учитывается природа исследуемого явления. Более подробно во­просы прогнозирования рассмотрены в работе: Бережная Е.В., Бережной В.И. Математические методы и моделирование экономических систем: учебное пособие. – М.: Финансы и статистика, 2003. – 368 с..

Часть 5
ЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ В РЕШЕНИИ ОПТИМИЗАЦИОННЫХ ЗАДАЧ

Оптимизационная задача — это экономико-математическая за­дача, которая состоит в нахождении оптимального (максимального или минимального) значения целевой функции, причем значения переменных должны принадлежать некоторой области допустимых значений.

В самом общем виде задача математически записывается так:

. (5.1)

где ;

W – область допустимых значений переменных х1, х2, ..., хn;

f(Х) – целевая функция.

Для того чтобы решить задачу оптимизации, достаточно найти ее оптимальное решение, т. е. указать такое, что при любом , или для случая минимизации – при любом .

Оптимизационная задача является неразрешимой, если она не имеет оптимального решения. В частности, задача максимизации будет неразрешима, если целевая функция f(X) не ограничена свер­ху на допустимом множестве W.

Методы решения оптимизационных задач зависят как от вида целевой функции f(X), так и от строения допустимого множества W. Если целевая функция в задаче является функцией п перемен­ных, то методы решения называют методами математического про­граммирования.

В математическом программировании принято выделять следую­щие основные задачи в зависимости от вида целевой функцииf(X) и от области W:

Ø задачи линейного программирования, если f(X) и W линейны;

Ø задачи целочисленного программирования, если ставится усло­вие целочисленности переменных xt, х2, ..., хп;

Ø задачи нелинейного программирования, если форма f(X) носит
нелинейный характер.

Последнее изменение этой страницы: 2017-07-22

lectmania.ru. Все права принадлежат авторам данных материалов. В случае нарушения авторского права напишите нам сюда...