Реферат: Компонентный и факторный анализ

Министерство образования  Российской Федерации

ОРЕНБУРГСКИЙ   ГОСУДАРСТВЕННЫЙ  УНИВЕРСИТЕТ

Финансово-экономическийфакультет

Кафедра  МММЭКУРСОВАЯ РАБОТА

по дисциплине«Многомерные статистические методы»

Компонентный и факторныйанализ

 

ОГУ 061700.5001.06 00                                      Руководитель работы__________________   Реннер А.Г.

                                              “____”_____________2001г.

                       Исполнитель

                           студент гр.99ст

                                                                         ______________ Рамазанов М.И.

                                                 “_____”____________2001г.

Оренбург 2001

Содержание

Задание……………………………………………………………………………3

Введение……………………………………………………………………….….4

1 Исследование на мультиколлинеарность……………………………..……5                                                

2Метод главныхкомпонент………………………………………………..….7

    2.1 Вычисление главныхкомпонент……………………………………….…7

    2.2 Экономическая интерпретация полученных главных компонент…..…12

    2.3 Матрица наблюденных значений главныхкомпонент……………...….12

    2.4 Классификацияобъектов…………………………………………………13

    2.5 Уравнение регрессии на главныекомпоненты………………………….13

3 Факторныйанализ………………………………...…………………………15 

    3.1 Преобразование матрицы парныхкоэффициентов корреляции  в   редуцированную матрицу, получение матрицыфакторных нагрузок и экономическая интерпретация ………………………………………………..…...16

    3.2 Графическая классификация объектов подвум общим факторам…….19

    3.3 Переход к обобщенным факторам с помощьюваримаксного

     вращения ……………………………………………………………………...19

    3.4 Построение функции регрессии навыделенные общие факторы…......21

Список использованнойлитературы………………………………………...22

Приложения………………………………………………………..………...…23

    

 

Задание

 По имеющимся даннымпроизводственно-хозяйственной деятельности предприятий машиностроения:

Y1 – производительность труда;

X5 – удельный вес рабочих всоставе ППП;

X6 – удельный вес покупныхизделий;

X7 – коэффициент покупныхизделий;

X9 – удельный вес потерь отбрака;

X17 – непроизводственныерасходы.

1. Выявить наличие мультиколлинеарности.

2. Снизить размерность признакового пространства иудалить наличие мультиколлинеарности следующими методами:

Метод главных компонент:

-        для факторных признаков найти оценку матрицы парных коэффициентовкорреляции, найти собственные числа и собственные вектора;

-         наосновании матрицы собственных чисел определить вклад главных компонент всуммарную дисперсию признаков, отобрать и указать m (m<n) первых главных компонент,обеспечивающих уровень информативности 0.85;

-         построитьматрицу факторных нагрузок A и дать экономическую интерпретацию;

-         поматрице наблюденных значений главных компонент F провести классификациюобъектов по первым двум главным компонентам, дать интерпретацию;

-         используявектор значений результативного признака Y и матрицу Fпостроить уравнение регрессии.

Метод общих факторов:

-        оценить матрицу парных коэффициентов <img src="/cache/referats/11579/image002.gif" v:shapes="_x0000_i1025">

-         преобразоватьматрицу <img src="/cache/referats/11579/image002.gif" v:shapes="_x0000_i1026"> в редуцированную матрицу<img src="/cache/referats/11579/image002.gif" v:shapes="_x0000_i1027">h;

-         получитьпервые три общих фактора и дать экономическую интерпретацию по матрицефакторных нагрузок;

-         наоснове матрицы F провести графически классификацию объектов попервым двум общим факторам;

-         построитьфункцию регрессии на выделенные общие факторы.

Введение

           Наличие множества исходныхпризнаков, характеризующих процесс функционирования объектов, заставляетотбирать из них наиболее существенные и изучать меньший набор показателей. Чащеисходные признаки подвергаются некоторому преобразованию, которое обеспечиваетминимальную потерю информации. Такое решение может быть обеспечено методамиснижения размерности, куда относят факторный и компонентный анализ. Эти методыпозволяют учитывать эффект существенной многомерности данных, дают возможностьлаконичного или более простого объяснения многомерных структур. Они вскрываютобъективно существующие, непосредственно не наблюдаемые закономерности при помощиполученных факторов или главных компонент. Они дают возможность достаточнопросто и точно описать наблюдаемые исходные данные, структуру и характервзаимосвязей между ними. Сжатие информации получается за счет того, что числофакторов или главных компонент – новых единиц измерения – используетсязначительно меньше, чем было исходных признаков.

1. Исследование на мультиколлинеарностьобъясняющие пере­менные.

Приведемрезультаты по исследованию на мультиколлинеарность:

1)    Коэффициенты корреляционнойматрицы для объясняющих переменных не превышают 0,75, то есть тесная линейнаясвязь между компонентами не подозревается.

2)    Найдем определитель матрицы XTX, det(XTX)= 1.425E+6 — мал. Необходимоеусловие мультиколлинеарности (плохой обусловленности системы).

3)    В численных методахобусловленность системы характеризуется числом обусловленности М

 <img src="/cache/referats/11579/image005.gif" v:shapes="_x0000_i1028"><img src="/cache/referats/11579/image007.gif" v:shapes="_x0000_i1029">

Если число обусловленности велико, то система плохообусловлена (порядка выше 10).

      Собственные числа матрицы  <img src="/cache/referats/11579/image009.gif" v:shapes="_x0000_i1030"><img src="/cache/referats/11579/image011.gif" v:shapes="_x0000_i1031"><img src="/cache/referats/11579/image013.gif" v:shapes="_x0000_i1032"><img src="/cache/referats/11579/image015.gif" v:shapes="_x0000_i1033"><img src="/cache/referats/11579/image017.gif" v:shapes="_x0000_i1034">

 <img src="/cache/referats/11579/image019.gif" v:shapes="_x0000_i1035"> - велико<img src="/cache/referats/11579/image021.gif" v:shapes="_x0000_i1036"> система плохо обусловлена.

4)    Анализ корреляционнойматрицы <img src="/cache/referats/11579/image023.gif" v:shapes="_x0000_i1037"> позволяет лишь впервом приближении (и относительно поверхностно) судить об отсутствии мультиколлинеарностив наших исходных данных. Более внимательное изучение этого вопроса достигаетсяс помощью расчёта значений коэффициентов детерминации <img src="/cache/referats/11579/image025.gif" v:shapes="_x0000_i1038"> каждой из объясняющихпеременных на все остальные.

         <img src="/cache/referats/11579/image027.gif" v:shapes="_x0000_i1039">

Проверим с уровнем <img src="/cache/referats/11579/image029.gif" v:shapes="_x0000_i1040"> значимостьмножественных коэффициентов корреляции.

<img src="/cache/referats/11579/image031.gif" v:shapes="_x0000_i1041">

Строим статистику:

<img src="/cache/referats/11579/image033.gif" v:shapes="_x0000_i1042">

Если <img src="/cache/referats/11579/image035.gif" v:shapes="_x0000_i1043">

<img src="/cache/referats/11579/image037.gif" v:shapes="_x0000_i1044">

<img src="/cache/referats/11579/image039.gif" v:shapes="_x0000_i1045">

Т. к. все <img src="/cache/referats/11579/image041.gif" v:shapes="_x0000_i1046"> то отвергаем нулевуюгипотезу, т. е. будем считать, что все генеральные множественные коэффициентыкорреляции не равны нулю, т. е. значимы.

Для наибольшего значимого множественногокоэффициента корреляции получим оценку уравнения регрессии.

<img src="/cache/referats/11579/image043.gif" v:shapes="_x0000_i1047">

<img src="/cache/referats/11579/image045.gif" v:shapes="_x0000_i1048">

                                       (0,302)                  (0,524)                    (0,0003)                       (0,079)

С учётом значимых коэффициентов получим:

<img src="/cache/referats/11579/image047.gif" v:shapes="_x0000_i1049">

Выявилиналичие мультиколлениарности, одним из методов ее устранения является методглавных компонент.

2 Метод главных компонент

Компонентный анализ относится к многомерным методамснижения размерности. Он содержит один метод – метод главных компонент. Главныекомпоненты представляют собой ортогональную систему координат, в которойдисперсии компонент характеризуют их статистические свойства.

Учитывая, что объекты исследования в экономикехарактеризуются большим, но конечным количеством признаков, влияние которыхподвергается воздействию большого количества случайных причин.

2.1 Вычисление главныхкомпонент

       

        Первойглавной компонентой Z1 исследуемой системыпризнаков Х1, Х2, Х3, Х4 ,…, Хnназываетсятакая центрировано – нормированная линей­ная комбинация этих признаков, котораясреди прочих центрировано – нормированных линейных комбинаций этих признаков,имеет дисперсию наиболее изменчивую.

В качестве второйглавной компоненты Z2 мы будем брать такую цен­трировано– нормированную комбинацию этих признаков, которая:

1.     не коррелированна с первойглавной компонентой,

2.     среди всех возможныхкомбинаций исходных признаков, которые не

не коррелированны с  первой главной компонентой, эта комбинацияимеет наибольшую дисперсию.

K-ой  главной компонентойZk (k=1…m)мы будемназывать такую центрировано – нормированную комбинацию признаков, которая:

3.     не коррелированна с к-1предыдущими главными компонентами,

4.     среди всех возможныхкомбинаций исходных признаков, которые не

не коррелированны с к-1 предыдущимиглавными компонентами, эта комбинация имеет наибольшую дисперсию.

      Введёмортогональную матрицу U и перейдём от переменных Хк переменным Z, при­чём    <img src="/cache/referats/11579/image049.gif" v:shapes="_x0000_i1050">

      Вектор <img src="/cache/referats/11579/image051.gif" v:shapes="_x0000_i1051"> выбирается т. о.,чтобы дисперсия <img src="/cache/referats/11579/image053.gif" v:shapes="_x0000_i1052"> была максимальной. Послеполучения <img src="/cache/referats/11579/image055.gif" v:shapes="_x0000_i1053"> выбирается <img src="/cache/referats/11579/image057.gif" v:shapes="_x0000_i1054"> т. о., чтобы дисперсия<img src="/cache/referats/11579/image059.gif" v:shapes="_x0000_i1055"> была максимальной приусловии, что <img src="/cache/referats/11579/image059.gif" v:shapes="_x0000_i1056"> не корре­лированно с <img src="/cache/referats/11579/image053.gif" v:shapes="_x0000_i1057"> и т. д.

Так как признаки измерены внесопоставимых величинах, то удобнее будет перейти кцентрированно-нормированным величинам. Матрицу исходных  центрированно-нормированных значенийпризнаков найдем из соотношения:

<img src="/cache/referats/11579/image062.gif" v:shapes="_x0000_i1058">,

где <img src="/cache/referats/11579/image064.gif" v:shapes="_x0000_i1059">несмещенная, состоятельная и эффективная оценка математического ожидания,

  <img src="/cache/referats/11579/image066.gif" v:shapes="_x0000_i1060">

Матрица наблюденных значенийисходных признаков приведена в Приложении.

 Центрирование и нормирование произведено спомощью программы«Stadia».

        Таккак признаки центрированы и нормированы, то оценку корреляционной матрицы можнопроизвести по формуле:

<img src="/cache/referats/11579/image068.gif" v:shapes="_x0000_i1061">

<img src="/cache/referats/11579/image070.gif" v:shapes="_x0000_i1062">

<img src="/cache/referats/11579/image072.gif" v:shapes="_x0000_i1063">

     Перед тем как проводить компонентный анализ, проведем анализ незави­симостиисходных признаков.

         Проверказначимости матрицы парных корреляций с помощью кри­терия Уилкса.

Выдвигаем гипотезу:

     Н0: <img src="/cache/referats/11579/image074.gif" v:shapes="_x0000_i1064"> незначима

     Н1: <img src="/cache/referats/11579/image074.gif" v:shapes="_x0000_i1065"> значима

Строим статистику <img src="/cache/referats/11579/image076.gif" v:shapes="_x0000_i1066"><img src="/cache/referats/11579/image078.gif" v:shapes="_x0000_i1067"> с <img src="/cache/referats/11579/image080.gif" v:shapes="_x0000_i1068"> степенями свободы.

<img src="/cache/referats/11579/image082.gif" v:shapes="_x0000_i1069">     =125,7; <img src="/cache/referats/11579/image084.gif" v:shapes="_x0000_i1070">(0,05;3,3) = 7,8

т.к <img src="/cache/referats/11579/image082.gif" v:shapes="_x0000_i1071"><img src="/cache/referats/11579/image086.gif" v:shapes="_x0000_i1072">, то гипотеза Н0отвергается и матрица является значимой, следовательно, имеет смысл проводитькомпонентный анализ.

      Проверим гипотезу о диагональности  ковариационной матрицы

           Выдвигаем гипотезу:

     Н0:соv<img src="/cache/referats/11579/image088.gif" v:shapes="_x0000_i1073"><img src="/cache/referats/11579/image090.gif" v:shapes="_x0000_i1074">

     Н1:соv<img src="/cache/referats/11579/image092.gif" v:shapes="_x0000_i1075">

     Строим статистику <img src="/cache/referats/11579/image094.gif" v:shapes="_x0000_i1076"><img src="/cache/referats/11579/image078.gif" v:shapes="_x0000_i1077"> с <img src="/cache/referats/11579/image097.gif" v:shapes="_x0000_i1078"> степенями свободы.

<img src="/cache/referats/11579/image082.gif" v:shapes="_x0000_i1079"><img src="/cache/referats/11579/image084.gif" v:shapes="_x0000_i1080"><img src="/cache/referats/11579/image082.gif" v:shapes="_x0000_i1081"><img src="/cache/referats/11579/image086.gif" v:shapes="_x0000_i1082"> то гипотеза Н0отвергается и имеет смысл проводить компонентный анализ.

  

        Дляпостроения матрицы факторных нагрузок необходимо найти собственные числаматрицы <img src="/cache/referats/11579/image023.gif" v:shapes="_x0000_i1083"><img src="/cache/referats/11579/image103.gif" v:shapes="_x0000_i1084">

Используем для этой операциифункцию eigenvals системы MathCAD, которая возвращаетсобственные числа матрицы:

<img src="/cache/referats/11579/image105.gif" v:shapes="_x0000_i1085">

Т.к. исходные данныепредставляют собой выборку из генеральной сово­купности, то мы получили несобственные числа <img src="/cache/referats/11579/image107.gif" v:shapes="_x0000_i1086"> и собственные век­тораматрицы, а их оценки. Нас будет интересовать на сколько “хорошо” со статистическойточки зрения выборочные характеристики описывают соот­ветствующие параметры длягенеральной совокупности.

   Доверительный интервал для i-гособственного числа ищется по формуле:<img src="/cache/referats/11579/image109.gif" v:shapes="_x0000_i1087">

Доверительные интервалы длясобственных чисел в итоге принимают вид:

<img src="/cache/referats/11579/image111.gif" v:shapes="_x0000_i1088">

<img src="/cache/referats/11579/image113.gif" v:shapes="_x0000_i1089"><img src="/cache/referats/11579/image115.gif" v:shapes="_x0000_i1090">

Оценка значения несколькихсобственных чисел попадает в доверительный интервал других собственных чисел.Необходимо проверить гипотезу о кратности собственных чисел.

Проверка кратностипроизводится  с помощью статистики

<img src="/cache/referats/11579/image117.gif" v:shapes="_x0000_i1091"> , где r-количествократных корней.

Данная статистика в случае справедливости<img src="/cache/referats/11579/image119.gif" v:shapes="_x0000_i1092"><img src="/cache/referats/11579/image121.gif" v:shapes="_x0000_i1093"> с числом степенейсвободы <img src="/cache/referats/11579/image123.gif" v:shapes="_x0000_i1094"><img src="/cache/referats/11579/image125.gif" v:shapes="_x0000_i1095"><img src="/cache/referats/11579/image111.gif" v:shapes="_x0000_i1096">

                      

<img src="/cache/referats/11579/image127.gif" v:shapes="_x0000_i1097">

Так как <img src="/cache/referats/11579/image129.gif" v:shapes="_x0000_i1098"><img src="/cache/referats/11579/image119.gif" v:shapes="_x0000_i1099"> отвергается, то естьсобственные числа <img src="/cache/referats/11579/image131.gif" v:shapes="_x0000_i1100"> и <img src="/cache/referats/11579/image133.gif" v:shapes="_x0000_i1101"> не кратны.

Далее,

:<img src="/cache/referats/11579/image135.gif" v:shapes="_x0000_i1102"><img src="/cache/referats/11579/image111.gif" v:shapes="_x0000_i1103">

                      

<img src="/cache/referats/11579/image137.gif" v:shapes="_x0000_i1104">

Так как <img src="/cache/referats/11579/image129.gif" v:shapes="_x0000_i1105"><img src="/cache/referats/11579/image119.gif" v:shapes="_x0000_i1106"> отвергается, то естьсобственные числа <img src="/cache/referats/11579/image139.gif" v:shapes="_x0000_i1107"> и <img src="/cache/referats/11579/image133.gif" v:shapes="_x0000_i1108"> не кратны.

:<img src="/cache/referats/11579/image141.gif" v:shapes="_x0000_i1109"><img src="/cache/referats/11579/image111.gif" v:shapes="_x0000_i1110">

                      

<img src="/cache/referats/11579/image143.gif" v:shapes="_x0000_i1111">

Так как <img src="/cache/referats/11579/image145.gif" v:shapes="_x0000_i1112"><img src="/cache/referats/11579/image119.gif" v:shapes="_x0000_i1113"> отвергается, то естьсобственные числа <img src="/cache/referats/11579/image139.gif" v:shapes="_x0000_i1114"> и <img src="/cache/referats/11579/image148.gif" v:shapes="_x0000_i1115"> не кратны.

     

       Необходимовыделить главные компоненты на уровне информативно­сти 0,85. Мера информативностипоказывает какую часть или какую долю дисперсии исходных признаков составляют k-первых главных компонент. Мерой информативности будемназывать величину: <img src="/cache/referats/11579/image150.gif" v:shapes="_x0000_i1116">

I1=<img src="/cache/referats/11579/image152.gif" v:shapes="_x0000_i1117">=0,458

I2=<img src="/cache/referats/11579/image154.gif" v:shapes="_x0000_i1118">

I3=<img src="/cache/referats/11579/image156.gif" v:shapes="_x0000_i1119">

 На заданном уровне информативностивыделено три главных компоненты.

                                       

        Запишем матрицу <img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1120"><img src="/cache/referats/11579/image160.gif" v:shapes="_x0000_i1121">

Для получения нормализованноговектора перехода от исходных признаков к главным компонентам необходимо решитьсистему уравнений: <img src="/cache/referats/11579/image162.gif" v:shapes="_x0000_i1122"><img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1123">

        Длярешения данной задачи воспользуемся функцией eigenvec системы MathCAD,которая возвращает нормированный вектор для соответствующего собственного числа.

Внашем случае первых четырех главных компонент достаточно для достижения заданногоуровня информативности, поэтому матрица U (матрица перехода отисходного базиса к базису из собственных векторов)

Строимматрицу U, столбцамикоторой являются собственные вектора:

U=<img src="/cache/referats/11579/image164.gif" v:shapes="_x0000_i1124">

Матрица весовых коэффициентов:

<img src="/cache/referats/11579/image166.gif" v:shapes="_x0000_i1125">

<img src="/cache/referats/11579/image168.gif" v:shapes="_x0000_i1126">

А=<img src="/cache/referats/11579/image170.gif" v:shapes="_x0000_i1127">

Коэффициенты матрицы А являются коэффициентамикорреляции ме­жду центрировано – нормированными исходными признаками  и ненормиро­ванными главными компонентами, и <img src="/cache/referats/11579/image021.gif" v:shapes="_x0000_i1128"> показывают наличие, силу инаправле­ние линейной связи между соответствующими исходными призна­ками исоответствующими главными компонентами.

2.2 Экономическаяинтерпретация полученных главных компонент

Коэффициент <img src="/cache/referats/11579/image172.gif" v:shapes="_x0000_i1129"> матрицы А представляютсобой коэффициенты корреляции между i-ой главной компонентойи  j-ым исходным признаком.

Так как первая главная компонента зависит главнымобразом от первого (X5 – удельный вес рабочих в составе ППП) и третьего (X7 – коэффициент сменностиоборудования) исходного признака, следовательно ее можно обозначить как«Эффективность основного производства». Вторая главная компонента тесновзаимосвязана со вторым (X6 – удельный вес покупных изделий)и четвертым (X9 – удельный вес потерь от брака) исходными признаками,ее можно обозначить как «Удельный вес затрат не приносящих прибыль». Третьяглавная компонента взаимосвязана с четвертым исходным признаком, поэтому ееобозначим «Удельный вес потерь от брака».

2.3 Матрица наблюденныхзначений главных компонент.

      Мы получили ненормированные главныекомпоненты. Проведя нормирование полу­ченных центрированных <img src="/cache/referats/11579/image174.gif" v:shapes="_x0000_i1130"><img src="/cache/referats/11579/image176.gif" v:shapes="_x0000_i1131"><img src="/cache/referats/11579/image174.gif" v:shapes="_x0000_i1132"> дисперсия должна рав­няться1, <img src="/cache/referats/11579/image178.gif" v:shapes="_x0000_i1133"><img src="/cache/referats/11579/image174.gif" v:shapes="_x0000_i1134"> насреднеквадратическое отклонение <img src="/cache/referats/11579/image180.gif" v:shapes="_x0000_i1135">

<img src="/cache/referats/11579/image182.gif" v:shapes="_x0000_i1136">

     Обозначим  <img src="/cache/referats/11579/image184.gif" v:shapes="_x0000_i1137"> - это матрица весовыхкоэффициентов, с помощью которой уста­навливается связь между нормированнымиисходными признаками и нормирован­ными главными компонентами.

 Модель методаглавных компонент:

<img src="/cache/referats/11579/image186.gif" v:shapes="_x0000_i1138"> где

<img src="/cache/referats/11579/image188.gif" v:shapes="_x0000_i1139">I-той стандартизированнойпеременной по j-ому объекту наблюдения;

<img src="/cache/referats/11579/image190.gif" v:shapes="_x0000_i1140">m-тая главная компонента по j-ому объекту наблюдения;

<img src="/cache/referats/11579/image192.gif" v:shapes="_x0000_i1141">m-той главной компоненты и I-той переменной.

Эту матрицу будем строить, исходя из соотношения <img src="/cache/referats/11579/image194.gif" v:shapes="_x0000_i1142">

где <img src="/cache/referats/11579/image196.gif" v:shapes="_x0000_i1143">

<img src="/cache/referats/11579/image198.gif" v:shapes="_x0000_i1144"> — транспонированнаяматрица факторных нагрузок;

     Х-матрица наблюденных значений исходных признаков.

Данная формула хороша тем, что она верна и в томслучае, если матрица

Ане квадратная (т.е. выделено m<n главных компонент).

«Наблюденные» значения главных компонент приведены вПриложениях. 

2.4 Классификация объектов.

Проведем классификацию объектов по первымдвум главным компонентам.

<img src="/cache/referats/11579/image200.gif" v:shapes="_x0000_i1145">

Рис.1: Объекты впространстве главных компонент.

На рис.1 видно, что первая группа характеризуетсяположительными значениями первой главной компоненты, а вторая группахарактеризуется отрицательными значениями первой главной компоненты. При этомзначения второй главной компоненты схожи у обеих групп.

2.5 Уравнение регрессии наглавные компоненты.

              Построим уравнение регрессии навыделенные главные компоненты методом пошаговой регрессии, которыйпредполагает, что на каждом шаге мы будем включать в уравнение регрессии тотпризнак, который будет вызывать наибольшее приращение коэффициентадетерминации.

 Процесс будет остановлен, когда величина <img src="/cache/referats/11579/image202.gif" v:shapes="_x0000_i1146"> достигнет своегомаксимума.

Витоге уравнение регрессии примет вид:

<img src="/cache/referats/11579/image204.gif" v:shapes="_x0000_i1147">

Подробныйанализ, выполненный с помощью программы “Stadia”, приведен в Приложениях.

3.Метод главныхфакторов

      Мы ставим перед собой задачу сниженияразмерности признакового пространства. С самого начала будем исходить из того,что мы n признаков попытаемся объяснить с помощью меньшегоколичества m-ла­тентных признаков  — общих факторов, где m<<n, а различиямежду исход­ными признаками и введёнными общими факторами, точнее их линейнымикомбинациями учтём с помощью так называемых характерных факторов. 

      Конечнаяцель статистического исследования, проводимого с привлече­нием аппаратафакторного анализа, как правило, состоит в выявлении и интерпретации латентныхобщих факторов с одновременным стремлением ми­нимизировать как их число, так истепень зависимости <img src="/cache/referats/11579/image206.gif" v:shapes="_x0000_i1148"> от своих специфиче­скихостаточных случайных компонент <img src="/cache/referats/11579/image208.gif" v:shapes="_x0000_i1149">

      Итак, внашем распоряжении последовательность многомерных наблюде­ний Х.

<img src="/cache/referats/11579/image210.gif" v:shapes="_x0000_i1150"> 

Предполагаем, что каждыйпризнак <img src="/cache/referats/11579/image206.gif" v:shapes="_x0000_i1151"> является результатомвоздейст­вия m гипотетических общих и одного характерного факторов:

<img src="/cache/referats/11579/image213.gif" v:shapes="_x0000_i1152">

<img src="/cache/referats/11579/image215.gif" v:shapes="_x0000_i1153"> — весовые коэффициенты;

<img src="/cache/referats/11579/image217.gif" v:shapes="_x0000_i1154"> — общие факторы,которые подлежат определению;

<img src="/cache/referats/11579/image208.gif" v:shapes="_x0000_i1155">  — характерный фактордля i-ого исходного признака;

<img src="/cache/referats/11579/image220.gif" v:shapes="_x0000_i1156"> — весовой коэффициентпри i-ом характерном факторе.

     Представим выражение (1) в матричной форме.

     Введём обозначения:

<img src="/cache/referats/11579/image222.gif" v:shapes="_x0000_i1157">   <img src="/cache/referats/11579/image224.gif" v:shapes="_x0000_i1158">

Сумма матриц даёт:

<img src="/cache/referats/11579/image226.gif" v:shapes="_x0000_i1159">

     Представим матрицы индивидуальных значений общих и характерныхфак­торов. Иногда для удобства их представляют в одной матрице:

<img src="/cache/referats/11579/image228.gif" v:shapes="_x0000_i1160">

     Модель (1) можно записать в матричной форме: <img src="/cache/referats/11579/image230.gif" v:shapes="_x0000_i1161"><img src="/cache/referats/11579/image072.gif" v:shapes="_x0000_i1162">

3.1 Преобразование матрицыпарных коэффициентов корреляции  в   редуцированную матрицу.

Запишем корреляционную матрицу:

<img src="/cache/referats/11579/image070.gif" v:shapes="_x0000_i1163">

        

           Следующим шагом будет – построениередуцированной матрицы кор­реляции с общностями на главной диагонали. Общностьпоказывает какую часть, какую долю составляет относительно дисперсии каждого изm общих факторов в дисперсии I — го исходного признака. Существуют следующие методынахождения общности:

a)     наибольшего элемента метод по строке

Суть метода заключается в том, что в строке матрицы <img src="/cache/referats/11579/image023.gif" v:shapes="_x0000_i1164">

<img src="/cache/referats/11579/image233.gif" v:shapes="_x0000_i1165">

    h<img src="/cache/referats/11579/image235.gif" v:shapes="_x0000_i1166">  h<img src="/cache/referats/11579/image237.gif" v:shapes="_x0000_i1167">  h<img src="/cache/referats/11579/image239.gif" v:shapes="_x0000_i1168">    h<img src="/cache/referats/11579/image241.gif" v:shapes="_x0000_i1169">  h<img src="/cache/referats/11579/image243.gif" v:shapes="_x0000_i1170">

b)    

         <img src="/cache/referats/11579/image245.gif" v:shapes="_x0000_i1171">

    h<img src="/cache/referats/11579/image235.gif" v:shapes="_x0000_i1172">  h<img src="/cache/referats/11579/image237.gif" v:shapes="_x0000_i1173">  h<img src="/cache/referats/11579/image239.gif" v:shapes="_x0000_i1174">    h<img src="/cache/referats/11579/image241.gif" v:shapes="_x0000_i1175">   h<img src="/cache/referats/11579/image243.gif" v:shapes="_x0000_i1176">                   

      с)  метод триад

В j – омстолбце  или строке отыскивают дванаибольших значения ко­эффициентов корреляции <img src="/cache/referats/11579/image247.gif" v:shapes="_x0000_i1177"> и <img src="/cache/referats/11579/image249.gif" v:shapes="_x0000_i1178">

<img src="/cache/referats/11579/image251.gif" v:shapes="_x0000_i1179">

        h<img src="/cache/referats/11579/image235.gif" v:shapes="_x0000_i1180"><img src="/cache/referats/11579/image237.gif" v:shapes="_x0000_i1181">  h<img src="/cache/referats/11579/image239.gif" v:shapes="_x0000_i1182">   h<img src="/cache/referats/11579/image241.gif" v:shapes="_x0000_i1183">   h<img src="/cache/referats/11579/image253.gif" v:shapes="_x0000_i1184">

d) метод первого центроидногофактора

<img src="/cache/referats/11579/image255.gif" v:shapes="_x0000_i1185">

       h<img src="/cache/referats/11579/image235.gif" v:shapes="_x0000_i1186">   h<img src="/cache/referats/11579/image237.gif" v:shapes="_x0000_i1187">   h<img src="/cache/referats/11579/image239.gif" v:shapes="_x0000_i1188">   h<img src="/cache/referats/11579/image241.gif" v:shapes="_x0000_i1189">  h<img src="/cache/referats/11579/image243.gif" v:shapes="_x0000_i1190">

       Запишем матрицу <img src="/cache/referats/11579/image257.gif" v:shapes="_x0000_i1191">

              h<img src="/cache/referats/11579/image235.gif" v:shapes="_x0000_i1192">  h<img src="/cache/referats/11579/image237.gif" v:shapes="_x0000_i1193">  h<img src="/cache/referats/11579/image239.gif" v:shapes="_x0000_i1194">    h<img src="/cache/referats/11579/image241.gif" v:shapes="_x0000_i1195">   h<img src="/cache/referats/11579/image243.gif" v:shapes="_x0000_i1196">  

       Построим матрицу Rh – редуцированную корреляционная матрица.

<img src="/cache/referats/11579/image259.gif" v:shapes="_x0000_i1197">

         Для получения первого вектора коэффициентов первогоглавного фактора необходимо найти наибольшее собственное число матрицы <img src="/cache/referats/11579/image261.gif" v:shapes="_x0000_i1198"> и по нему построитьсоответствующий собственный вектор, затем нормировать его и умножить всекомпоненты этого вектора на <img src="/cache/referats/11579/image263.gif" v:shapes="_x0000_i1199"> ( для того, чтобыдлина этого вектора была <img src="/cache/referats/11579/image263.gif" v:shapes="_x0000_i1200"><img src="/cache/referats/11579/image265.gif" v:shapes="_x0000_i1201"><img src="/cache/referats/11579/image267.gif" v:shapes="_x0000_i1202"><img src="/cache/referats/11579/image269.gif" v:shapes="_x0000_i1203"><img src="/cache/referats/11579/image271.gif" v:shapes="_x0000_i1204"><img src="/cache/referats/11579/image271.gif" v:shapes="_x0000_i1205"> и <img src="/cache/referats/11579/image261.gif" v:shapes="_x0000_i1206"> совпадают, начиная совторого, а это означает, что достаточно найти собственные числа матрицы <img src="/cache/referats/11579/image261.gif" v:shapes="_x0000_i1207"><img src="/cache/referats/11579/image111.gif" v:shapes="_x0000_i1208">

       Получим следующие собственные числа:

<img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1209">1=1.658  <img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1210">2=0.21  <img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1211">3=0.069  <img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1212">4=-0.105  <img src="/cache/referats/11579/image274.gif" v:shapes="_x0000_i1213">=-0.542

       Процесс выделения главных факторов прекращают кактолько сумма собственных чисел соответствующих выделенным главным факторам превысятслед матрицы Rh.  Внашем случае при выделении первых трех главных факторов <img src="/cache/referats/11579/image276.gif" v:shapes="_x0000_i1214"><img src="/cache/referats/11579/image278.gif" v:shapes="_x0000_i1215">

         Положительное, максимальное собственное число <img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1216">1=1,568, построим собственный вектор соответствующийданному

     собственному числу: <img src="/cache/referats/11579/image280.gif" v:shapes="_x0000_i1217">=<img src="/cache/referats/11579/image282.gif" v:shapes="_x0000_i1218"><img src="/cache/referats/11579/image284.gif" v:shapes="_x0000_i1219"><img src="/cache/referats/11579/image286.gif" v:shapes="_x0000_i1220">

Найдем:  <img src="/cache/referats/11579/image288.gif" v:shapes="_x0000_i1221"><img src="/cache/referats/11579/image290.gif" v:shapes="_x0000_i1222">1=<img src="/cache/referats/11579/image292.gif" v:shapes="_x0000_i1223">

      Рассмотримвторое положительное максимальное собственное число и третье, а также соответственные собственныесобственные вектора                                    <img src="/cache/referats/11579/image290.gif" v:shapes="_x0000_i1224">2=<img src="/cache/referats/11579/image295.gif" v:shapes="_x0000_i1225"><img src="/cache/referats/11579/image158.gif" v:shapes="_x0000_i1226">2=0,21

<img src="/cache/referats/11579/image290.gif" v:shapes="_x0000_i1227">3=<img src="/cache/referats/11579/image297.gif" v:shapes="_x0000_i1228"><img src="/cache/referats/11579/image299.gif" v:shapes="_x0000_i1229">=0,069

Матрицафакторного отображения:

<img src="/cache/referats/11579/image301.gif" v:shapes="_x0000_i1230">

Произведем экономическую интерпретацию полученныхобщих факторов на основании матрицы факторных нагрузок А.

Первый главный фактор имеет тесную взаимосвязь с первым (X5 – удельный весрабочих в составе ППП) и третьего (X7 – коэффициент сменности оборудования) исходногопризнака, следовательно его можно обозначить как «Эффективность основного производства».Второй общий фактор наиболее тесную взаимосвязь имеет со вторым исходнымпризнаком, обозначим его как «Удельный вес покупных изделий». Третий главный факторимеет очень низкую взаимосвязь со всеми исходными признаками 

       

3.2Графическая классификация предприятий по двум общим факторам

      Чтобы графически произвести классификациюобъектов, необходимо найти наблюденные значения первых двух общих факторов. Этоможно сделать по формуле: <img src="/cache/referats/11579/image303.gif" v:shapes="_x0000_i1231">

         <img src="/cache/referats/11579/image305.gif" v:shapes="_x0000_i1232"> — транспонированнаяматрица факторных нагрузок;

  <img src="/cache/referats/11579/image307.gif" v:shapes="_x0000_i1233"> — диагональная матрица,на главной диагонали которой стоят харак     терности соответствующих общих факторов;

<img src="/cache/referats/11579/image309.gif" v:shapes="_x0000_i1234"> — матрицацентрированно-нормированных  значенийисходных признаков.

Матрицанаблюденных значений общих факторов приведена в Приложениях.

Отобразимобъекты наблюдения в пространстве первых двух общих факторов.

<img src="/cache/referats/11579/image311.gif" v:shapes="_x0000_i1235">

3.3 Переход к обобщеннымфакторам с помощью варимаксного вращения

         Вфакторном анализе при решении практических задач широко применяется ортогональноевращение. Конечной целью факторного анализа является получение содержательноинтерпретируемых факторов, которые воспроизводили бы выборочную корреляционнуюматрицу между переменными. Например, в методе главных факторов это достигаетсяпутем вращения.

Поскольку из множества положений системы координатнадо выбрать одну, нужен критерий, который давал бы возможность судить о том,что мы близко подошли к своей цели. Таких критериев предложено много.Остановимся на наиболее часто используемом методе варимаксного вращения. МетодВаримакс рассчитывает Vj критерий качества структурыкаждого фактора:

<img src="/cache/referats/11579/image313.gif" v:shapes="_x0000_i1236">

       При помощи метода «варимакс» достигаютмаксимального упрощения в описании столбцов матрицы факторного отображения.Возможно раздельноеулучшение структуры факторов. Наилучшим  будет максимальное значение критерия. Еслипосле очередного вращения Vjрастет – переходим к вращению. Рассчитаем Vj для имеющейсяматрицы А:V1=0.307,V2=0.168

<img src="/cache/referats/11579/image315.gif" v:shapes="_x0000_i1237">

Рис.3: Классификация признаков.

  

   Наша цель нетолько снизить размерность признакового пространства, но и предать выделеннымфакторам  какой-то экономический смысл.Мы можем перейти с помощью вращения  отфакторов f1 и f2  к факторам f1<img src="/cache/referats/11579/image317.gif" v:shapes="_x0000_i1238"> и f2<img src="/cache/referats/11579/image317.gif" v:shapes="_x0000_i1239"> с помощью соотношения В=Т*А. Исходя из геометрических соображений, повернем систему координатпо часовой стрелки на угол равный 15<img src="/cache/referats/11579/image320.gif" v:shapes="_x0000_i1240">

Т=<img src="/cache/referats/11579/image322.gif" v:shapes="_x0000_i1241">

Известно, что sin15<img src="/cache/referats/11579/image320.gif" v:shapes="_x0000_i1242">cos15<img src="/cache/referats/11579/image320.gif" v:shapes="_x0000_i1243">

<img src="/cache/referats/11579/image324.gif" v:shapes="_x0000_i1244">*<img src="/cache/referats/11579/image326.gif" v:shapes="_x0000_i1245"><img src="/cache/referats/11579/image328.gif" v:shapes="_x0000_i1246">

Рассчитаем Vj для матрицы В, полученнойпосле вращения: V1=0,240,Vj=0,156. Значение Vj не возросло ни по одному из факторов.

Попытки производить вращенияна другие углы не приводят к возрастанию значения  Vj следовательно нетнеобходимости во вращении.

3.4 Построение функциирегрессии на выделенные обобщенные факторы

  Используяданные о «наблюденных» значениях общих факторов, построим функциюрегрессии  на выделенные обобщенныефакторы с помощью программы «Stadia».Получим уравнениерегрессии следующего вида для i-го объекта наблюдения:

<img src="/cache/referats/11579/image330.gif" v:shapes="_x0000_i1247">

  Подробноеописание уравнения регрессии дано в Приложениях


Список использованных источников

1Дубров А.М., Мхитарян В.С., Трошин Л.И. Многомерные статистические методы:Учебник. – М.: Финансы и статистика,1998.- 352с.

2Сошникова Л.А., Тамашевич В.Н., Уебе Г., Шефер М. Многомерный статистическийанализ в экономике: Учебное пособие для вузов- М.: ЮНИТИ-ДАНА, 1999.-598 с.


Приложение 1Наблюденные значения исходных признаков

            Y1

X5

X6

X7

X9

X17

9,26

0,78

0,4

1,37

0,23

17,72

9,38

0,75

0,26

1,49

0,39

18,39

12,11

0,68

0,4

1,44

0,43

26,46

10,81

0,7

0,5

1,42

0,18

22,37

9,35

0,62

0,4

1,35

еще рефераты
Еще работы по разное