Реферат: Компонентный и факторный анализ

Министерство  образования  Российской Федерации

ОРЕНБУРГСКИЙ   ГОСУДАРСТВЕННЫЙ  УНИВЕРСИТЕТ

Финансово-экономический факультет

Кафедра  МММЭКУРСОВАЯ РАБОТА

по дисциплине «Многомерные статистическиеметоды»

Компонентный и факторный анализ

 

ОГУ  061700.5001.06 00                                      Руководитель работы__________________   Реннер А.Г.

                                              “____”_____________2001г.

                       Исполнитель

                           студент гр.99ст

                                                                         ______________ Рамазанов М.И.

                                                 “_____”____________2001г.

Оренбург 2001

Содержание

Задание……………………………………………………………………………3

Введение……………………………………………………………………….….4

1 Исследование на мультиколлинеарность……………………………..……5                                                

2 Метод главных компонент………………………………………………..….7

    2.1 Вычисление главныхкомпонент……………………………………….…7

    2.2 Экономическая интерпретация полученных главныхкомпонент…..…12

    2.3 Матрица наблюденныхзначений главных компонент……………...….12

    2.4 Классификацияобъектов…………………………………………………13

    2.5 Уравнение регрессиина главные компоненты………………………….13

3 Факторный анализ………………………………...…………………………15 

    3.1Преобразование матрицы парных коэффициентов корреляции  в   редуцированнуюматрицу, получение матрицы факторных нагрузок и экономическая интерпретация………………………………………………..…...16

    3.2 Графическая классификацияобъектов по двум общим факторам…….19

    3.3 Переход к обобщеннымфакторам с помощью варимаксного

     вращения……………………………………………………………………...19

    3.4 Построение функциирегрессии на выделенные общие факторы…......21

Список использованнойлитературы………………………………………...22

Приложения………………………………………………………..………...…23

    

 

 

 

 

 

Задание

 По имеющимся даннымпроизводственно-хозяйственной деятельности предприятий машиностроения:

Y1 –производительность труда;

X5 –удельный вес рабочих в составе ППП;

X6 –удельный вес покупных изделий;

X7 –коэффициент покупных изделий;

X9 –удельный вес потерь от брака;

X17 –непроизводственные расходы.

1. Выявить наличиемультиколлинеарности.

2. Снизить размерностьпризнакового пространства и удалить наличие мультиколлинеарности следующимиметодами:

Метод главных компонент:

-    для факторных признаков найтиоценку матрицы парных коэффициентов корреляции, найти собственные числа исобственные вектора;

-     на основании матрицы собственных чиселопределить вклад главных компонент в суммарную дисперсию признаков, отобрать иуказать m (m<n) первых главных компонент, обеспечивающих уровеньинформативности 0.85;

-     построить матрицу факторных нагрузок A идать экономическую интерпретацию;

-     по матрице наблюденных значений главныхкомпонент F провести классификацию объектов по первым двумглавным компонентам, дать интерпретацию;

-     используя вектор значений результативногопризнака Y и матрицу F построить уравнение регрессии.

Методобщих факторов:

-    оценить матрицу парных коэффициентов/>;

-     преобразовать матрицу /> в редуцированную матрицу />h;

-     получить первые три общих фактора и датьэкономическую интерпретацию по матрице факторных нагрузок;

-     на основе матрицы Fпровести графически классификацию объектов по первым двум общим факторам;

-     построить функцию регрессии на выделенныеобщие факторы.

Введение

          Наличие множества исходных признаков, характеризующих процесс функционированияобъектов, заставляет отбирать из них наиболее существенные и изучать меньшийнабор показателей. Чаще исходные признаки подвергаются некоторому преобразованию,которое обеспечивает минимальную потерю информации. Такое решение может бытьобеспечено методами снижения размерности, куда относят факторный и компонентныйанализ. Эти методы позволяют учитывать эффект существенной многомерностиданных, дают возможность лаконичного или более простого объяснения многомерныхструктур. Они вскрывают объективно существующие, непосредственно не наблюдаемыезакономерности при помощи полученных факторов или главных компонент. Они даютвозможность достаточно просто и точно описать наблюдаемые исходные данные,структуру и характер взаимосвязей между ними. Сжатие информации получается засчет того, что число факторов или главных компонент – новых единиц измерения –используется значительно меньше, чем было исходных признаков.


1.Исследование на мультиколлинеарность объясняющие пере­менные.

Приведем результаты по исследованию намультиколлинеарность:

1)  Коэффициенты корреляционнойматрицы для объясняющих переменных не превышают 0,75, то есть тесная линейнаясвязь между компонентами не подозревается.

2)  Найдем определитель матрицы XTX, det(XTX)= 1.425E+6 — мал. Необходимое условие мультиколлинеарности(плохой обусловленности системы).

3)  В численных методахобусловленность системы характеризуется числом обусловленности М

 />, где /> — собственные числа матрицысистемы линейных уравнений.

Есличисло обусловленности велико, то система плохо обусловлена (порядка выше 10).

      Собственные числаматрицы  />=2.292, />=1.042, />=0.952, />=0.659, />=0.055.

 /> -велико/> система плохо обусловлена.

4)  Анализ корреляционной матрицы /> позволяет лишь в первомприближении (и относительно поверхностно) судить об отсутствии мультиколлинеарностив наших исходных данных. Более внимательное изучение этого вопроса достигаетсяс помощью расчёта значений коэффициентов детерминации /> каждой из объясняющихпеременных на все остальные.

         />

Проверимс уровнем /> значимость множественных коэффициентовкорреляции.

/>

Строимстатистику:

/>

Если/>

/>

/>

Т.к. все /> то отвергаем нулевуюгипотезу, т. е. будем считать, что все генеральные множественные коэффициентыкорреляции не равны нулю, т. е. значимы.

Длянаибольшего значимого множественного коэффициента корреляции получим оценкууравнения регрессии.

/>

/>

                                      (0,302)                 (0,524)                    (0,0003)                       (0,079)

Сучётом значимых коэффициентов получим:

/>

Выявили наличие мультиколлениарности,одним из методов ее устранения является метод главных компонент.

2 Метод главных компонент

Компонентныйанализ относится к многомерным методам снижения размерности. Он содержит одинметод – метод главных компонент. Главные компоненты представляют собойортогональную систему координат, в которой дисперсии компонент характеризуют ихстатистические свойства.

Учитывая, что объекты исследования в экономикехарактеризуются большим, но конечным количеством признаков, влияние которыхподвергается воздействию большого количества случайных причин.

2.1 Вычисление главных компонент

       

       Первой главной компонентой Z1 исследуемой системы признаков Х1, Х2,Х3, Х4 ,…, Хn<sub/>называется такаяцентрировано – нормированная линей­ная комбинация этих признаков, которая средипрочих центрировано – нормированных линейных комбинаций этих признаков, имеетдисперсию наиболее изменчивую.

В качестве второй главной компоненты Z2 мы будем брать такуюцен­трировано – нормированную комбинацию этих признаков, которая:

1.  не коррелированна с первой главнойкомпонентой,

2.  среди всех возможных комбинацийисходных признаков, которые не

не коррелированны с  первой главной компонентой, этакомбинация имеет наибольшую дисперсию.

K-ой  главнойкомпонентой Zk(k=1…m)мы будем называть такую центрировано– нормированную комбинацию признаков, которая:

3.  не коррелированна с к-1предыдущими главными компонентами,

4.  среди всех возможных комбинацийисходных признаков, которые не

не коррелированны с к-1 предыдущими главнымикомпонентами, эта комбинация имеет наибольшую дисперсию.

     Введём ортогональную матрицу U и перейдём отпеременных Х к переменным Z, при­чём   />

     Вектор /> выбирается т. о., чтобы дисперсия /> была максимальной. Послеполучения /> выбирается /> т. о., чтобы дисперсия /> была максимальной приусловии, что /> не корре­лированно с /> и т. д.

Так как признаки измерены в несопоставимых величинах,то удобнее будет перейти к центрированно-нормированным величинам. Матрицу исходных центрированно-нормированных значений признаков найдем из соотношения:

/>,

где />-несмещенная, состоятельная и эффективная оценка математическогоожидания,

  />-несмещенная,состоятельная и эффективная оценка дисперсии.

Матрица наблюденных значений исходных признаковприведена в Приложении.

 Центрирование и нормирование произведено с помощьюпрограммы«Stadia».

       Так как признаки центрированы и нормированы, то оценку корреляционнойматрицы можно произвести по формуле:

/>

/>

/>.

     Перед тем как проводить компонентный анализ,проведем анализ незави­симости исходных признаков.

         Проверка значимости матрицы парныхкорреляций с помощью кри­терия Уилкса.

Выдвигаем гипотезу:

     Н0: /> незначима

     Н1: /> значима

Строим статистику />,распределена по закону /> с /> степенями свободы.

/>     =125,7; />(0,05;3,3)= 7,8

т.к/>>/>, то гипотеза Н0отвергается и матрицаявляется значимой, следовательно, имеет смысл проводить компонентный анализ.

      Проверим гипотезуо диагональности  ковариационной матрицы

           Выдвигаемгипотезу:

     Н0: соv/>=0, />

     Н1: соv/>

     Строим статистику />, распределена по закону /> с /> степенями свободы.

/>=123,21, />(0,05;10)=18,307 т.к />>/> то гипотеза Н0отвергается и имеет смыслпроводить компонентный анализ.

  

        Для построения матрицы факторных нагрузок необходимонайти собственные числа матрицы />,решив уравнение/>.

Используем для этой операции функцию eigenvals системы MathCAD, которая возвращает собственные числа матрицы:

/>

Т.к.исходные данные представляют собой выборку из генеральной сово­купности, то мыполучили не собственные числа /> исобственные век­тора матрицы, а их оценки. Нас будет интересовать на сколько“хорошо” со статистической точки зрения выборочные характеристики описываютсоот­ветствующие параметры для генеральной совокупности.

   Доверительный интервал для i-гособственного числа ищется по формуле:/>

Доверительные интервалы для собственных чисел в итогепринимают вид:

/>

/>/>

Оценка значения нескольких собственных чисел попадаетв доверительный интервал других собственных чисел. Необходимо проверить гипотезуо кратности собственных чисел.

Проверка кратности производится  с помощью статистики

/> , где r-количество кратных корней.

Данная статистика в случае справедливости />распределена по закону /> с числом степеней свободы />. Выдвинем гипотезы:/>/>

                      

/>

Так как />, тогипотеза /> отвергается, то естьсобственные числа /> и /> не кратны.

Далее,

:/>/>

                      

/>

Так как />, тогипотеза /> отвергается, то естьсобственные числа /> и /> не кратны.

:/>/>

                      

/>

Так как />, тогипотеза /> отвергается, то естьсобственные числа /> и /> не кратны.

     

      Необходимо выделить главные компонентына уровне информативно­сти 0,85. Мера информативности показываеткакую часть или какую долю дисперсии исходных признаков составляют k-первыхглавных компонент. Мерой информативности будем называть величину: />

I1=/>=0,458

I2=/>=0,667

I3=/>

 На заданном уровне информативностивыделено три главных компоненты.

                                       

        Запишем матрицу />=/>

Для получения нормализованного вектора перехода отисходных признаков к главным компонентам необходимо решить систему уравнений: />, где /> — соответствующеесобственное число. После получения решения системы необходимо затем нормироватьполученный вектор.

       Для решения данной задачи воспользуемся функцией eigenvec системыMathCAD, которая возвращает нормированный вектор для соответствующегособственного числа.

В нашем случае первых четырехглавных компонент достаточно для достижения заданного уровня информативности,поэтому матрица U (матрица перехода от исходного базиса к базису изсобственных векторов)

Строим матрицу U, столбцами которой являютсясобственные вектора:

U=/>.

Матрицавесовых коэффициентов:

/>

/>

А=/>.

Коэффициенты матрицы А являются коэффициентамикорреляции ме­жду центрировано – нормированными исходными признаками  иненормиро­ванными главными компонентами, и /> показываютналичие, силу и направле­ние линейной связи между соответствующими исходнымипризна­ками и соответствующими главными компонентами.

2.2 Экономическая интерпретация полученных главныхкомпонент

Коэффициент/> матрицы А представляютсобой коэффициенты корреляции между i-ой главной компонентой и  j-ымисходным признаком.

Таккак первая главная компонента зависит главным образом от первого (X5 – удельный вес рабочих в составе ППП) и третьего (X7 – коэффициент сменности оборудования) исходногопризнака, следовательно ее можно обозначить как «Эффективность основногопроизводства». Вторая главная компонента тесно взаимосвязана со вторым (X6 – удельный вес покупных изделий) и четвертым (X9 – удельный вес потерь от брака) исходными признаками,ее можно обозначить как «Удельный вес затрат не приносящих прибыль». Третьяглавная компонента взаимосвязана с четвертым исходным признаком, поэтому ееобозначим «Удельный вес потерь от брака».

2.3 Матрица наблюденных значений главных компонент.

     Мы получили ненормированные главные компоненты. Проведя нормирование полу­ченныхцентрированных />, полу­чим />. При нормировании /> дисперсия должна рав­няться1, />. Для этого нужно разделить /> на среднеквадратическоеотклонение />.

/>

     Обозначим  /> - это матрица весовыхкоэффициентов, с помощью которой уста­навливается связь между нормированнымиисходными признаками и нормирован­ными главными компонентами.

 Модельметода главных компонент:

/> где

/> — значение I-той стандартизированной переменной по j-ому объекту наблюдения;

/> — m-тая главнаякомпонента по j-ому объектунаблюдения;

/>-весовой коэффициент m-той главнойкомпоненты и I-той переменной.

Этуматрицу будем строить, исходя из соотношения />,

где/> — диагональная матрица, наглавной диагонали которой стоят дисперсии соответствующих главных компонент вминус первой степени;

/>-транспонированная матрица факторных нагрузок;

    Х- матрица наблюденных значений исходных признаков.

Даннаяформула хороша тем, что она верна и в том случае, если матрица

А не квадратная (т.е.выделено m<n главных компонент).

«Наблюденные»значения главных компонент приведены в Приложениях. 

2.4 Классификация объектов.

Проведем классификациюобъектов по первым двум главным компонентам.

/>

Рис.1: Объекты в пространстве главных компонент.

Нарис.1 видно, что первая группа характеризуется положительными значениями первойглавной компоненты, а вторая группа характеризуется отрицательными значениямипервой главной компоненты. При этом значения второй главной компоненты схожи уобеих групп.

2.5 Уравнение регрессии на главные компоненты.

              Построимуравнение регрессии на выделенные главные компоненты методом пошаговойрегрессии, который предполагает, что на каждом шаге мы будем включать вуравнение регрессии тот признак, который будет вызывать наибольшее приращение коэффициентадетерминации.

 Процесс будет остановлен,когда величина /> достигнет своегомаксимума.

В итоге уравнение регрессиипримет вид:

/>

Подробный анализ, выполненныйс помощью программы “Stadia”, приведен в Приложениях.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.Метод главных факторов

     Мы ставим перед собой задачу снижения размерности признакового пространства. Ссамого начала будем исходить из того, что мы n признаков попытаемсяобъяснить с помощью меньшего количества m-ла­тентныхпризнаков  — общих факторов, где m<<n, а различия между исход­ными признаками и введённымиобщими факторами, точнее их линейными комбинациями учтём с помощью такназываемых характерных факторов. 

     Конечная цель статистического исследования, проводимого с привлече­ниемаппарата факторного анализа, как правило, состоит в выявлении и интерпретациилатентных общих факторов с одновременным стремлением ми­нимизировать как ихчисло, так и степень зависимости /> от своихспецифиче­ских остаточных случайных компонент />.

     Итак, в нашем распоряжении последовательность многомерных наблюде­ний Х.

/> 

Предполагаем, что каждый признак /> является результатомвоздейст­вия m гипотетических общих и одного характерного факторов:

/>(1)

/>-весовые коэффициенты;

/>-общие факторы, которые подлежат определению;

/>  — характерный фактор для i-ого исходного признака;

/> — весовой коэффициент при i-ом характерномфакторе.

     Представимвыражение (1) в матричной форме.

     Введёмобозначения:

/>  />

Суммаматриц даёт:

/>

     Представимматрицы индивидуальных значений общих и характерных фак­торов. Иногда дляудобства их представляют в одной матрице:

/>

     Модель(1) можно записать в матричной форме: />/>

3.1 Преобразование матрицы парных коэффициентовкорреляции  в   редуцированную матрицу.

Запишемкорреляционную матрицу:

/>

        

           Следующим шагом будет – построениередуцированной матрицы кор­реляции с общностями на главной диагонали. Общностьпоказывает какую часть, какую долю составляет относительно дисперсии каждого изm общих факторов в дисперсии I — го исходногопризнака. Существуют следующие методы нахождения общности:

a)   наибольшего элемента метод построке

Сутьметода заключается в том, что в строке матрицы />,соответствующей данному признаку, выбирается элемент с наибольшим абсолютнымзначе­нием. Это наибольшее значение коэффициента корреляции записывается наглавной диагонали.

/>

    h/>=0,940  h/>=0,219  h/>=0,415    h/>=0,172  h/>=0,940

b)  метод среднего коэффициента корреляции

         />

    h/>= 0,3977 h/>=0,1175  h/>=0,2627    h/>=0,10025   h/>=0,4117                   

      с)  метод триад

В j – ом столбце  или строке отыскивают два наибольшихзначения ко­эффициентов корреляции /> и />, тогда

/>

        h/>= 0,2314h/>=0.0821  h/>=0,1717   h/>=0,0306   h/>=0,1956

d) метод первогоцентроидного фактора

/>

       h/>=0,6562   h/>=0,8181   h/>=0,9407   h/>=0,2054  h/>=0,4315

       Запишем матрицу />,используя метод среднего коэффициента корреляции:

              h/>= 0,3977 h/>=0,1175  h/>=0,2627    h/>=0,10025   h/>=0,4117  

       Построимматрицу Rh –редуцированную корреляционная матрица.

/>

         Дляполучения первого вектора коэффициентов первого главного фактора необходимонайти наибольшее собственное число матрицы /> ипо нему построить соответствующий собственный вектор, затем нормировать его иумножить все компоненты этого вектора на /> (для того, чтобы длина этого вектора была />),тогда получим искомый вектор />.Затем необходимонайти матрицу рассеивания />, обусловленнуювлиянием первого общего фактора, и матрицу остатков/>,которая содержит в себе связи, обусловленные влиянием всех общих факторов, начинаясо второго. Далее переходим по той же схеме к поиску собственных чисел матрицы />. Но, оказывается, чтособственные числа и собственные вектора матриц /> и/> совпадают, начиная совторого, а это означает, что достаточно найти собственные числа матрицы />, ранжировать их и найтисобственные вектора./>

       Получим следующие собственные числа:

/>1=1.658  />2=0.21  />3=0.069  />4=-0.105  />=-0.542

       Процесс выделения главных факторов прекращают кактолько сумма собственных чисел соответствующих выделенным главным факторам превысятслед матрицы Rh.  В нашем случае при выделении первых трех главныхфакторов />, а />То есть в нашем случае выделениятрех главных факторов достаточно для объяснения корреляционных связей междупризнаками.

          Положительное, максимальное собственноечисло />1=1,568, построим собственный вектор соответствующийданному

     собственному числу: />=/>, /> — ненормированный вектор полученныйиз />=0

Найдем:  />, />1=/>.

      Рассмотрим второеположительное максимальное  собственное число и третье, а также соответственныесобственные собственные вектора                                    />2=/>, для />2=0,21

/>3=/>, для />=0,069

Матрица факторногоотображения:

/>

Произведемэкономическую интерпретацию полученных общих факторов на основании матрицыфакторных нагрузок А.

Первый главный фактор имеет тесную взаимосвязь с первым (X5 – удельный вес рабочих в составе ППП) итретьего (X7 – коэффициент сменностиоборудования) исходного признака, следовательно его можно обозначить как«Эффективность основного производства». Второй общий фактор наиболее теснуювзаимосвязь имеет со вторым исходным признаком, обозначим его как «Удельный веспокупных изделий». Третий главный фактор имеет очень низкую взаимосвязь совсеми исходными признаками 

       

3.2Графическая классификация предприятий по двум общим факторам

      Чтобы графическипроизвести классификацию объектов, необходимо найти наблюденные значения первыхдвух общих факторов. Это можно сделать по формуле: />,где

         /> — транспонированная матрицафакторных нагрузок;

  />-диагональная матрица, на главной диагонали которой стоят харак      терностисоответствующих общих факторов;

/> — матрицацентрированно-нормированных  значений исходных признаков.

Матрица наблюденных значенийобщих факторов приведена в Приложениях.

Отобразим объектынаблюдения в пространстве первых двух общих факторов.

/>

3.3 Переход к обобщеннымфакторам с помощью варимаксного вращения

         В факторном анализе при решении практическихзадач широко применяется ортогональное вращение. Конечной целью факторногоанализа является получение содержательно интерпретируемых факторов, которые воспроизводилибы выборочную корреляционную матрицу между переменными. Например, в методеглавных факторов это достигается путем вращения.

Посколькуиз множества положений системы координат надо выбрать одну, нужен критерий,который давал бы возможность судить о том, что мы близко подошли к своей цели.Таких критериев предложено много. Остановимся на наиболее часто используемом методеваримаксного вращения. Метод Варимакс рассчитывает Vjкритерий качества структуры каждого фактора:

/>

       При помощи метода«варимакс» достигают максимального упрощения в описании столбцов матрицыфакторного отображения. Возможно раздельноеулучшение структуры факторов.Наилучшим  будет максимальное значение критерия. Если после очередного вращенияVj растет – переходим к вращению.Рассчитаем  Vj<sub/> дляимеющейся матрицы А:V1=0.307, V2=0.168

/>

Рис.3: Классификация признаков.

  

  Наша цель не только снизить размерность признакового пространства, но и предатьвыделенным факторам  какой-то экономический смысл. Мы можем перейти с помощьювращения  от факторов f1 и f2  к факторам f1/> и f2/> с помощью соотношения  В=Т*А. Исходя из геометрическихсоображений, повернем систему координат по часовой стрелки на угол равный 15/>. Матрица вращения будетиметь вид:

Т=/>

Известно,что sin15/>=0.259cos15/>=0.966.Найдем матрицу В=Т*А

/>*/>=/>

РассчитаемVj<sub/> для матрицы В, полученнойпосле вращения: V1=0,240, Vj=0,156. Значение Vj<sub/> не возросло ни по одному из факторов.

Попыткипроизводить вращения на другие углы не приводят к возрастанию значения  Vj<sub/> следовательно нетнеобходимости во вращении.

3.4 Построение функции регрессии на выделенныеобобщенные факторы

 Используя данные о «наблюденных» значениях общих факторов, построим функциюрегрессии  на выделенные обобщенные факторы с помощью программы «Stadia».Получимуравнение регрессии следующего вида для i-го объектанаблюдения:

/>

 Подробное описание уравнения регрессии дано в Приложениях


Список использованных источников

1 Дубров А.М., Мхитарян В.С.,Трошин Л.И. Многомерные статистические методы: Учебник. – М.: Финансы истатистика,1998.- 352с.

2 Сошникова Л.А., ТамашевичВ.Н., Уебе Г., Шефер М. Многомерный статистический анализ в экономике: Учебноепособие для вузов- М.: ЮНИТИ-ДАНА, 1999.-598 с.


Приложение 1Наблюденные значения исходных признаковY1 X5 X6 X7 X9 X17 9,26 0,78 0,4 1,37 0,23 17,72 9,38 0,75 0,26 1,49 0,39 18,39 12,11 0,68 0,4 1,44 0,43 26,46 10,81 0,7 0,5 1,42 0,18 22,37 9,35 0,62 0,4 1,35 0,15 28,13 9,87 0,76 0,19 1,39 0,34 17,55 9,17 0,73 0,25 1,16 0,38 21,92 9,12 0,71 0,44 1,27 0,09 19,52 5,88 0,69 0,17 1,16 0,14 23,99 6,3 0,73 0,39 1,25 0,21 21,76 6,22 0,68 0,33 1,13 0,42 25,68 5,49 0,74 0,25 1,1 0,05 18,13 6,5 0,66 0,32 1,15 0,29 25,74 6,61 0,72 0,02 1,23 0,48 21,21 4,32 0,68 0,06 1,39 0,41 22,97 7,37 0,77 0,15 1,38 0,62 16,38 7,02 0,78 0,08 1,35 0,56 13,21 8,25 0,78 0,2 1,42 1,76 14,48 8,15 0,81 0,2 1,37 1,31 13,38 8,72 0,79 0,3 1,41 0,45 13,69 6,64 0,77 0,24 1,35 0,5 16,66 8,1 0,78 0,1 1,48 0,77 15,06 5,52 0,72 0,11 1,24 1,2 20,09 9,37 0,79 0,47 1,4 0,21 15,98 13,17 0,77 0,53 1,45 0,25 18,27 6,67 0,8 0,34 1,4 0,15 14,42 5,68 0,71 0,2 1,28 0,66 22,76 5,22 0,79 0,24 1,33 0,74 15,41 10,02 0,76 0,54 1,22 0,32 19,35 8,16 0,78 0,4 1,28 0,89 16,83 3,78 0,62 0,2 1,47 0,23 30,53 6,48 0,75 0,64 1,27 0,32 17,98 10,44 0,71 0,42 1,51 0,54 22,09 7,65 0,74 0,27 1,46 0,75 18,29 8,77 0,65 0,37 1,27 0,16 26,05 7 0,66 0,38 1,43 0,24 26,2 11,06 0,84 0,35 1,5 0,59 17,26 9,02 0,74 0,42 1,35 0,56 18,83 13,28 0,75 0,32 1,41 0,63 19,7 9,27 0,75 0,33 1,47 1,1 16,87 6,7 0,79 0,29 1,35 0,39 14,63 6,69 0,72 0,3 1,4 0,73 22,17 9,42 0,7 0,56 1,2 0,28 22,62 7,24 0,66 0,42 1,15 0,1 26,44 5,39 0,69 0,26 1,09 0,68 22,26 5,61 0,71 0,16 1,26 0,87 19,13 5,59 0,73 0,45 1,36 0,49 18,28 6,57 0,65 0,31 1,15 0,16 28,23 6,54 0,82 0,08 1,87 0,85 12,39 4,23 0,8 0,68 1,17 0,13 11,64 5,22 0,83 0,03 1,61 0,49 8,62 18 0,7 0,02 1,34 0,09 20,1 11,03 0,74 0,22 1,22 0,79 19,41 № f1 f2 f3 1 0.465 0.513 -0.722 2 0.521 -0.576 -0.18 3 -0.918 -0.263 -0.119 4 -0.53 0.434 -0.672 5 -1.703 -0.315 0.16 6 0.527 -0.593 0.05 7 -0.574 0.059 0.243 8 -0.455 0.651 -0.508 9 -1.005 -0.546 0.676 10 -0.495 0.48 -0.315 11 -1.401 0.233 0.292 12 -0.293 0.333 0.082 13 -1.516 0.049 0.366 14 -0.277 -1.222 0.996 15 -0.456 -1.647 0.942 16 0.722 -0.662 0.164 17 1.067 -0.793 0.279 18 1.029 -0.334 0.062 19 1.246 -0.106 -0.118 20 1.05 0.109 -0.534 21 0.569 -0.175 -0.127 22 1.149 -1.072 0.215 23 -0.212 -0.722 0.771 24 0.698 0.853 -1.066 25 0.399 0.874 -1.153 26 1.007 0.311 -0.723 27 -0.523 -0.562 0.473 28 0.797 6.03E-3 -0.184 29 -0.225 1.458 -0.957 30 0.382 0.833 -0.584 31 -1.525 -1.642 0.833 32 -0.161 1.809 -1.328 33 -0.185 -0.104 -0.45 34 0.395 -0.45 -0.103 35 -1.426 -0.081 0.145 36 -1.057 -0.412 -0.012 37 1.263 0.194 -0.811 38 0.016 0.516 -0.546 39 0.211 -0.1 -0.251 40 0.576 -0.082 -0.332 41 1.703 3.644 5.731 42 -0.235 -0.339 0.019 43 -1.023 1.293 -0.705 44 -1.656 0.487 0.022 45 -1.047 0.164 0.457 46 -0.211 -0.573 0.546 47 -0.017 0.608 -0.645 48 -1.804 -0.119 0.487 49 2.464 -1.953 -0.182 50 0.543 2.607 -1.793 51 2.391 -1.4 -0.05 52 -0.127 -1.581 0.901 53 -0.131 -0.094 0.26

Приложение 2

Главныекомпоненты              Приложение 3Построение уравнения регрессии наглавные компоненты.

ПОШАГОВАЯ РЕГРЕССИЯ.  Файл:гл.комп.std

Пропущн=2 2

Переменная   Среднее Ст.отклон.

       f1  3,77E-5        1

       f2 5,66E-7        1

       f3  3,77E-5        1

        Y     7,97     2,61

                    Корреляционная матрица

                f1      f2       f3        Y                          

       f2        0

       f3  -0,001        0

        Y    0,044   0,009   -0,167

 

 Критичeское значение=0,57

 Число значимыхкоэффициентов=0 (0%)

    *** Метод включения. Шаг No.1,введена переменная:f3

  Коэфф.       a0      a1

Значение     7,97   -0,437

Ст.ошиб.    0,357     0,36

 Значим.        0    0,229

Источник  Сум.квадр. Степ.свСредн.квадр.

Регресс.     9,92       1     9,92

Остаточн      344      51     6,75

     Вся      354       52

Множеств R    R^2  R^2прив  Ст.ошиб.       F   Значим

  0,16732 0,0279970,0089386  2,5985     1,47    0,144

   Гипотеза 0:<Регрессионная модель неадекватна экспериментальным данным>

Измен.R^2       F   Значим

    0,028     1,47    0,229

--------------  Переменные вуравнении ---------------

 Переменн. Коэфф.В Ст.ош.В     Бета        F   Значим

       f3   -0,437    0,36   -0,167     1,47    0,229

— Переменныене в уравнении ---------------------------

 Переменн. Коэфф.В Ст.ош.В     Бета        F   Значим  Частн.R    Толер.

       f2  0,0241    0,364  0,00922  0,00438    0,946  0,00935        1

       f1   0,116    0,364   0,0446    0,102    0,749   0,0452        1

 

Приложение 4

«Наблюденные» значения  общихфакторов.

№ f1 f2 f3 1 0.745 янв.23 1.313 2 0.734 -0.836 0.704 3 -0.238 0.527 0.758 4 0.318 1.969 1.578 5 -1.211 0.409 0.318 6 0.232 -1.468 0.097 7 -1.22 -0.515 -0.57 8 -0.25 1.614 0.959 9 -1.849 -1.743 -1.129 10 -0.476 01.апр 0.564 11 -1.789 0.264 -0.56 12 -1.179 -0.298 -0.439 13 -1.87 0.016 -0.572 14 -1.44 -3.51 -1.681 15 -1.009 -3.509 -1.145 16 0.266 -1.837 -0.201 17 0.259 -2.529 -0.505 18 0.857 -1.027 -0.204 19 0.878 -0.868 -6.854E-3 20 1.076 0.101 0.966 21 0.307 -0.685 0.247 22 0.791 -2.553 -0.15 23 -1.051 -2.264 -1.434 24 1.241 2.131 1.901 25 1.312 2.653 2.214 26 1.117 0.583 1.302 27 -0.957 -1.415 -0.703 28 0.459 -0.507 0.197 29 0.122 3.157 1.449 30 0.437 1.527 0.772 31 -1.286 -2.376 -0.534 32 0.618 апр.32 2.167 33 0.666 0.896 1.303 34 0.582 -0.631 0.472 35 -1.295 0.351 0.086 36 -0.463 0.212 0.634 37 1.705 0.623 1.523 38 0.366 1.402 1.025 39 0.423 0.057 0.635 40 0.965 0.228 0.766 41 3.449 май.79 -16.471 42 -0.049 -0.334 0.249 43 -0.578 мар.14 1.174 44 -1.702 1.212 0.04 45 -1.802 -0.354 -1.028 46 -0.864 -1.729 -0.953 47 0.449 1.732 1.235 48 -2.152 -0.24 -0.695 49 3.036 -3.314 1.159 50 1.037 5.343 2.573 51 2.026 -3.347 0.406 52 -1.012 -3.805 -1.202 53 -0.731 -0.83 -0.606

 

Приложение 5

Уравнениерегрессии на общие факторы.

МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯРЕГРЕССИЯ. 

 

  Коэфф.       a0       a1       a2       a3

Значение     7,97    0,309  0,0722    0,186

Ст.ошиб.    0,359    0,309   0,177    0,145

 Значим.        0    0,323   0,688    0,204

Источник  Сум.квадр. Степ.свСредн.квадр.

Регресс.     19,3       3     6,43

Остаточн      335      49     6,84

     Вся      354       52

Множеств R     R^2  R^2прив Ст.ошиб.       F   Значим

   0,23330,054428-0,0034647   2,6147     0,94     0,57

   Гипотеза 0:<Регрессионная модель неадекватна экспериментальным данным>

еще рефераты
Еще работы по остальным рефератам