Реферат: Теория вероятностей

Вопрос 1

События и явления. Всесобытия и явления реального мира разделяются на закономерные(детерминированные) и случайные (вероятностные).

Случайным событиемназывается такое событие, изменить или предсказать которое в процессе случайногоявления невозможно. Случайное событие — это результат (исход) конкретнойединичной реализации случайного явления. Так, выпадение чисел 1-6 при бросанииигральной кости — случайное явление. Выпадение числа 6 в единичном испытании — случайное событие. Если оно может задаваться, то это уже не игральная кость, аинструмент шулера. Типовое обозначение случайных событий — крупными буквамиалфавита (например, событие А — выпадение 1 при бросании кости, событие В — выпадение 2 и т.д.).

Классификация случайныхсобытий. Событие называют достоверным (и обозначают индексом W), если оно однозначно и предсказуемо.Выпадение суммы чисел больше 1 и меньше 13 при бросании двух костей — достоверное событие. Событие является невозможным (и обозначается индексом Æ), если в данном явлении оно полностьюисключено. Сумма чисел, равная 1 или большая 12 при бросании двух костей — события невозможные. События равновозможны, если шансы на их появление равны.Появление чисел 1-6 для игральной кости равновозможно.

Два события называются совместными,если появление одного из них не влияет и не исключает появление другого.Совместные события могут реализоваться одновременно, как, например, появлениекакого-либо числа на одной кости ни коим образом не влияет на появление чиселна другой кости. События несовместны, если в одном явлении или при одномиспытании они не могут реализоваться одновременно и появление одного из нихисключает появление другого (попадание в цель и промах несовместны).

1.Вероятность любого случайного события Аявляется неотрицательной величиной, значение которой заключено в интервале от 0до 1. 0 £ Р(А) £ 1.

2.Вероятностьдостоверного события равна 1. Р(W)= 1.                                                   

В общем случае событие W представляет собой сумму полной группывозможных элементарных событий данного случайного явления:W=/>wi. Следовательно,  вероятностьреализации хотя бы одного случайного события из полной группы возможных событийтакже равна 1, т.е. является событием достоверным.

Сумма противоположных событийтоже составляет полную группу событий и соответственно вероятность суммыпротивоположных событий равна 1:P(A+/>)= 1.                                      

Примером может служитьбросание горсти монет. Орел или решка для каждой монеты – противоположныесобытия. Сумма событий для горсти в целом равна 1 независимо от соотношениявыпавших орлов и решек.

3. Вероятностьневозможного события равна 0. Р(Æ)= 0.                                                         

/>

Рис. 8.2.3.

            Пусть Ф — пустоепространство (не содержащее событий). Тогда W+Ф = W и пространствоW не содержит событий, общих спространством Ф (рис. 8.2.3). Отсюда следует, что Р(W+Ф) = Р(W) + Р(Ф) = Р(W),что выполняется при Р(Ф) = 0. Другими словами, если одно из событий обязательнодолжно происходить, то вероятность отсутствия событий должна быть равна нулю.Но при этом W являетсядостоверным событием, а Ф = Æ(невозможное событие) и соответственно Р(Æ)= 0.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вопрос 2

/>ДиаграммаВьенна-Эйлера

 

А) событие A

Б) Сложение – событие, кот состоит в том, что происходитхотя бы одно из событий A или B

В) произведение событий- А и Bодновременно

Г) Дополнение – событие принадлежит к А, но непринадлежит к B

 Д) противоположное событию Aсобытие В

Е) Несовместимые события – если они не могут произойтиодноременно

Ж) События образуют полную группу, если хотя бы одно изних обязательно происходит в результате испытания

З) А влечет за собой В

 

 

 

Вопрос 3

Классическая формула вероятности

Если множество элементарных событий Ω={ω1,ω2,…ωN}, конечно и все элементарные события равновозможны, то такаявероятностная схема носит название классической. В этом случаевероятность Р{А} наступления события А, состоящего из М элементарных событий,входящих в Ω,определяется как отношение числа М элементарных событий,благоприятствующих наступлению события А, к общему числу N элементарных событий. Эта формула носит названиеклассической формулы вероятности: Р{А}= M/N.

В частности, согласно классической формуле вероятности:

Р{ωi }=1/N   (i=1,2,…, N)

Р{Ω}=N/N =1

P{Æ}=0/N=0

Комбинаторика,1) то же, что математическийкомбинаторный анализ. 2) Раздел элементарной математики, связанный с изучениемколичества комбинаций, подчинённых тем или иным условиям, которые можносоставить из заданного конечного множества объектов (безразлично, какойприроды; это могут быть буквы, цифры, какие-либо предметы и т.п.). Числоразмещений. Пусть имеется n различных предметов. Сколькими способами можновыбрать из них т предметов (учитывая порядок, в котором выбираются предметы)?Число способов равно Anm = />? Anmназывают числом размещений из n элементов по m. Число сочетаний. Пустьимеется n различных предметов. Сколькими способами можно выбрать из них тпредметов (безразлично, в каком порядке выбираются предметы)? Число способовтакого выбора равно  Cnm = /> Cnmназывают числом сочетаний из n элементов по m. Числа Cnmполучаются как коэффициенты разложения n-й степени двучлена: (a+b) n=Cn0an<sup/>+Cn1an-1b +Cn2an-2b2 ?+… + Cnn-1abn-1+ Cnn bn, и поэтому они называются такжебиномиальными коэффициентами. Основные соотношения для биномиальныхкоэффициентов: Cnm=Cnn-m, Cnm?+ Cnm+1 = Cn+1m+1, Cn0+ Cn1 + Cn2<sup/>+...+ Cnn-1<sup/>+ Cnn =2n,? Cn0-Cn1 + Cn2-...+ (-1) nCnn= 0.  Числа Anm, Pm и Cnmсвязаны соотношением:  Anm=Pm Cnm.Рассматриваются также размещения с повторением (т. е. всевозможные наборы из mпредметов n различных видов, порядок в наборе существен) и сочетания с повторением(то же, но порядок в наборе не существен). Число размещений с повторениемдаётся формулой nm, число сочетаний с повторением — формулой Cmn+m-1.

Вопрос 4

При аксиоматическом построении вероятностей в каждомконкретном пространстве элементарных событий W выделяется s-полесобытий S для каждогособытия AÎ S задается вероятность P{A} – числовая функция,определенная на s-поле событий S и удовлетворяющая следующимаксиомам.

Аксиома неотрицательности вероятности для всех A Î S: P{A}³ 0.

Аксиома нормированности вероятности: P{W}=1.

Аксиома адаптивности вероятности: для всех A,BÎS, таких,что AÇB¹Æ: P{AÈB}=P{A}+P{B}

Каждая определенная теоретико-вероятностная схемазадается тройкой {W, S, P}, где W конкретное пространство элементарныхсобытий, S — s-поле событий, выделенное на W, З – вероятность заданная на s-поле S. Тройка {W, S,P} называется вероятностным пространством

Пусть проводится конечное число n последовательных испытаний, в каждом из которых некотороесобытие А может либо наступить (такую ситуацию назовём успехом), либо ненаступить (такую ситуацию назовём неудаxей), причём этииспытания удовлетворяют следующим условиям:

1)каждое испытание случайно относительно события А, т.е. допроведения испытания нельзя сказать появится А или нет;

2)испытания проводятся в одинаковых с вероятностной точкизрения условиях, т.е. вероятность успеха в каждом отдельно взятом испытанииравна р и не меняется от испытания к испытанию;

3)испытания независимы, т.е. исход любого из них никак невлияет на исходы других испытаний.

Такая последовательность испытаний называется схемойБернулли или биноминальной схемой, а сами испытания- испытаниями Бернулли.

Ф-ла Бернулли: Рmn = Cmn*pm * q n-m= Cmn* pm* (1-p)<sup/>n-m

Cmn= n!/ m!(n-m)!

 

 

Вопрос 5

Сложение вероятностейзависит от совместности и несовместности событий.

Несовместные события. Вероятностьсуммы двух несовместных событий А и В равна сумме вероятностей этих событий.Это вытекает из того, что множество С = А+В включает подмножества А и В, неимеющие общих точек, и Р(А+В) = Р(А)+Р(В) по определению вероятности на основемеры. По частотному определению вероятности в силу несовместности событийимеем:

P(A+B) = /> =/>+/>=P(A) + P(B),

где n и m — число случаевпоявления событий А и В соответственно при N испытаниях.

            Противоположныесобытия также являются несовместными и образуют полную группу. Отсюда, с учетом:P(/>) = 1 — Р(А).  

/>

Рис. 8.2.4.

В общем случае для группы несовместныхсобытий: P(A+B+...+N) = P(A) + P(B) +… + P(N),

если все подмножества принадлежатодному множеству событий и не имеют общих точек (попарно несовместны). А еслиэти подмножества образуют полную группу событий, то с учетом: P(A) + P(B) +… + P(N) =1.                              (8.2.7)

/>

Рис. 8.2.5.

Совместные события.Вероятность появления хотя бы одного из двух совместных событий равна суммевероятностей этих событий без вероятности их совместного появления: P(A+B) = P(A) + P(B) — P(A×B).               

Разобьем события А и В каждое надва множества, не имеющие общих точек: А', A'' и B', B''. Во множества А'' иB'' выделим события, появляющиеся одновременно, и объединим эти множества водно множество С. Для этих множеств действительны выражения:

С = A''×B'' ºА'' º В'' º А×В,    P(C) = P(A'') = P(B'') = P(A×B).

P(A)= P(A')+P(A''),        P(A') = P(A)-P(A'') = P(A)-P(A×B).

P(B)= P(B')+P(B''),        P(B') = P(B)-P(B'') = P(B)-P(A×B).

Множества A', B' и С не имеютобщих точек и можно записать:

P(A+B) = P(A'+B'+C) = P(A') + P(B') + P(С).

Подставляя в правую часть этогоуравнения вышеприведенные выражения, приходим к выражению (8.2.8). Физическаясущность выражения достаточно очевидна: суммируются вероятности событий А и В ивычитаются вероятности совпадающих событий, которые при суммировании сосчитаныдважды.

В общем случае, для m различныхсобытий А1, А2, ..., Аm:

    P(A1+...+Am) =/>P(Ai) -/>P(Ai×Aj) +/>P(Ai×Aj×Ak) -...+(-1)m+1P(A1×A2×… ×Am).   (8.2.9)

/>

Рис. 8.2.6.

            На рис. 8.2.6 напримере трех пространств можно видеть причины появления в выражении (8.2.9)дополнительных сумм вероятностей совпадающих пространств и ихзнакопеременности. При суммировании вероятностей пространств А, В и С, имеющихобщее пространство АВС, его вероятность суммируется трижды, а при вычитаниивероятностей перекрывающихся подпространств АВ, АС и ВС трижды вычитается (т.е.обнуляется), и восстанавливается дополнительным суммированием с вероятностью пространстваАВС.

 

 

Вопрос 6

1) Условная вероятностьсобытия А при условии В равна Р(А/B)=P(A*B)/P(B),Р(В)>0.

 2) Событие А не зависитот события В, если Р(А/B)=P(A).Независимость событий взаимна, т.е. если событие А не зависит от В, то событиеВ не зависит от А. В самом деле при Р(А)>0 имеем Р(B/A)=P(A*B)/P(A)=P(A/B)*P(B)/P(A)=P(A)*P(B)/P(A)=P(B).Вытекает следующая формула умножения вероятностей: Р(А*В)=Р(А)*Р(В/A).Для независимых событий вероятность произведения событий равна произведению ихвероятностей: Р(А*В)=Р(А)*Р(В). 3) События А1, А2,…, Аnобразуют полную группу событий, если они попарно несовместны и вместе образуютдостоверное событие, т.е. Аi*Aj=0, iне=j, Uпо iот 1 до nАi=омега.

Вероятность совместногопоявления двух событий равна произведению вероятности одного из них на условнуювероятность другого, вычисленную в предположении, что первое событие уженаступило: Р(АВ)=Р(А)*Ра(В). В частности для независимых событийР(АВ)=Р(А)*Р(В), т.е. вероятность совместного появления двух независимыхсобытий равна произведению вероятностей этих событий.

Вопрос 7

            Формула полнойвероятности. Систему событий А1, А2, ...,ANназывают конечным разбиением (или просто разбиением), если они попарнонесовместны, а их сумма образует полное пространство событий: А1 + А2+… + АN = W.    

Если события Аiобразуют разбиение пространства событий и все P(Ai) > 0, то для любого события В имеет место формулаполной вероятности: P(B) =/>P(Ak)×P(B/Ak),                                    

что непосредственно следует из (8.2.14) для попарнонесовместных событий:

B = B×W = BA1+BA2+...BAN.

P(B) = P(BA1)+P(BA2)+…+P(BAN) = P(A1)P(B/A1)+P(A2)P(B/A2)+...+P(AN)P(B/AN).

 

Вопрос 8

/>

 

Вопрос 9

/>

/>

/> 

 

Вопрос 10

Случайнойвеличиной называется числовая величина,которая в результате опыта может принять какое-либо значение из некоторогомножества, причем заранее, до проведения опыта, невозможно сказать, какоеименно значение она примет. Случайные величины обозначают заглавными латинскимибуквами X, Y, Z,..., а их возможные значения — строчными латинскими буквамих, у, z. Случайнаявеличина называется дискретной, если множество ее значенийконечно илисчетно, и непрерывной в противном случае. Законом распределения случайнойвеличины называется любое со­отношение, связывающее возможные значения этойслучайной ве­личины и соответствующие им вероятности. Закон распределениядискретной случайной величины задается чаще всего не функцией распределения, арядом распределения, т.е, таблицей

Х

x1

x2

...

xn

...

P

p1

p1

...

pn

...

В которой  x1, x2, ..., xn,… — расположенные по возрастанию значения дискретной случайнойвеличины X, а р1, р2,..., рп,… — отвечающие этим значениям вероятности: pi =Р{Х = хi), i= 1, 2, ...,п,…. Число столбцов  в этой таблице может быть конечным (если соответствующаяслучайная величина принимает конечное число значений) или бесконечныи.Очевидно,S pi= 1.

Многоугольникомраспределения дискретной случайнойвеличины X называется ломаная, соединяющая точки {xi; pi), расположенные в Порядке возрастания хi.

 

Вопрос11

 Функциейраспределения случайной величины Х называется функция FX(x)= P{X<x}, xÎR

Под {X<x}понимаетсясобытие, состоящее в том, что случайная величина Х принимает значение меньшее,чем число х. Если известно, о какой случайной величине идёт речь, то индекс,обозначающий эту случайную величину, опускается: F(x) º FX(x).

Как числовая функция от числового аргумента х, функцияраспределения F(x) произвольнойслучайной величины Х обладает следующими свойствами:

1)для любого xÎR: 0£ F(x) £ 1

2) F(-¥) = limx®¥<sub/>F(x) = 0; F(+¥) = limx®¥<sub/>F(x) = 1;

3) F(x)-неубывающаяфункция, т.е.для любых х1, х2 ÎR таких, что х1<х2: F(x1) £ F(x2);

4)для любого xÎR: F(x)= F(x-0)= lim z<x,z®xF(z).

Вопрос 12

Мат. Ожиданием Д.С.В.называют сумму произведений  всех ее возможных значений на их вероятности: М(Х)=х1р1+х2р2+…+хnpn. ЕслиД.С.В. принимает счетное множество возможных значений, то М(Х)=сумма по iот 1 до бесконечности xipi, причем мат. ожидание существует, если ряд в правойчасти равенства сходится абсолютно. Мат. ожидание обладает следующими свойствами:1) Мат. ожидание постоянной величины равно самой постоянной: М(С)=С. 2)Постоянный множитель можно выносить за знак мат. ожидания: М (СХ)=СМ (Х). 3)Мат. ожидание произведения взаимно независимых С.В. равно произведению мат.ожиданий сомножителей: М (Х1, Х2…Хn)=M(X1)*M(X2)…M(Xn). 4) Мат. ожидание суммы С.В. равно сумме мат. ожиданий слагаемых: М(Х1+Х2+Х3+…+Хn)=M(X1)+M(X2)+M(X3)+…+M(Xn).

 Вопрос13

 Дисперсиейслучайной величины х называется число: DX= M(X-MX)2, равное математическому ожиданию квадрата отклонения случайной величины отсвоего математического ожидания. Для вычисления дисперсии иногда прощеиспользовать формулу: DX=M(X2)-(MX)2. Длядискретных св:

DX=∑(xi – MX)2pi;

DX=xi2pi – (MX) 2.

Свойства дисперсии дискретной случайной величины: (X,Y-независимые д.св, с- неслучайнаяпостоянная ÎR)

Dc=0;

D(cX)=c2DX;

D(X+Y)= DX + DY

 

Вопрос 14

Биномиальным называютзакон распределения Д.С.В.  Х — числа появлений события в nнезависимых испытаниях, в каждом из которых вероятность появления события равнар, вер-ть возможного значения Х=k(числа kпоявлений события) вычисляют по формуле Бернулли: Pn(k)=Cn^k*p^k*q^(n-k)

 

Вопрос 15

 Случайнаявеличина Х наз.распределённой по геометрическому закону с параметром р (рÎ[0;1]), если она принимает значения1,2,3… с вероятностями Р{Х=х}= р(1-р)х-1  (х = 1,2,3…).

Случайную величину Х можно интерпритировать как числоиспытаний Бернулли, которые придётся произвести до первого успеха, если успех вединичном испытании может произойти с вероятностью р.

Математическое ожидание случайной величины, имеющейгеометрическое распределение: МХ=1/p.

Дисперсия: DX=1-p/p2

 

Вопрос 16

 Если число испытаний велико, а вероятность Pповялениясобытия в каждом испытнаии очень мала, то используют приближенную формулу

Pn(k)=l^k*e^(-l/k)

Где k– числопоявлений события в nнезависимыхиспытаниях, l= np(среднее число появлений события в nнезависимыхиспытаниях), и говорят, что случайная величина распределена по закону Пуассона.

Вопрос  17

С.В. Х называетсянепрерывной, если существует неотрицательная функция рх(х) такая, что при любыхх функцию распределения Fx(x) можно представить в виде: Fx(x)=интегралот –бесконечности до х px(y)dy.Рассматривают только такие С.В., для которых рх(х)непрерывна всюду, кроме, может быть, конечного числа точек. Плотностьюраспределения вероятностей непрерывной С.В. называют первую производную отфункции распределения: f(x)=F’(x). Вероятностьтого, что Н.С.В. Х примет значение, принадлежащее интервалу (а,b),определяется равенством P(a<X<b)=интервал от а до bf(x)dx. Зная плотность распределения можно найти функцию распределения F(x)=интегралот –бесконечности до х f(x)dx. Плотность распределения обладает следующимисвойствами: 1) П.Р. неотрицательна, т.е. f(x)>=0.2) Несобственный интеграл от плотности распределения в пределах от–бесконечности до бесконечности равен единице: интеграл от –бесконечности добесконечности f(x)dx=1.

 

Вопрос 18

Мат. ожидание Н.С.В.Х, возможные значения которой принадлежат всей оси ОХ, определяется равенством:М(Х)=интеграл от –бесконечности до бесконечности хf(x)dx, где f(x) — плотность распределения С.В. Х. Предполагается, что интеграл сходится абсолютно. Вчастности, если все возможные значения принадлежат интервалу (а,b),то М(Х)=интеграл от а до bxf(x)dx. Все свойства мат. ожидания, указаны выше, для Д.С.В. Они сохраняютсяи для Н.С.В.

Дисперсия Н.С.В. Х,возможные значения которой принадлежат всей оси ОХ, определяется равенством: D(X)=интегралот –бесконечности до бесконечности [x-M(X)]*2f(x)dx,илиравносильным равенством: D(X)=интеграл от –бесконечности до бесконечности x*2f(x)dx– [M(X)]*2. В частности, если все возможные значения хпринадлежат интервалу (a,b), то D(X)=интервалот а до b[xM(X)]*2f(x)dx, или D(X)=интеграл от aдо bx*2f(x)dx– [M(X)]*2. Все свойства дисперсии Д.С.В. сохраняются и дляН.С.В.

 

 Вопрос  19

Моментыраспределения. При решении многих практических задач нет особойнеобходимости в полной вероятностной характеристике каких-либо случайныхвеличин, которую дает функция плотности распределения вероятностей. Очень частоприходится также иметь дело с анализом случайных величин, плотностивероятностей которых не отображаются аналитическими функциями либо вообщенеизвестны. В этих случаях достаточно общее представление о характере иосновных особенностях распределения случайных величин можно получить наосновании усредненных числовых характеристик распределений.

Числовыми характеристикамислучайных величин, которые однозначно определяются функциями распределения ихвероятностей, являются моменты.

Начальные моментыn-го порядка случайной величины X (или просто моменты) представляют собойусредненные значения n-й степени случайной переменной:  mn ºМ{Xn}º />= /> xn p(x) dx, где M{Xn} и />-символические обозначения математического ожидания и усреднения величиныХn, которые вычисляются попространству состояний случайной величины Х.

Соответственно, для случайныхдискретных величин: mn º М{Xn}º />=/>xin pi.

Центральные моменты n-гопорядка, это моменты относительно центров распределения (средних значений)случайных величин:

mn ºM{(X-/>)n}º/>=/>(x-m1)n p(x) dx

mn º M{(X-/>)n}º />=/>(xi-m1)n pi,где /> - начальный момент 1-гопорядка (среднее значение величины Х), X0= X-/> - центрированные значениявеличины Х.

Связь между центральными иначальными моментами достаточно проста:

m1=0,   m2=m2-m12,   m3=m3-3m2m1+2m13,   m4=m4-4m1m3+6m12m2-3m14, и т.д.

Соответственно, для случайныхвеличин с нулевыми средними значениями начальные моменты равны центральныммоментам.

По результатам реализациислучайных величин может производиться только оценка моментов, т.к.количество измерений всегда конечно и не может с абсолютной точностью отражатьвсе пространство состояний случайных величин. Результаты измерений — выборкаиз всех возможных значений случайной величины (генеральной совокупности).Оценка моментов, т.е. определение средних значений n-й степени по выборке из Nзарегистрированных значений, производится по формулам: /> = (1/N)/>xin »/>,/> = (1/N)/>(xi-/>)n »/>

 

Вопрос 20

Равномерным называютраспределение вероятностей Н.С.В. Х, если на интервале (а,b), которому принадлежат все возможные значения Х,плотность сохраняет постоянное значение, а именно f(x)=1/(b-a);вне этого интервала f(x)=0.Нетрудно убедиться, что интеграл от –бесконечности до бесконечности  р(х)dx=1. Для С.В., имеющей равномерное распределение, вероятность того, чтоС.В. примет значения из заданного интервала (х, х+дельта) прин. [a,b],не зависит от положения этого интервала на числовой оси и пропорциональна длинеэтого интервала дельта: P{x<X<x+дельта}=интегралот х до х+дельта 1/b-adt=дельта/b-a.Функция распределения Х имеет вид: F(x)=0,при х<=a, x-a/b-a, приa<x<=b,1прих>b.

Вопрос 21

Случайная величина Х с функциейраспределения

F(x)=  {0,         x<0,

           {1- e –μx  x³0

называется распределённой попоказательному закону с параметром μ. Плотность распределения этойслучайной величины получается путём дифференцирования:

f(x)={0,      x<0,

        {μe–μx  x³0.

Интервал времени между двумяпоследовательными появлениями некоторого редкого события описывается случайнойвеличиной, распределённой по показательному закону.

MX=1/μ   DX=1/μ2

 

Вопрос22

Потоком событий называют последовательность событий, которые наступают вслучайные моменты времени.

Простейшим (пуассоновским) называют поток событий, который обладает следующими тремясвойствами: стационарностью, «отсутст­вием последействия» и ординарностью.            

Свойство стационарности состоит в том, что вероятность появле­ния k событий в любом промежутке времени зависит только от числа k и от длительности t промежутка времени и не зависит от начала его отсчета.Другими словами, вероятность появления k событий за промежуток времени длительностью t есть функция, за-висящая только от k и t.

Свойство «отсутствия последействия» состоит в том, что вероят­ность появления k событий в любом промежутке времени не зависит от того,появлялись или не появлялись события в моменты времени, предшествующие началурассматриваемого промежутка. Другими словами, предыстория потока не влияет навероятности появле­ния событий в ближайшем будущем.

Свойство ординарности состоит в том, что появление двух или более  событий   за малый   промежуток  времени практически невозможно. Другими словами,вероятность появления более одного со­бытия за малый промежуток временипренебрежимо мала по срав­нению с вероятностью появления только одного события.

Интенсивностью потока называют среднее число событий, которые появляются вединицу времени.

Еслипостоянная интенсивность потока l  известна, то вероят­ностьпоявления k событийпростейшего потока за время t опреде­ляетсяформулой Пуассона

/>

Замечание.   Поток, обладающий  свойством   стационарности, называют стационарным;в противном случае—нестационарным.

 

 Вопрос23

 (на отдельном листе)

 

Вопрос 24

Н.С.В. Х имеетнормальное распределение вероятностей с параметром а и сигма>0, если ееплотность распределения имеет вид: р(х)=1/(корень квадратный из 2пи *сигма) * ев степени –1/2*(x-a/сигма)*2.Если Х имеет нормальное распределение, то будемкратко записывать это в виде Х прибл. N(a, сигма).Так как фи(х)=1/(корень из 2пи)*е в степени –х*2/2 – плотность нормальногозакона распределения с параметрами а=0 и сигма=1, то функция Ф(х)=1/(корень из2пи)* интеграл от –бесконечности до х е в степени –t*2/2dt, с помощью которой вычисляется вероятность P{a<=мюn-np/(корень из npq)<=b}, является функциейраспределения нормального распределения с параметрами а=0, сигма=1.


Вопрос 25

Функцией (или интегралом вероятностей) Лапласа называетсяфункция

/>/>При решениизадач, как правило, требуется найти значение функции по известному значению аргументаили, наоборот, по известному значению функции требуется найти значениеаргумента. Для этого пользуются таблицей значений функции Лапласа и учитываютследующие свойства функции />

/>10. Функция Лапласа нечётная, т.е.

20. Функция Лапласа монотонно возрастающая, причём (практически можно считать, что уже при />. Так при />).

/>

 

Вопрос 26

Неравенство Чебышева:Если известна дисперсия С.В.,то с ее помощью можно оценить вероятность отклонения этой величины на заданноезначение от своего мат. ожидания, причем оценка вероятности отклонения зависитлишь от дисперсии. Соответствующую оценку вероятности дает неравенствоЧебышева. Неравенство Чебышева является частным случаем более общегонеравенства, позволяющего оценить вероятность события, состоящего в том, чтоС.В. Х превзойдет по модулю произвольное число t>0. P{|XMX|>=t}<=1/t*2M(XMX)*2=1/t*2DX– неравенство Чебышева. Оно справедливо для любыхС.В., имеющих дисперсию; оценка вероятности в нем не зависит от законараспределения С.В. Х.

Под законом большихчисле понимается обобщенное название группы теорем, утверждающих, что принеограниченном увеличении числа испытаний средние величины стремятся кнекоторым постоянным.

Теорема Чебышева: Еслипоследовательность попарно независимых С.В. Х1, Х2, Х3,…,Xn,…имеет конечные мат. ожидания и дисперсии этих величин равномерно ограничены (непревышают постоянного числа С), то среднее арифметическое С.В. сходится повероятности к среднему арифметическому их мат. ожиданий, т.е. если эпселен –любое положительное число, то: lim при n стремящемся к бесконечности P(|1/n сумма по i от 1 до n Xi –1/n сумма по i от1 до n M(Xi)|<эпселен)=1. Вчастности, среднее арифметическое последовательности попарно независимыхвеличин, дисперсии которых равномерно ограничены и которые имеют одно и тожемат. ожидание а, сходится по вероятности к мат. ожиданию а, т.е. если эпселен –любое положительное число, то: lim при n  стремящемся к бесконечности P(|1/n сумма по i от 1 до n Xi –a|<эпселен)=1.

Теорема Бернулли: Если вероятность успеха в каждом из п независимых испытанийпостоянна и равна р, то для произвольного, сколь угодно малого ε > 0 справедливо предельное равенство

/>

где т — число успехов в серии из писпытаний.

 

Вопрос 27

Локальная теоремаЛапласа.  Вероятность того,что в nнезависимых испытаниях, в каждом из которыхвероятность появления события равна р(0<p<1),событие наступит ровно kраз (безразлично, в какой последовательности),приближенно равна (тем точнее, чем больше n). Pn(k)=1/(корень из npq)*фи(х).Здесь Фи(х)=1/(корень из 2пи)*е в степени –х*2/2, x=knp/(корень из npq). Интегральнаятеорема Лапласа. Вероятность того, что в nнезависимых испытаниях, в каждом из которых вероятность появления события равнар(0<p<1), событие наступит не меньше k1раз и не более k2 раз, приближенно равна: P(k1;k2)=Ф(х’’)– Ф(х’). Здесь Ф(х)=1/(корень из 2пи) * интеграл от0 до х  е в степени –(z*2/2)dz– функция Лапласа, х’=(k1 – np)/(корень из npq), х’’=(k2 – np)/(корень из npq).

 

Вопрос 28

Двумерной называютС.В. (Х,Y), возможные значения которой есть пары чисел (x,y).Составляющие Х и Y, рассматриваемые одновременно, образуют систему двухС.В. Дискретной называют двумерную величину, составляющие которой дискретны.Непрерывной называют двумерную величину, составляющие которой непрерывны.Законом распределения Д.С.В. называют соответствие между возможными значениямии их вероятностями. Функция распределения вероятностей Д.С.В. называют функцию F(X,Y), определяющую для каждой пары чисел (х,y) вероятность того, что Х примет значение, меньшее х,при этом Yпримет значение, меньшее y: F(x,y)=P(X<x,Y<y).Свойства:1) Значения функции распределенияудовлетворяют двойному неравенству: 0<=F(x,y)<=1.2) Функция распределения есть неубывающаяфункция по каждому аргументу:F(x2,y)>=F(x1,y),если х2>x1. F(x,y2)>=F(x,y1),если y2>y1. 3) Имеют место предельные соотношения: 1) F(-бесконечность,у)=0, 2) F(x,-бесконечность)=0, 3) F(-бесконечность,-бесконечность)=0, 4) F(бесконечность, бесконечность)=1. 4) а) при у=бесконечность функция распределениясистемы становится функцией распределения составляющей Х: F(x, бесконечность)=F1(x).Б) при х=бесконечность функция распределения системы становится функциейраспределения составляющей У: F(бесконечность, у)=F2(y).

Вопрос 29

 

Вопрос 30

Корреляционным моментом СВ x и h называется мат. ожидание произведения отклонений этих СВ. mxh=М((x—М(x))*(h—М(h)))

Для вычисления корреляционногомомента может быть использована формула:

mxh=М(x*h)—М(x)*М(h)Доказательство: Поопределению mxh=М((x—М(x))*(h—М(h)))По свойству мат. ожидания

mxh=М(xh—М(h)—hМ(x)+М(x)*М(h))=М(xh)—М(h)*М(x)—М(x)*М(h)+М(x)*М(h)=М(xh)—М(x)*(h)

Предполагая, что x и hнезависимые СВ, тогда mxh=М(xh)—М(x)*М(h)=М(x)*М(h)—М(x)*М(h)=0;      mxh=0.Можно доказать, что если корреляционныймомент=0, то СВ могут быть как зависимыми, так и независимыми. Если mxh не равен 0, то СВ x и hзависимы. Если СВ x и h зависимы, то корреляционный момент можетбыть равным 0 и не равным 0. Можно показать, чтокорреляционный момент характеризует степень линейной зависимости междусоставляющими x и h. При этом корреляционный момент зависит отразмерности самих СВ. Чтобы сделатьхарактеристику линейной связи h независимой от размерностейСВ x и h, вводится коэффициент корреляции:

Кxh=mxh/s(x)*s(h) Коэффициенткорреляции не зависит от разностей СВ h и только показывает степеньлинейной зависимости между x и h, обусловленную только вероятностнымисвойствами x и h. Коэффициенткорреляции определяет наклон прямой на графике в системе координат (x,h)Свойства коэффициента корреляции.

1.   -1<=Кxh<=1

Если Кxh=±1, то линейная зависимостьмежду x и h и они не СВ.

2.   Кxh>0, то с ростом одной составляющей,вторая также в среднем растет.

 Кxh<0,то с убыванием одной составляющей, вторая в среднем убывает.

3.   D(x±h)=D(x)+D(h)±2mxh

Доказательство.

D(x±h)=M((x±h)2)—M2(x±h)=M(x2±2xh+h2)—(M(x)±M(h))2=M(x2)±2M(xh)+M(h2)—+M2(x)+2M(x)*M(h)—M2(h)=D(x)+D(h)±2(M(xh))—M(x)*M(h)=D(x)+D(h)±2mxh   

Вопрос 31

Мат. статистика опираетсяна теорию вероятностей, и ее цель – оценить характеристики генеральнойсовокупности по выборочным данным. Генеральной совокупностью называетсявероятностное пространство {омега,S,P} (т.е.пространство элементарных событий омега с заданным на нем полем событий S ивероятностями Р) и определенная на этом пространстве С.В. Х. Случайной выборкойили просто выборкой объема n называется последовательность Х1, Х2,…,Xn, nнезависимых одинаково распределенных С.В., распределение каждой из которыхсовпадает с распределением исследуемой С.В. Х. Иными словами, случайная выборка– это результат n последовательных и независимых наблюдений над С.В. Х,представляющей генеральную совокупность.

 

Вопрос 32

Расположивэлементы выборки в порядке неубывания, получим вариационный ряд х1 х2, ...-, хп. Если в вариационном ряду есть повто­ряющиеся элементы, то выборку можнозаписать в виде статисти­ческогоряда распределения, т.е.в виде таблицы

 

/>

в которой хi'; (i= 1, 2,..., к) — это варианты(расположенные по возра­станию различныеэлементы выборки), а/>

отвечающиеэтим значениям частости (здесь mi — частота вариан­тых'i, т.е. количество ее появлений в выборке). При этом,очевидно,

/> Кривая распределения частости — это ломаная с вершина­ми (х’i; Pi).

Выборочное среднее (4.1.1) и выборочную дисперсию (4.1.8)при этом можно вычислитьпо формулам

/>

Для непрерывных случайных величин при достаточно боль­ших объемах выборки п вместостатистического ряда распределения используют интервальный вариационный ряд

/>

где v — число интервалов одинаковой ширины h = (xn-x1)/(1+3,322lgn)(х1 и хп — соответственно минимальный и максимальный элементы выборки;зна­чение h рассчитывается с числом знаков после запятой, наединицу большим, чем висходныхданных). Границы интервалов [aj, aj+i) рас­считываются поправилу:    a1=x1-h/2,     а2 = а1 + h,     а3 = а2 + h, ...;

формированиеинтервалов заканчивается, как только для конца av+1 очередного интервала выполняется условие av+1 > хп. Выборочная ча-

стость />где mi — число вариант, попавших в i-й интервал

(i= 1,2, ...,v). Выборочным аналогом плотности распределения fx(x) случайной величины Xслужит выборочная плотность распределения

Вопрос 33

Выборочным аналогомплотности распределения fx(x) случайной величины X служит выборочная плотностьраспределения

/> при х Î[ai; ai+1) (i=1, 2,..., V), ее графикназывается гис­
тограммой, а ломаная с вершинами в точках/>где через
х’=(
ai+ai+1)/2 обозначены середины интервалов, — полигоном частот.

Выборочное среднее и выборочную дисперсиюпри этом вычисляют по формулам (4.2.1), (4.2.2)

соответственно, в которых к = v.

По выборочной плотности распределения  легко построить выборочную функцию распределения, при

этом линия, соединяющая точки/>называется кумулятой

Гистограмма (тонкая линия), полигон частот(полужирная линия) (а) и кумулята (б)

/>

Вопрос 34

Вопрос 35

Прежде всего,от оценки θn хотелось бы требовать, чтобы по мере роста числа наблюдений п онастремилась к оцениваемому параметру, т.е. чтобы для любого сколь угодно малого £>0 было справедли­во предельное равенство

/>

Также от «хорошей» оценки естественно требовать, чтобы онане содержала систематическойошибки, т.е. при любом фиксирован­ном объеме выборки результат осреднения по всем возможным вы­боркам данного объема должен приводитьк точному значению па­раметра:

/>

Наконец, от оценки θn желательно требовать,чтобы она была наиболее точной в некотором классе оценок в, т.е. имела минималь­ную дисперсию:

/>

 

Вопрос 36

Статистической оценкой K * неизвестного параметра K теоретического распределения называютфункцию f(X1,X2,…,Xn) от наблюдаемыхС.В.  X1,X2,…,Xn. Точечной называют статистическую оценку, котораяопределяется одним числом K*=f(x1,x2,…,xn), где х1, х2,…,xn – результаты nнаблюдений над количественным признаком Х (выборка). Несмещенной называютточечную оценку, мат. ожидание которой равно оцениваемому параметру при любомобъеме выборки. Смещенной называют точечную оценку, мат. ожидание которой неравно оцениваемому параметру. Несмещенной оценкой генеральной средней ат.ожидания) служит выборочная средняя: Хв=(сумма по iот 1 до k nixi)/n, где xi – варианта выборки, ni –частота варианты xi, n=суммапо i от 1 до k ni – объем выборки.

Вопрос 37

 

 

Вопрос38

Метод моментовточечной оценки неизвестных параметров заданного распределения состоит вприравнивании теоретических моментов соответствующим эмпирическим моментам тогоже порядка.Если распределениеопределяется одним параметром, то для его отыскания приравнивают одинтеоретический момент одному эмпирическому моменту того же порядка. Например,можно приравнять начальный теоретический момент первого порядка начальномуэмпирическому моменту первого порядка: v1=M1.Учитывая, что v1=M(X)и М1=Хв, получим М(Х)=Хв. Если распределение определяется двумя параметрами, топриравнивают два теоретических момента двум соответствующим эмпирическиммоментам того же порядка. Учитывая, что v1=M(X),M1=Хв, мю=D(X),m2=Dв,имеем систему: М(Х)=Хв, D(X)=Dв.

Метод наибольшегоправдоподобия точечной оценки неизвестных параметров заданного распределениясводится к отысканию максимума функции одного или нескольких оцениваемых параметров.Д.С.В. Пусть Х – Д.С.В.,которая в результате nопытов приняла возможные значения х1, х2,…,xn. Допустим, что вид закона распределения величины Х задан, нонеизвестен параметр K, которым определяетсяэтот закон; требуется найти его точечную оценку K*=K(x1,x2,…,xn). Обозначим вероятность того, что в результате испытания величина Хпримет значение xiчерез р(xi;K). Функцией правдоподобия Д.С.В. Х называют функциюаргумента K: L(x1,x2,…,xn;K)=p(x1;K)*p(x2;K)…p(xn;K). Оценкой наибольшего правдоподобия параметра Kназывают такое его значение K*, при котором функция правдоподобия достигаетмаксимума. Функции Lи lnLдостигают максимумапри одном и том же значении K, поэтомувместо отыскания максимума функции Lищут,что удобнее, максимум функции lnL. Н.С.В. Пусть Х –Н.С.В., которая в результате nиспытаний принялазначения х1, х2,…,xn. Допустим, что вид плотности распределения – функции f(x)– задан, но неизвестен параметр K, которымопределяется эта функция. Функцией правдоподобия Н.С.В. Х называют функцию аргументаK: L(x1,x2,…,xn;K)=f(x1;K)*f(x2;K)…f(xn;K).

Вопрос 39

Интервальной называют оценку, которая определяетсядвумя числами – концами интервала, покрывающего оцениваемый параметр.Доверительный интервал – это интервал, который с заданной надежностью гаммапокрывает заданный параметр

Интервальной оценкой (снадежностью гамма) среднего квадратического отклонения сигма нормальнораспределенного количественного признака  Х по «исправленному» выборочномусреднему квадратическому отклонению sслужитдоверительный интервал s(1-q)<сигма<s(1+q),при q<1; 0<сигма<s(1+q),при q>1. 3. Интервальной оценкой ( с надежностью гамма)неизвестной вероятности  р биномиального распределения по относительной частотеwслужит доверительный интервал ( с приближеннымиконцами р1 и р2).

 

Вопрос 40

Интервальной называютоценку, которая определяется двумя числами – концами интервала, покрывающегооцениваемый параметр. Доверительный интервал – это интервал, который с заданнойнадежностью гамма покрывает заданный параметр. 1. Интервальной оценкой снадежностью гамма мат. ожидания а нормально распределенного количественногопризнака Х по выборочной средней Хв при известном среднем квадратическомотклонении сигма генеральной совокупности служит доверительный интервал: Хв – t(сигма/корень из n)<a<Хв+t(сигма/корень из n), где t(сигма/корень из n)=дельта – точность оценки, n– объем выборки, t – значение аргумента функцииЛапласа Ф(t), при котором Ф(t)=гамма/2; при неизвестном сигма (и объеме выборки n<30) Хв – t гамма (s/корень из n)<a<Хв+t гамма (s/корень из n), где s-исправленное выборочное среднее квадратическое отклонение

Вопрос 41

Вопрос 42

В статистикерассматриваются гипотезы двух типов:

1.   Параметрические – гипотезы о значении параметра известногораспределения;

2.   Непараметрические – гипотезы о виде распределения.

Обычно выделяют основнуюгипотезу – нулевую (H0). Пример: математическое ожидание признака x, который распределен по нормальному законуи дисперсия его известна, а H0: M(x)= a. Предполагаем, что известна дисперсия Конкурирующая гипотеза имеет вид: H1: M(x)¹ a;  

H1: M(x) > a, либоH1: M(x) = a1. Для проверки гипотезиспользуются критерии, и они представляют собой специальным образом подобранныеСВ, k – точечный или приближенный закон, который известен.

 

 

 

/> 

 

 

 

 

 

 

 

 

 

 

 


Обычно предполагается, чтоесли гипотеза Н0 выполняется, то вычисляемая по выборочным данным kнабл. Этогокритерия и гипотеза Н0 принимается, если kнабл.Î (kкритич. левостор.; kкритич. правостор.) Если kнабл. попадает в критическую область (всеостальные значения k Î(- ¥; kкритич. лев.) È (kкритич. прав.; ¥), то гипотеза Н0 отвергается ипринимается конкурирующая гипотеза Н1. При этомвозможны ошибки двух типов: Первого рода: чтогипотеза Н0 отвергается, в то время, как она верна. Вероятность этой ошибки: P(H1/H0) = a- уровень значимости критерия. Критерийподбирается так, чтобы a былакак можно меньше. Второго рода: что отвергаетсягипотеза Н1, в то время, как она верна. b = P(H0/H1) Мощностьюкритерия – (1-b) — вероятность попасть точке-выборке в критическое множество, когда вернаконкурирующая гипотеза.

1-b = P(H1/H1)

 

Вопрос 43

Вопрос 44

По независимым выборкам,объемы которых n1, n2, извлеченным изнормальных генеральных совокупностей, найдены исправленные выборочные дисперсииs^2*xи s^2*y.   Требуетсясравнить эти дисперсии.

Правило I. Для того чтобы при заданном уровне значимости α,проверить нулевую гипотезу HQ: D(X) = D(Y) о равенстве генераль­ных дисперсий нормальныхсовокупностей при конкурирующей гипо­тезе Ho: D (X) > D (Y), надовычислить наблюдаемое значение критерия   (отношение  большей исправленнойдисперсии к меньшей)

/>

и по таблице критических точекраспределения ФишераСнедекора, позаданному уровню значимости а и числам степеней свободы k1=n1—1, k2 = n2—1 (k1число степеней свободы большей исправ­ленной дисперсии)найти критическую точку FKР(a; k1, k2). Если Fнабл < Fкр—нетоснований отвергнуть нулевую гипотезу. Если Fна, л > Fкр — нулевуюгипотезу отвергают.

Правило 2. При конкурирующей гипотезе Н1: D(X)¹D(Y) критическуюточку FKP (α/2; k1 ,k2) ищут поуровню значимости а/2 (вдвое меньшемузаданного) и числам степеней свободы k1 и k2 (k1число степенейсвободы, большей дисперсии). Если FHАБЛ < Fкр — нет оснований отвергнуть нулевую гипотезу. Если Fнабл > Fкр — нулевую гипотезу отвергают.

 

Вопрос 45

Вопрос 46

Разобьем множество возможных значений случайной величины X Hav разрядов (для непрерывной случайной величины роль раз­рядов играют интервалы значений, а длядискретной — отдел ь-ные возможные значения или их группы).Выдвинем нулевую гипо­тезуНо: Fx(x) = Fтеор(x) (состоящую в том, что генеральная совокуп­ность распределена по закону Fтеор(x)) при альтернативной гипотезе Н1: Fx(x) ¹ FTeop(x). Одним из критериев согласия выборочного и тео­ретического распределений (т.е.критериев соответствия генеральной совокупности определенному закону распределения) является кри­терий X^2 (критерий Пирсона), который основывается на том, что рас­пределение статистики

/>

(гдел, — число попаданий элементов выборки в i-й разряд, п — общее число элементов выборки, apiтеop— теоретическая вероятность попа­дания случайной величины Х в i-и разряд при условии истинности нулевой гипотезы) не зависит отвыдвинутой гипотезы и определяет­ся только числом степеней свободы k = v —l — 1, где v — число разря­дов, аl— число оцениваемых параметров. Формулызакона распреде­ленияслучайной величины X^2довольно сложны, и мы их приводить не будем, но для этого распределения составлены таблицы значений X^2k;y таких, что Р{X2 < X^2k;y } =γ (табл. П. 3).

Если выбрать уровень значимости а, то надежность γ = 1 — а = — Р{X2 < X^2k;y } и критическаяобласть определяется неравенством X2 набл< X^2k;y

Обратимвнимание на то, что критерий Пирсона можно использо­вать только в том случае, когда nртеор³5, поэтому разряды, для кото-, рых это условие не выполняется,необходимо объединить с соседними.

 

Вопрос 47

С помощью методов регрессионного анализа строятся ипроверяются модели, характеризующие связь между одной эндогенной (зависимой)переменной и одной или более экзогенными (независимыми) переменными.Независимые переменные называются регрессором.

Направленностьсвязи между переменными определяется путем предварительного обоснования ивключается в модель в качестве исходной гипотезы. Задача регрессионного анализа– проверка статистической состоятельности модели, если данная гипотеза верна.Регрессионный анализ не в состоянии «доказать» гипотезу, он может лишьподтвердить ее статистически или отвергнуть.

Методнаименьших квадратов (МНК, англ. Ordinary Least Squares, OLS) является одним изосновных методов определения параметров регрессионных уравнений, дающийнаилучшие линейные несмещенные оценки (теорема Гаусса­–Маркова).

Методнаименьших квадратов заключается в том, чтобы определить вид кривой, характеркоторой в наибольшей степени соответствует эмпирическим данным. Такая криваядолжна обеспечить наименьшее значение суммы квадратов отклонений эмпирическихзначений величин показателя от значений, вычисленных согласно уравнению этойкривой:

Уравнение линейной регрессии. Обычно признак Y рассматривается как функция многихаргументов — x1, x2, x3, ...— и можетбыть записана в виде:

y = a + bx1 + cx2 + dx3 +… ,

где: а, b, с и d —параметры уравнения, определяющие соотношение между аргументами и функцией. Впрактике учитываются не все, а лишь некоторые аргументы, в простейшем случае,как при описании линейной регрессии, — всего один: y = a + bx
В этом уравнении параметр а — свободный член; графически он представляетотрезок ординаты (у) в системе прямоугольных координат. Параметр bназывается коэффициентом регрессии. С точки зрения аналитической геометрии b—угловой коэффициент, определяющий наклон линии регрессии по отношению к осям,координат. В области регрессионного анализа этот параметр показывает, наскольков среднем величина одного признака (Y) изменяется при изменении наединицу меры другого корреляционно связанного с Y признака X.

Коэффициенты уравнения парнойлинейной регрессии. В случае линейнойзависимости уравнение регрессии является уравнением прямой линии. Такихуравнений два: Y = a1 + by/xX — прямое и X = a2+ bx/yY — обратное, где: a и b – коэффициенты, илипараметры, которые надлежит определить.
Значение коэффициентов регрессии вычисляется по формуле:

/>
/>

Коэффициенты регрессии bимеют размерность, равную отношению размерностей изучаемых показателей Xи Y, и тот же знак, что и коэффициент корреляции.
Коэффициенты а определяются по формуле:

/>
 />

Определение параметров парнойлинейной регрессии


Определение параметров линейной регрессии – одна из задач регрессионногоанализа. Она решается способом наименьших квадратов, основанным на требовании,чтобы сумма квадратов отклонений вариант от линии регрессии была наименьшей.Этому требованию удовлетворяет следующая система нормальных уравнений:

/>
/> 

Формулы для определения параметрова иb принимают следующие выражения:

/>
 />

Уравнение линейной регрессии можновыразить в виде отклонений вариант от их средних арифметических:

/>
/>

В таком случае система нормальныхуравнений для определения параметров а и b будет следующая:

/>
/>

Система уравнений парной линейнойрегрессии:

/>
/>

Эти уравнения удобны дляопределения параметров при отыскивании эмпирических уравнений регрессии впрактической работе для точности прогнозирования результатов.

 

Вопрос 49

Временным рядом будем называть таблицу, в верхней строке которой находитсясчетное множество моментов времени   (с постоянной дискретностью, напр.t=2, 5, 8, 11,...), в нижней — значение некоторого показателя Y. Предположим,без ограничения общности, что Y является функцией времени. Все другие факторы,кроме времени, оказывающие влияние на Y, аккумулируем и считаем. что онипредставляют собой случайный процесс Z(t), математическое ожидание которогоравно нулю. Таким образом   Yt=f(t)+Z(t).  Функция f(t) — детерминированная составляющая, она   называется трендом.

еще рефераты
Еще работы по математике