Реферат: Математическая статистика

ИДА                                                        Кривой Рог                                                          IBM

Частное Учебное Заведение

Институт Делового Администрирования

Private  Educational Institution

Institute of Business Managment

 Кафедра информационныхсистем

 и

высшей математики

Математическая cтатистика  

     

                                  <img src="/cache/referats/3270/image002.gif" v:shapes="_x0000_i1025"> 

@      Конспект лекций?

для специальностей УА, ФК  1995

©  Г.И. Корнилов  $

ÿ<span Wide Latin",«serif»">1997

ÿ1.1.1Основные определения

Несмотря на многообразие используемых влитературе определений термина “статистика”, суть большинства из них сводитсяк  тому, что статистикой чаще всегоназывают науку, изучающую методы сбора и обработки фактов и данных вобласти человеческой деятельности и природных явлений.

В нашем курсе, который можно считатьвведением в курс “Экономическая статистика”, речь будет идти о так называемой прикладнойстатистике, <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">-

т.е. только о сущностиспециальных методов сбора, обработки и анализа информации и, кроме того, опрактических приемах выполнения связанных с этим расчетов.

Великому американскому сатирику О’Генрипринадлежит ироническое определение статистики: “Есть три вида лжи <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

просто ложь, ложь злостная и…статистика!”.  Попробуемразобраться  в причинах, побудившихнаписать эти слова.

Практически всему живому на земле присущевоспринимать окружающую среду как непрерывную последовательность фактов,событий. Этим же свойством обладают и люди, с той лишь разницей, что только имдано анализировать поступающую информацию и (хотя и не всем из них это удается)делать выводы из такого анализа и учитывать их в своей сознательнойдеятельности.  Поэтому можно смелоутверждать, что во все времена, все люди занимались и занимаютсястатистическими “исследованиями”, даже не зная иногда такого слова <span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">-

“статистика”.

Все наши наблюдения над окружающем нас миромможно условно разделить на два класса:

<span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">·

наблюдения за фактами <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-событиями, которые могут произойти или не произойти;

<span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">·

наблюдения  за физическими величинами, значения которых вмомент наблюдения могут быть различными.

И атеист и верующий в бога человек, скореевсего, согласятся с несколько необычным заявлением <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

в окружающем нас мире происходят только случайныесобытия, а наблюдаемые нами значения всех показателей внешней среды  являются случайными величинами (далеевезде – СВ). Более того, далее будет показано, что иногда можно использоватьтолько одно понятие <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">-случайное событие.

Не задерживаясь на раскрытии философскойсущности термина “случайность” (вполне достаточно обычное, житейское представление),обратимся к чрезвычайно важному понятию <span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">-

вероятность. Этоттермин обычно используют по отношению к событию и определяют числом (от 0 до1), выражающим степень нашей уверенности в том, что данное событие произойдет.События с вероятностью 0 называют невозможными, а события с вероятностью 1 <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-достоверными (хотя это уже ­– неслучайные,детерминированные события).

Иногда в прикладной статистике приходитсяиметь дело с так называемыми редкими (маловероятными) событиями. К ним принятоотносить события, значение вероятности которых не превышает определенногоуровня, чаще всего – 0.05 или 5 %.

В тех случаях, когда профессионалу<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

статистику приходится иметь дело со  случайными величинами, последние часто делятна две разновидности:

<span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">·

дискретные СВ, которыемогут принимать только конкретные, заранее оговоренные значения (например, <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-значения чисел на верхней грани брошеннойигральной кости или порядковые значения текущего месяца);

<span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">·

непрерывные СВ (чаще всего <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-значения некоторых физических величин: веса,расстояния, температуры и т.п.), которые по законам природы могут принимать любыезначения, хотя бы и в некотором интервале.1.2 Вероятности случайных событий

Итак, основным “показателем” любого события(факта) Аявляется численная величинаего вероятности P(A),которая можетпринимать значения  в диапазоне [0…1] <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

в зависимости от того, насколько это событиеслучайно. Такое, смысловое, определение вероятности не дает, однако,возможности указать путь для вычисления ее значения.

Поэтому необходимо иметь и другое, отвечающеетребованиям практической работы, определение термина “вероятность”. Этоопределение можно дать на основании  житейскогоопыта и обычного здравого смысла.

Если мы интересуемся событиемA,то, скорее всего,можем наблюдать, фиксировать факты его появления. Потребность в понятиивероятности и ее вычисления возникнет, очевидно, только тогда, когда мынаблюдаем это событие не каждый раз, либо осознаем, что оно может произойти, аможет не произойти. И в том и другом случае полезно использовать понятиечастоты появления события fA <span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">-

какотношения числа случаев его появления (благоприятных исходов или частостей) кобщему числу наблюдений.

Интуиция подсказывает, что частотанаступления случайного события зависит не только от степени случайности самогособытия. Если мы наблюдали за событием <img src="/cache/referats/3270/image004.gif" v:shapes="_x0000_i1026"> всего пять раз и в трехслучаях это событие произошло, то мало кто примет значение вероятности такогособытия равным 0.6 или 60 %. Скорее всего, особенно в случаях необходимостипринятия каких–то важных,  дорогостоящихрешений любой из нас продолжит наблюдения. Здравый смысл подсказывает нам, чтоуж если в 100 наблюдениях событие <img src="/cache/referats/3270/image004.gif" v:shapes="_x0000_i1027"> произошло 14 раз, то мыможем с куда большей уверенностью полагать его вероятность равной 14 % .

Таким образом,  мы (конечно же, <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

не первые) сформулировали второе определениепонятия вероятности события <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">-  как предела, к которому стремится частотанаблюдения за событием при непрерывном увеличении числа наблюдений. Теориявероятностей, специальный раздел математики, доказывает существование такогопредела и сходимость частоты к вероятности при стремлении числа наблюдений кбесконечности. Это положение носит название центральной предельной теоремыили закона больших чисел.

Итак, первый ответ на вопрос <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

как найти вероятность события, у нас ужеесть. Надо проводить эксперимент и устанавливать частоту наблюдений, котораятем точнее  даст  нам вероятность, чем больше наблюдений мыимеем.    

Ну,   акак быть, если эксперимент невозможен (дорог, опасен или меняет суть процессов,которые нас интересуют)?  Иными словами,нет ли другого пути вычисления вероятности событий, без проведенияэкспериментов?

Такой путь есть, хотя, как ни парадоксально,он все равно основан на опыте, опыте жизни, опыте логических рассуждений. Врядли кто либо будет производить эксперименты, подбрасывая несколько сотен илитысячу раз симметричную монетку, чтобы выяснить вероятность появления герба приодном бросании!  Вы будете совершенноправы, если без эксперимента найдете вероятность выпадения цифры 6 на симметричнойигральной кости и т.д., и т.п.

Этот путь называется статистическиммоделированием – использованием схемы случайных событий и с успехомиспользуется во многих приложениях теоретической и прикладной статистики.Продемонстрируем этот путь, рассматривая вопрос о вероятностях случайныхвеличин дальше. Обозначим <img src="/cache/referats/3270/image006.gif" v:shapes="_x0000_i1028"> величину вероятности того,что событие A не произойдет. Тогда из определения вероятности через частотунаступления события следует,    что

P(A)+<img src="/cache/referats/3270/image006.gif" v:shapes="_x0000_i1029"> =1,                                                                                                                      {1–1}

что полезно читать так <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

вероятность того, что событие произойдетили  не произойдет, равна 100 %,поскольку третьего варианта попросту нет.

Подобные логическиерассуждения приведут нас к более общей формуле <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

сложения вероятностей.Пусть некоторое случайное событие может произойти только в одном из 5вариантов, т.е. пусть имеется система из трех несовместимых событий A, B иC . 

Тогда очевидно, что:

P(A) + P(B) + P(C) =1;                                                               {1–2} и столь же  простыерассуждения приведут к выражению для вероятности наступления одного из двух несовместимыхсобытий (например, A  или B):

P(A<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">È

B) =P(A) + P(B);                                                                                         {1–3}или одного из трех:

P(A<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">È

B<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">ÈC) =P(A) + P(B) + P(C);                                                                 {1-4} и так далее.

Рассмотрим чуть болеесложный пример. Пусть нам надо найти вероятность события C, заключающегося втом, что при подбрасывании двух разных монет мы получим герб на первой (событиеA) и на второй(событие B).Здесь речь идет о совместном наступлении двух независимых событий, т.е. насинтересует вероятность  P(C) =P(A<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">Ç

B).

И здесь метод построениясхемы событий оказывается чудесным помощником <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

можно достаточно простодоказать, что

P(A<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">Ç

B) =P(A)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">·P(B).                                                                     {1-5}          Конечно же, формулы {1-4} и {1-5}годятся для любого количества событий: лишь бы они были несовместными в первомслучае и независимыми во втором.

Наконец, возникаютситуации, когда случайные события оказываются взаимно зависимыми. В этихслучаях приходится различать условные вероятности:

P(A / B) –  вероятность A   приусловии, чтоBуже произошло;

P(A / <img src="/cache/referats/3270/image009.gif" v:shapes="_x0000_i1030"> – вероятность A   приусловии, что Bне произошло,

 называя P(A)   безусловной или полной вероятностью события A.

Выясним вначале связьбезусловной вероятности события с условными. Так как событие A   можетпроизойти только в двух,  взаимоисключающих вариантах, то, в соответствии с {1–3} получается, что

P(A) =P(A/B)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">·

P(B) + P(A/)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">·P(<img src="/cache/referats/3270/image009.gif" v:shapes="_x0000_i1031">                                            {1–6}

Вероятности P(A/B) и P(A/<img src="/cache/referats/3270/image009.gif" v:shapes="_x0000_i1032">часто называют апостериорными (“a posteriopri” –после того, как…), а безусловную вероятность P(A) – априорной (“a priori” – до того, как…).

Очевидно, что если первымсчитается событие Bи оно уже произошло, то теперь наступление события A   ужене зависит от Bи поэтому вероятность того, что произойдут оба события составит

P(A<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">Ç

B) =P(A/B)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">·P(B).                                                                                          {1–7}           Так как события взаимозависимы, томожно повторить наши выводы и получить

P(B) =P(B/A)<span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">·

P(A) + P(B/<img src="/cache/referats/3270/image012.gif" v:shapes="_x0000_i1033"><span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">·P(<img src="/cache/referats/3270/image012.gif" v:shapes="_x0000_i1034">                                                          {1–8}

а также  P(A<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">Ç

B) =P(B/A)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">·P(A).                                                    {1–9}

Мы доказали так называемую теорему Байеса 

P(A/B)<span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">·

P(B)=P(B/A)<span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">·P(B);                                                      {1–10} – весьма важное средство анализа, особенно в областипроверки гипотез и решения вопросов управления на базе методов прикладнойстатистики.

Подведем некоторые итогирассмотрения вопроса о вероятностях случайных событий.     У нас имеются только две возможности узнать что либо о величиневероятности случайного события A:

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

применить методстатистического моделирования <span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">- построить схему данного случайного события и (если унас есть основания считать, что мы правильно ее строим) и найти значение вероятностипрямым расчетом;

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

применить методстатистического испытания <span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">- наблюдать за появлением события и затем по частоте егопоявления оценить вероятность.

На практике приходитсяиспользовать оба метода, поскольку очень редко можно быть абсолютно уверенным впримененной схеме события (недостаток метода моделирования)  и столь же редко частота появления событиядостаточно быстро стабилизируется с ростом числа наблюдений (недостаток методаиспытаний).

2. Распределения  вероятностей случайных величин2.1Шкалированиеслучайных величин

Как уже отмечалось,дискретной называют величину, которая может принимать одно из счетногомножества так называемых “допустимых” значений. Примеров дискретных величин, укоторых есть некоторая именованная единица измерения,  можно привести достаточно много.

Прежде всего, надо учестьтот факт что все физические величины (вес, расстояния, площади, объемы и т.д.)теоретически могут принимать бесчисленное множество значений, но практически <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">-

только те значения, которые мы можем установить измерительными приборами. А этозначит, что в прикладной статистике вполне допустимо распространить понятиедискретных СВ на все без исключения численные описания величин, имеющих единицыизмерения.

Вместе с тем надо незабывать, что некоторые СВ просто не имеют количественного описания, естественныхединиц измерения (уровень знаний, качество продукции и т. п.).

Покажем, что для решениявопроса о “единицах измерения” любых СВ, с которыми приходится иметь дело вприкладной статистике, достаточно использовать четыре вида шкал.

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

Nom. Первой изних рассмотрим так называемую номинальную шкалу —  применяемую к тем величинам, которые не имеютприродной единицы измерения. В ряде случаев нам приходится считать случайнымитакие показатели предметов или явлений окружающего нас  мира, как марка автомобиля; национальностьчеловека или его пол, социальное положение; цвет некоторого изделия и т.п.

В таких ситуациях можноговорить о случайном событии <span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">-

«входящий в магазин посетитель оказалсямужчиной», но вполне допустимо рассматривать пол посетителя как дискретнуюСВ, которая приняла одно из допустимых значений на своей номинальной шкале.

Итак, если  некоторая величина может принимать на своей номинальной шкале значения X, Y или Z, то допустимымисчитаются только выражения типа: X # Y, X=Z, в то время как выражения  типаX <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">³

Z, X + Z  не имеют никакого смысла.

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

Ord. Второйспособ шкалирования – использование порядковых шкал. Они незаменимы дляСВ, не имеющих природных единиц измерения, но  позволяющих применять понятияпредпочтения одного значения другому. Типичный пример: оценки знаний (даже при числовом описании), служебные уровни ит. п.  Для таких величин разрешены нетолько отношения равенства(= или #),но и знаки предпочтения(> или <).Очень часто порядковые шкалы называют ранговыми и  говорят о рангах значений  таких величин.

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

Int.  Для СВ, имеющих  натуральные размерности(единицы измерения в прямом смысле слова), используется интервальнаяшкала. Для таких величин, кроме отношений равенства и предпочтения, допустимыоперации сравнения – т. е. все четыре действия арифметики. Главная особенностьтаких шкал заключается в том, что разность двух значений на шкале (36 и 12)имеет один смысл для любого места шкалы (28 и 4). Вместе с тем на интервальной шкале не имеют никакого смыслаотрицательные значения, <span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">- если это веса предметов, возраст людей и подобные импоказатели.

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

Rel. Если СВ имеетестественную единицу измерения (например, <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">- температура по шкалеЦельсия) и ее отрицательные значения столь же допустимы, как и положительные,то шкалу для такой величины называют относительной.

Методы использованияописанных шкал относится к специальному разделу – так называемой непараметрическойстатистике и обеспечивают, по крайней мере, два неоспоримых преимущества.

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

Появляется возможностьсовместного рассмотрения нескольких СВ совершенно разной природы (возраст людейи их национальная принадлежность, марка телевизора и его стоимость) на единойплатформе <span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">-положения каждой из величин на своей собственной шкале.

<span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">·

Если мы сталкиваемся с СВнепрерывной природы, то использование интервальной или относительной шкалы позволит нам иметь дело не со  случайными величинами, а со случайнымисобытиями —  типа “вероятность того, чтовес продукции находится в интервале 17 Кг”. Появляется возможность примененияединого подхода к описанию всех интересующих нас показателей при статистическомподходе к явлениям окружающего нас мира.  2.2Законыраспределений дискретных случайных величин.

Пусть некоторая СВ являетсядискретной, т.е. может принимать лишь фиксированные (на некоторой шкале)значения Xi. В этом случае ряд значений вероятностей P(Xi)длявсех (i=1…n) допустимых значенийэтой величины называют её законом распределения.  

В самом деле, <span Times New Roman";mso-hansi-font-family: «Times New Roman»;mso-char-type:symbol;mso-symbol-font-family:Symbol">-

такой ряд содержит всю информацию  о СВ,это максимум наших знаний о ней.  Другоедело, <span Times New Roman"; mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol;mso-symbol-font-family: Symbol">-откуда мы можем получить эту информацию, как найти закон распределения?  Попытаемся ответить на этот принципиальноважный вопрос, используя уже рассмотренное понятие вероятности.

Точно также, как и длявероятности случайного события, для закона распределения СВ есть только двапути его отыскания. Либо мы строим схему случайного события и находим аналитическоевыражение (формулу) вычисления вероятности (возможно, кто–то уже сделал илисделает это за нас!), либо придется использовать эксперимент и по частотамнаблюдений делать какие–то предположения (выдвигать гипотезы) о законераспределения.

Заметим, что во второмслучае нас будет ожидать новый вопрос, <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

а какова уверенность втом, что наша гипотеза верна? Какова, выражаясь языком статистики, вероятностьошибки при принятии гипотезы или при её отбрасывании?

Продемонстрируем первыйпуть отыскания закона распределения.

Пусть  важной для нас случайной величиной являетсяцелое число, образуемое по следующему правилу: мы трижды бросаем симметричнуюмонетку, выпадение герба считаем числом 1 (в противном случае 0) и после трех бросаний определяемсумму S.

Ясно, что эта сумма можетпринимать  любое значение  в диапазоне 0…3, но всё же <span Times New Roman";mso-hansi-font-family:«Times New Roman»; mso-char-type:symbol;mso-symbol-font-family:Symbol">-

каковы вероятности P(S=0), P(S=1), P(S=2), P(S=3); что можно о нихсказать, кроме очевидного вывода <span Times New Roman";mso-hansi-font-family:«Times New Roman»;mso-char-type:symbol; mso-symbol-font-family:Symbol">- их сумма равна 1?

Попробуем построить схемуинтересующих нас событий. Обозначим через p вероятность получить 1 в любом бросании, ачерез q=(1–p) вероятностьполучить 0.Сообразим, что всего комбинаций ровно8 (или 23),  а поскольку монетка симметрична, то вероятность получить любую комбин

еще рефераты
Еще работы по математике