Реферат: Теория вероятностей

ЧОП ИнститутЭкономики Управления и права.

Альметьевский филиал.Экономический факультет.

Кафедра «Финансыи кредит».

Реферат

по дициплинеТеория вероятностей

Выполнила: студентка Ӏ-гокурса 101гр

Фахреева ЛейсанИрековна.

Проверила:

Мельниченко ЯнинаИвановна.

2011 год


Введение

Теория вероятностей является однимиз классических разделов математики. Она имеет длительную историю.Вероятностные и статистические методы в настоящее время глубоко проникли вприложения. Они используются в физике, технике, экономке, биологии и медицине.Особенно возросла их роль в связи с развитием вычислительной техники. Например,для изучения физических явлений производят наблюдения или опыты. Их результатыобычно регистрируют в виде значений некоторых наблюдаемых величин. Приповторении опытов мы обнаруживаем разброс их результатов. Например, повторяяизмерения одной и той же величины одним и тем же прибором при сохраненииопределенных условий (температура, влажность и т.п.), мы получаем результаты,которые хоть немного, но все же отличаются друг от друга. Даже многократныеизмерения не дают возможности точно предсказать результат следующего измерения.В этом смысле говорят, что результат измерения есть величина случайная.

Случай, случайность — с ними мывстречаемся повседневно: случайная встреча, случайная поломка, случайнаянаходки, случайная ошибка. Этот ряд можно продолжать бесконечно. Казалось бы,тут лет места для математики—какие уж законы в царстве Случая! Но и здесь наукаобнаружила интересные закономерности—они позволяют человеку уверенночувствовать себя при встреча со случайными событиями.

Как наука теория вероятностизародилась в 17в. Возникновение понятия вероятности было связано как спотребностями страхования, получившего значительное распространение в ту эпоху,когда заметно росли торговые связи и морские путешествия, так и в связи сзапросами азартных игр. Слово «азарт», под которым обычно понимается сильноеувлечение, горячность, является транскрипцией французского слова hazard,буквально означающего «случай», «риск».

Азартными называют те игры, а которыхвыигрыш зависит главным образом не от умения игрока, а от случайности. Схемаазартных игр была очень проста и могла быть подвергнута всестороннемулогическому анализу. Первые попытки этого рода связаны с именами известныхучёных—алгебраиста Джероламо Кардана (1501- 1576) и Галилео Галилея (1564—1642).Однако честь открытия этой теории, которая не только даёт возможностьсравнивать случайные величины, но и производить определенные математическиеоперации с ними, принадлежит двум выдающимися ученым—Блезу Паскалю (1623—1662)и Пьеру Ферма. Ещё в древности было замечено, что имеются явления, которыеобладают особенностью: при малом числе наблюдений над ними не наблюдаетсяникакой правильности, но по мере увеличения числа наблюдений всё яснеепроявляется определенная закономерность. Всё началось с игры в кости.


 

1. Основное положение теории

Теория вероятности –это наука, занимающаяся изучением закономерностей массовых случайных явлений.Такие же закономерности, только в более узкой предметной областисоциально-экономических явлений, изучает статистика. Между этими наукамиимеется общность методологии и высокая степень взаимосвязи. Практически любыевыводы сделанные статистикой рассматриваются как вероятностные. Особеннонаглядно вероятностный характер статистических исследований проявляется ввыборочном методе, поскольку любой вывод сделанный по результатам выборкиоценивается с заданной вероятностью. С развитием рынка постепенно сращиваетсявероятность и статистика, особенно наглядно это проявляется в управлениирисками, товарными запасами, портфелем ценных бумаг и т.п. За рубежом теориявероятности и математическая статистика применятся очень широко. В нашей странепока широко применяется в управлении качеством продукции, поэтому распространениеи внедрение в практику методов теории вероятности актуальная задача. Как ужеговорилось, понятие вероятности события определяется для массовых явлений или,точнее, для однородных массовых операций. Однородная массовая операция состоитиз многократного повторения подобных между собой единичных операций, или, какговорят, испытаний. Каждое отдельное испытание заключается в том, что создаетсяопределенный комплекс условий, существенных для данной массовой операции. Впринципе должно быть возможным воспроизводить эту совокупность условийнеограниченное число раз.

Пример1. При бросанииигральной кости «наудачу» существенным условием является только то,что кость бросается на стол, а все остальные обстоятельства (начальнаяскорость, давление и температура воздуха, окраска стола и т. д.) в расчет непринимаются.

Пример 2. Стрелокмногократно стреляет в определенную мишень с данного расстояния из положения«стоя»; каждый отдельный выстрел является испытанием в массовойоперации стрельбы в данных условиях. Если же стрелку разрешено при разныхвыстрелах менять положение («стоя», «лежа», «сколена»), то предыдущие условия существенно изменяются и следует говоритьо массовой операции стрельбы с данного расстояния.

2. Абстракция событий

В математике событие – это любойобъект или явление, которое может появиться или не появиться при определенныхусловиях. Причем создание этих условий не является обязательной причинойпоявления ожидаемого явления.

Различают невозможные, возможные идостоверные события.

Невозможные события – никогда непоявляются при данных условиях (правильнее говорить, что вероятность появлениятакого события бесконечно мала).

Достоверные события – появляютсявсегда, если имеют место соответствующие условия. В данном случае междуусловиями и событиями однозначная причинно – следственная связь.

Возможные события – события,которые при одних и тех же условиях могут появляться, а могут не появляться, тоесть создание условий в данном случае не гарантирует наступления события, чтосвидетельствует о неоднозначных или не прямых причинно – следственных связяхмежду условиями и ожидаемыми событиями.

При изучении возможных событийвозникает понятие частоты появления таких событий при многократном повторениинаблюдений.

Частота события – это число случаевпоявления возможного события при определенных условиях. Очевидно, что это числоf = 0,1,2,3…,n, где f – обозначениечастоты, а n – ее максимально возможное значение. Также очевидно,что если f = n, то событие является достоверным, то есть наступает всегда.

Частота является простой малоточноймерой возможности. Более точной мерой возможности наступления события являетсяотносительная частоты (частость) – p=f/n

Так как 0≤f≤n, то0≤p≤1, в данном случае n – общее числонаблюдений или испытаний (иногда говорят шансов), а f – числослучаев наступления возможного события.

 

3. Статистическое определение вероятности

Наиболее точной мерой возможностиявляется предел относительной частоты (частости) при неограниченном увеличениичисла испытаний. Его называют статистической вероятностью.

Р = lim ( m/n )

n→∞

Такое определениеявляется чисто теоретическим, так как на практике неограниченное увеличениечисла испытаний не возможно.

При подсчете числа элементарныхисходов, составляющих события в классической схеме, часто используютсяизвестные формулы комбинаторики. Каждая из комбинаторных формул определяетобщее число элементарных исходов в некотором идеализированном эксперименте повыбору наудачу m элементов из n различных элементов исходногомножества E = {e1, e2, ..., en}.

При постановке каждого такогоэксперимента строго оговорено, каким способом производится выбор и чтопонимается под различными выборками. Существуют две принципиально отличныесхемы выбора: в первой схеме выбор осуществляется без возвращения элементов(это значит, что отбираются либо сразу все m элементов,либо последовательно по одному элементу, причем каждый отобранный элементисключается из исходного множества). Во второй схеме выбор осуществляетсяпоэлементно с обязательным возвращением отобранного элемента на каждом шаге итщательным перемешиванием исходного множества перед следующим выбором. Послетого, как выбор тем или иным способом осуществлен, отобранные элементы (или ихномера) могут быть либо упорядочены (т.е. выложены в последовательную цепочку),либо нет. В результате получаются следующие четыре различные постановкиэксперимента по выбору наудачу m элементов из общего числа n различныхэлементов множества Е.

А. Схема выбора, приводящая ксочетаниям

Если опыт состоит в выборе mэлементов без возвращения и без упорядочивания, то различными исходами следуетсчитать m-элементные подмножества множества E,имеющие различный состав. Получаемые при этом комбинации элементов(элементарные исходы) носят название сочетания из n элементов по m, аих общее число N(W) определяется по формуле:

Cmn = n!/[m!(n — m)!] =n(n — 1)...(n — m + 1)/m!.

Для чисел Cmn, называемыхтакже биномиальными коэффициентами, справедливы следующие тождества, часто оказывающиесяполезными при решении задач:

Cmn = Cn-mn (свойство симметрии),

Ckn+1 = Ckn + Ck-1n; C0n = 1 (рекуррентное соотношение),

C0n + C1n +… + Cnn = 2n (следствиебиномиальной формулы Ньютона).


Пример 1. Множество Е содержит 10первых букв русского алфавита. Сколько различных алфавитов из трех букв можносоставить из данного множества букв? Какова вероятность того, что случайновыбранный алфавит будет содержать букву «a»?

Решение Число различных алфавитовравно числу трехэлементных подмножеств множества Е (числу сочетаний из 10элементов по 3):

N(W) = C310= 10×9×8/(1×2×3) = 120.

Пусть событие A — случайно выбранный алфавит из трех букв, содержащий букву «a». Число элементовмножества А равно числу всех возможных способов отобрать две буквы из девяти(из десяти букв исключена буква «a»), т.е. равно числу сочетаний из 9 элементовпо 2: N(A) = C29 = 9×8/2 = 36.

Таким образом,

Р(A) = N(A)/N(W) = 36/120 = 0,3.

Б. Схема выбора, приводящая кразмещениям

Если опыт состоит в выборе mэлементов без возвращения, но с упорядочиванием их по мере выбора впоследовательную цепочку, то различными исходами данного опыта будутупорядоченные m-элементные подмножества множества Е, отличающиеся либо наборомэлементов, либо порядком их следования. Получаемые при этом комбинацииэлементов (элементарные исходы) называются размещениями из nэлементов по m, а их общее число N(W) определяетсяформулой:

Amn = Cmn×m! = n!/(n — m)! = n(n — 1)...(n — m + 1).


Если n = m, тоопыт фактически состоит в произвольном упорядочивании множества Е, т.е.сводится к случайной перестановке элементов всего множества. Тогда N(W) = Ann = n!.

Пример 2. Группа, состоящая из 8человек, занимает места за круглым столом в случайном порядке. Какова вероятностьтого, что при этом два определенных лица окажутся сидящими рядом?

Решение. Так как упорядочиваетсявсе множество из 8 элементов, то N(W) = A88 = 40320. Событию А благоприятствуют такиеразмещения, когда два отмеченных лица сидят рядом: всего 8 различных соседнихпар мест за круглым столом, на каждой из которых отмеченные лица могут сестьдвумя способами, при этом остальные 6 человек размещаются на оставшиеся местапроизвольно, поэтому по формуле о числе элементов прямого произведения множествполучаем N(A) = 2×8×6!.. Следовательно Р(A) = N(A)/N(W) = 2/7.

В. Схема выбора, приводящая ксочетаниям с повторениями

Если опыт состоит в выборе свозвращением m элементов множества E = {e1, e2,..., en}, но без последующего упорядочивания, то различнымиисходами такого опыта будут всевозможные m-элементныенаборы, отличающиеся составом. При этом отдельные наборы могут содержатьповторяющиеся элементы. Например, при m = 4 наборы {e1, e1, e2, e1} и{e2, e1, e1, e1} неразличимы для данного эксперимента, а набор {e1,e1, e3, e1} отличен от любого из предыдущих. Получающиеся врезультате данного опыта комбинации называются сочетаниями с повторениями, а ихобщее число определяется формулой N(W) = Cmn+m-1.

Пример 3. В библиотеке имеютсякниги по 16 разделам науки. Поступили очередные четыре заказа на литературу.Считая, что любой состав заказанной литературы равновозможен, найти вероятностиследующих событий: А — заказаны книги из различных разделов наук, В — заказаныкниги из одного и того же раздела науки.

Решение. Число всех равновероятныхисходов данного эксперимента равно, очевидно, числу сочетаний с повторениями из16 элементов по 4, т.е. N(W)= C416+4-1= C419.

Число исходов, благоприятствующихсобытию A, равно числу способов отобрать без возвращения четыреэлемента из 16, поэтому Р(A) = N(A)/N(W) = C416/C419 » 0,47.

Число исходов, благоприятствующихсобытию В, равно числу способов выбрать один элемент из 16, поэтому Р(A) = N(A)/N(W) = C116/C419 » 0,004.

Г. Схема выбора, приводящая кразмещениям с повторениями

Если выбор m элементов измножества E = {e1, e2, ..., en},производится с возвращением и с упорядочиванием их в последовательную цепочку,то различными исходами будут всевозможные m-элементныенаборы (вообще говоря, с повторениями), отличающиеся либо составом элементов,либо порядком их следования. Например, при m = 4 наборы{e1, e1, e2, e1}, {e2, e1, e1, e1} и {e1, e1,e3, e1} являются различными исходами данного опыта.Получаемые в результате различные комбинации называются размещениями, сповторениями, а их общее число определяется формулой

N(W)= nm.

Пример 4. Опыт состоит вчетырехкратном выборе с возвращением одной из букв алфавита E ={а, б, к, о, м} и выкладывании слова в порядке поступления букв. Каковавероятность того, что в результате будет выложено слово «мама»?

Решение. Число элементов множества,равновероятных исходов равно числу размещений с повторениями из 5 элементов по4 т.е. N(W)= 54. Слову «мама»соответствует лишь один возможный исход. Поэтому Р(A) = N(A)/N(W) = 1/54 » 0,0016.

Д. Схема упорядоченных разбиений

Пусть множество Eсостоит из m различных элементов. Рассмотрим опыт, состоящий вразбиении множества E случайным образом на s подмножествE1, E2, ..., Es таким образом, что:

1. Множество Еiсодержит ровно ni элементов, где i = 1, 2, ..., s.

2. Множества Еiупорядочены по количеству элементов ni.

3. Множества Еi,содержащие одинаковое количество элементов, упорядочиваются произвольнымобразом. Например, при n = 7, n1 = 2, n2 = 2, n3 = 3 разбиения{E1 = {e1, е2}, Е2 = {e3, е4}, Е3 = {e5,е6, e7}} и {E1 ={e3, е4}, Е2 ={e1,е2}, Е3 = {e5, е6, e7}} являются различными исходамиданного опыта.

Число всех элементарных исходов вданном опыте определяется формулой

N(W) = n!/(n1! × n2! ×… × ns!).

Пример 5. Десять приезжих мужчин,среди которых Петров и Иванов, размещаются в гостинице в два трехместных и одинчетырехместный номер. Сколько существует способов их размещения? Каковавероятность того, что Петров и Иванов попадут в четырехместный номер?

Решение. Разбиения в данном опытехарактеризуются следующими параметрами: s = 3, n =10, n1 = 3, n2 = 3, n3 = 4. Тогда N(W) = 10!/(3!×3!×4!) = 4200.

Пусть событие А — Петров и Ивановпопадут в одни четырехместный номер. Благоприятствующие событию А исходысоответствуют разбиениям со следующими параметрами: s = 3, n =8, n1 = 3, n2 = 3, n3 = 2. Тогда N(A) =8!/(3!×3!×2!) = 560. Искомая вероятностьР(A) = N(A)/N(W) = 560/4200 = 2/15.


 

4. Классическое определение вероятности

Введение этого понятия произошло не врезультате однократного действия, а заняло длительный промежуток времени, в течениикоторого происходило совершенствование формулировки.Классическое определениевероятности было подготовлено исследованиями Граунта и Петти, результатыкоторых убедительно показали преимущества понятия частоты перед понятиемчисленности. Понятие частоты, т.е. отношения числа опытов, в которых появлялосьданное событие, к числу всех проведённых опытов, позволяет получитьпрактические выводы, тогда как рассмотрение численностей оставляетисследователя в состоянии неопределённости.

Классическое определение вероятности (ввесьма несовершенной форме) впервые появляется у Я.Бернулли, в его сочинении«Искусство предположений» (1713). В первой главе четвёртой части этой книги онписал: Вероятность же есть степень достоверности и отличается от неё, как частьот целого». В эту формулировку Я. Бернулли вкладывал современный смысл, чтовидно из его последующих слов: «Именно, если полная и безусловнаядостоверность, обозначаемая нами буквой α или 1(единицей), будет, дляпримера, предположена состоящий из пяти вероятностей, как бы частей, из которыхтри благоприятствуют существованию или осуществлению какого-либо события,остальные же не благоприятствуют, то будет говориться, что это событие имеет3α/5 или 3/5 достоверности». В дальнейшем он писал об отношении числа благоприятствующихслучаев к числу всех возможных, предполагая эти случаи равновозможными, носпециально не оговаривая этого. Из этого высказываний следует, что Бернулливладел и статистическим понятием вероятности. Им было введено в рассмотрение ииспользование понятие вероятности случайного события как числа, заключённогомежду 0 и 1. Достоверному событию приписывалось единица (максимальное значение),а невозможному — нуль (минимальное значение). Было ясно сказано, что это числоможет быть определено двумя способами:1)как отношение числа случаев, благоприятствующихданному событию, к числу всех равновозможных случаев; 2)как частота события припроведении большого числа независимых испытаний. Можно сказать, что с этогомомента начинается история теории вероятностей.

5. Геометрическая вероятность

В 1692 г.в Лондоне был издан английскийперевод книги Х. Гюйгенса «О расчётах азартных играх».Переводчик книги –математик, врач и сатирик

Д.Арбутнов(1667-1735) добавил несколькозадач, среди которых оказалась задача совсем иной природы, по сравнению с теми,которые рассматривались автором. Задача Арбутнота состояла в следующем: наплоскость наудачу бросают прямоугольный параллелепипед с рёбрами, равными а, в,с; как часто параллелепипед будет выпадать гранью ав? Решение задачи даноТ.Симпсоном (1710-1761) в книге «Природа и закон случая» (1740). Им предложенаследующая идея решения. Опишем около параллелепипеда сферу и спроектируем изцентра на её поверхность все рёбра, боковые грани и основания. В результатеповерхность сферы будет разбита на шесть непересекающихся областей,соответствующих граням параллелепипеда. Симпсон подвёл итог: « Нетруднозаметить, что определённая часть сферической поверхности, ограниченнаятраекторией, описанной таким образом радиусом, будет находится в таком жеотношении к общей площади поверхности, как вероятность появления некоторойграни к единице». Сказанное в полной мере выражает принцип разысканиягеометрических вероятностей: вводится мера множества благоприятствующих событиюслучаев и рассматривается её отношение к мере множества всех возможных случаев.В данном случае полная мера сводится к площади поверхности шара.

Французский естествоиспытатель Бюффон(1707-1788), член Парижской академии наук (1733) и почётный член Петербургской академиинаук (1766), дважды публиковал работы, посвящённые геометрическим вероятностям(1733,1777).Он рассматривал следующие задачи: 1)пол разграфлен на одинаковыефигуры (прямоугольники); на пол бросается монета, диаметр которой 2r меньшекаждой из сторон прямоугольника, и монета целиком укладывается внутрь фигуры;чему равна вероятность того, что брошенная наудачу монета пересечёт одну илидве стороны фигуры? 2) на плоскость, разграфленную равноотстоящимипараллельными прямыми, наудачу бросается игла; один игрок утверждает, что иглапересечёт одну из прямых, другой – что не пересечёт; определить вероятностьвыигрыша каждого игрока;3) тот же вопрос для случая, когда игла бросается наплоскость, разграфленную на квадраты. После Бюффона задачи на геометрические вероятностистали систематически включатся в монографии и учёбные пособия по теориивероятностей.

6. Алгебра событий

закономерностьслучайный теория вероятность

Аксиоматическое определениевероятности.

Более верным математическиопределением вероятности, чем классическое, является аксиоматическоеопределение. Здесь события рассматриваются как элементы некоего конечного илибесконечного множества Ω. Для простоты возьмем конечное множество Ω=(w1,w2,…,wn),где wi это элементы множества Ω. Это множество Ωназывают пространством элементарных событий, а его элементы wi –элементарными событиями.

Рассматривают такое подмножество F(Ω),которое обладает свойством ΩЄF. Событие Ө — пустоемножество обозначим как невозможное событие ӨЄF(Ω).Тогда несовместимые события А и В будут определяться как


А ∩ В = Ө

(∩ — знак объединениямножеств, U – пресечение множеств)

Тогда если ӨЄF,для любых событий АЄF и ВЄF верно следующее соотношение А∩ВЄF, АUВЄF

Такое множество F –называют алгебра событий.

Вероятностью события А называюттакую числовую функцию Р(А), определенную на алгебре событий F,для которой справедливы следующие аксиомы:

1. Для любого АЄFверно Р(А)≥0 – аксиома неотрицательности.

2. Р(Ω)=1 – аксиоманормированности.

3. Если АЄF и ВЄFнесовместимы (то есть А∩В=Ө), то Р(АUВ)=Р(А)+Р(В) –аксиома аддитивности.

7. Формула Бейеса

Пусть мы знаемвероятности событий А и В: Р(А) и Р(В). И пусть мы знаем условную вероятностьсобытия А по В: Р(A|B). Как найти условную вероятность P(B|A)? На этот вопросотвечает формула Бейеса. Р(B|A)=P(A|B)·P(B)/P(A) (1) Разумеется этой формулойможно пользоваться только при условии, что Р(А)0. Формула Бейеса выводится изследующих равенств: Р(ВА)=Р(В|A)·P(A) (2) Р(AB)=Р(A|B)·P(B) (3) Р(ВА)=Р(AB) (4)так как пересечение событий В и А очевидно не зависит от порядка, в которомзаписаны А и В, т.е. ВА=AB. В случае Р(А)=0 принимаю обычно, что Р(В|A) естьвеличина неопределенная. 8.Формула полной вероятности.

Пусть имеем полнуюгруппу из n попарно непересекающихся событий />Тоесть

/>,/>/>, (6)


Пусть мы знаем условныевероятности некоторого события А по Еi: Р(А|Ei) и вероятности Р(Ei), i=1,...,n.Справедлива следующая формула полной вероятности для события А Р(А)=Р(A|E1)·P(E1)+...+P(A|En)·P(En)(7) Доказательство этой формулы вытекает из следующих равенств P(A)=P()=P(A(Ei))=P(AE1)+...+P(AEn)=Р(A|E1)·P(E1)+...+P(A|En)·P(En)(8) Из элементарной формулы Бейеса (1) и формулы полной вероятности (7)вытекает следующая более полная формула Бейеса

Р(Еi|A)=P(A|Ei)·P(Ei)/(Р(A|E1)·P(E1)+...+P(A|En)·P(En))(9)/>

8. Полная группасобытий

Несовместимые события –события, наступление которых одновременно при одном и том же опыте (испытании)невозможно. Например, выпадение двух граней кубика при одном броске невозможноесобытие.

Полная группа событий –совокупность однородных несовместимых событий, наступление одного из которыхобязательно. Для примера с игральным кубиком полная группа событий будетвыпадение каждой из шести граней.

И по классическому и поаксиоматическому определению вероятности очевидно, что вероятность наступлениялюбого случайного события А будет равна 0<Р(А)<1. Краевые значения 0 и 1будут определять неслучайные события – их делят на:

невозможные – ( Р(А)=0 или Р(Ө)=0)– наступление которых при данных условиях невозможно

достоверные – (Р(А)=1) –наступление которых при данных условиях обязательно.

Для несовместимых событий легкоопределить вероятность объединения (суммы) событий. Если Аi приi Є (1, n) несовместимые события, товероятность суммы событий Аi равна сумме их частных вероятностей.

Р(А1+А2+,…,+Аn)= Р(А1)+Р(А2)+…+Р(Аn)

 

9. Независимость событий

Событие А называется независимым отсобытия В, если наступление события А не оказывает никакого влияния навероятность наступления события В.Вероятность одновременного наступления двухнезависимых событий равна произведению вероятностей этих событий.

Р(АВ) = Р(А)*Р(В) или Р(А1, А2,…, Аn) =Р(А1)*Р(А2)*…*Р(Аn)

Учитывая независимость событий ивозможность появления двух событий одновременно тогда вероятность суммы двухнезависимых событий А и В более точно находят следующим образом:

Р(А+В) = Р(А) + Р(В) – Р(АВ),

где Р(АВ) – вероятность иходновременного появления

 

10. Условность событий

Безусловные события рассматриваютсявне конкретных условий и обозначаются просто буквами А, В, С и т.д.

Условные события – рассматриваютсяпри наступлении других событий. Они обозначаются например А/В – событие А приусловии наступления события В и т.д.

Условную вероятность события А принаступлении события В находят следующим образом:

Р(А/В)=Р(АВ)/Р(В), если Р(В) ≠0

С помощью условных и безусловныхвероятностей можно корректно определить зависимость или независимость событий.

События А, В и С называютнезависимыми если их безусловные вероятности равны их условным вероятностям:

Р(А)=Р(А/В)=Р(А/С)=Р(А/ВС)

Р(В)=Р(В/А)=Р(В/С)=Р(В/АС)

Р(С)=Р(С/А)=Р(С/В)=Р(С/АВ)

Это так называемое условиенезависимости событий. Если это условие нарушается, то события зависимы. Чембольше различия, тем сильнее зависимость.

Если рассмотреть вероятностьсовмещения (произведения) двух событий с учетом условности, то есть еслипринять что событие А наступает при условии наступления события В, товероятность совмещения можно записать двумя способами:

Р(АВ)=Р(А)*Р(В/А)

Р(АВ)=Р(В)*Р(А/В)

Если брать три события, токоличество способов, которыми можно записать вероятность их совмещениявозрастает до двенадцати и т.д.


 

11. Понятие случайной величины

Случайная величина – величина,значение которой получается в результате пересчета или измерений и не можетбыть однозначно определено условиями его возникновения.

То есть случайная величинапредставляет собой числовые случайные события.

Случайные величины подразделяют надва класса:

Дискретные случайные величины –значения этих величин представляют собой натуральные числа, которым какотдельным событиям сопоставляются частоты и вероятности.

Непрерывные случайные величины –могут принимать любые значения из некоторого промежутка (интервала). Учитывая,что на промежутке от Х1 до Х2 числовых значений бесконечное множество, товероятность того, что случайная величина ХiЄ(Х1, Х2) приметопределенное значение, бесконечно мала. Учитывая, что невозможно перечислитьвсе значения непрерывной случайной величины, на практике пользуются среднимзначением интервала (Х1, Х2).

Для дискретных случайных величинфункция у=Р(х) — называется функцией распределения случайной величины и имеет график– его называют многоугольник распределения.

Различают следующие группы числовыххарактеристик: характеристики положения (математическое ожидание, мода,медиана, квантиль и др.), рассеивания (дисперсия, среднеквадратичное отклонениеи др.), характеристики формы плотности распределения (показатель асимметрии,эксцесса и др.).

Математическим ожиданием (среднимзначением по распределению) называется действительное число, определяемое взависимости от типа СВ Х формулой:


mX = M[X] = />

Математическое ожидание существует,если ряд (соответственно интеграл) в правой части формулы сходится абсолютно.Если mX = 0, то СВ Х называется центрированной (обозначается />).

Свойства математического ожидания:

M[C] = C,

где С — константа;

M[C×X] = C×M[X];

M[X+Y] = M[X]+M[Y],

для любых СВ X и Y;

M[X×Y] = M[X]×M[Y] + KXY,

где KXY = M[/>/>] — ковариация СВ X и Y.

Начальным моментом k-гопорядка (k = 0, 1, 2, ...) распределения СВ Х называетсядействительное число, определяемое по формуле:

nk = M[Xk] =/>


Центральным моментом k-гопорядка распределения СВ Х называется число, определяемое по формуле:

mk = M[(X-mX)k]=/>

Из определений моментов, вчастности, следует, что: n0 = m0 = 1, n1 = mX, m2 = DX = sX2.

Модой СВНТ называетсядействительное число Mo(X) = x*, определяемое как точка максимума ПР f(x).Мода может иметь единственное значение (унимодальное распределение) или иметьмножество значений (мультимодальное распределение).

Медианой СВНТ называетсядействительное число Mе(X) = x0, удовлетворяющее условию: P{X < x0} = P{X ³ x0} или F(x0) =0,5.

Квантилем уровня р называетсядействительное число tp, удовлетворяющее уравнению: F(tp) =p. В частности, из определения медианы следует, что x0 = t0,5.

Дисперсией СВ Х называетсянеотрицательное число D[X] = DХ, определяемое формулой:

DX = M[(X-mX)2] = M[X2] — mX2 = />

Дисперсия существует, если ряд(соответственно интеграл) в правой части равенства сходится. Свойствадисперсии:

D[C] = 0, где С — константа;

D[C×X] = C2×D[X];

D[X-C] = D[X],

дисперсия, очевидно, не меняется отсмещения СВ X;

D[X + Y] = D[X] + D[Y] +2×KXY,

где KXY = M[/>/>] — ковариация СВ X и Y;

/>

Неотрицательное число sХ = /> называетсясреднеквадратичным отклонением СВ X. Оно имеет размерность СВ Х и определяетнекоторый стандартный среднеквадратичный интервал рассеивания, симметричныйотносительно математического ожидания. (Величину sХ иногданазывают стандартным отклонением). СВ Х называется стандартизованной, если mX =0 и sХ = 1. Если величина Х = const (т.е. Х неслучайна), то D[X] = 0.

Показателем асимметрии ПР являетсякоэффициент асимметрии (“скошенности”) распределения: A = m3/s3X.Показателем эксцесса ПР является коэффициент эксцесса (“островершинности”)распределения: E = (m4/s4X)-3. В частности, для нормального распределения E =0.

/>/>


Упорядочная совокупность nслучайных величин (СВ) Х1, Х2, ..., Хn, рассматриваемых совместно вданном опыте, называется n-мерной СВ или случайным вектором и обозначается /> = (Х1, Х2,..., Хn).

Функцией распределения (ФР)n-мерного случайного вектора называется функция n действительных переменных х1,x2, ..., xn, определяемая как вероятность совместного выполненияn неравенств: F(x1, x2,… xn) = P{ X1 < x1, X2 < x2,..., Xn < xn}. В частности, для двумерногослучайного вектора (X, Y) по определению ФР имеем: F(x, y) = P{X < x, Y < y}. ФР F (х, у) обладает следующимисвойствами:

1.  0£F(x, у) £1;

2.  F(x,у) — неубывающая функция своих аргументов;

3. /> /> /> />

4. /> />

Свойство 4 обычно называют условиемсогласованности. Оно означает, что ФР отдельных компонент случайного векторамогут быть найдены предельным переходом из функции совместного распределенияэтих компонент. Вероятность попадания случайной точки на плоскости (X, Y) впрямоугольник со сторонами, параллельными осям координат, может быть вычисленас помощью ФР по формуле:

P{x1 £ X < x2, y1 £ Y < y2} = F(x1, y1)+ F(x2, y2)- F(x1, y2)- F(x2, y1).

Двумерный случайный вектор (X,Y)называется случайным вектором дискретного типа (СВДТ), если множество еговозможных значений G(x, y) не более чем счетно. Ее закон распределения можнозадать двумерной таблицей из перечня возможных значений пар компонент {(хi, yi) | (хi, yi) Î G(x, y)} исоответствующих каждой такой паре вероятностей pij = P{X = xi, Y = yj},удовлетворяющих условию />

Двумерный случайный вектор (X, Y)называется случайным вектором непрерывного типа (СВНТ), если существует такаянеотрицательная функция f(x, y) называемая плотностью распределения (ПР)вероятностей случайного вектора, что:

f(x, y) = />, тогда F(x, y) =/>.

ПР вероятностей обладает следующимисвойствами:

f(x, y) ³ 0, (x, y) Î R2;

/> - условие нормировки.

ПР вероятностей отдельных компонентслучайного вектора выражаются в виде интегралов от совместной плотности:

f(x) =/>f(y) =/>.

Вероятность попадания случайнойточки в произвольную квадрируемую область S на плоскости определяется поформуле

P{(X, Y) Î S}=/>.

Условной плотностью распределениявероятностей случайной компоненты X при условии, что компонента Yприняла определенное значение у, называется функция f(x/y)действительной переменной х Î R: f(x/y) = f(x, y)/f(y).Аналогично определяется условная плотностью распределения вероятностей случайнойкомпоненты Y при условии, что компонента X принялаопределенное значение x: f(y/x) = f(x, y)/f(x). СВ X1, X2, ..., Хn называютсянезависимыми (в совокупности), если для событий {Xi Î Bi}, i = 1, 2, ..., n, где B1, B2,… Bn — подмножества числовой прямой, выполняетсяравенство: P{X1 Î B1, X2 Î B2,… Xn Î Bn} = P{X1 Î B1}× P{X2 Î B2}×… ×P{Xn Î Bn}.

Теорема: СВ X1, Х2,… Хnнезависимы тогда и только тогда, когда в любой точке x = (x1, x2,..., xn) имеет место равенство: F(x1, x2,..., xn) = F(x1) × F (x2) ×… × F (xn)(или f(x1, x2, ..., xn) = f(x1) × f(x2) ×… × f(xn)).

Для двумерного случайного вектора(X, Y) вводятся следующие числовые характеристики.

Начальным моментом порядка r + sслучайного вектора (X, Y) называется действительное число nr,s,определяемое формулой:

nr,s = M[Xr Ys] = />

Начальный момент nr,sсуществует, если интеграл (соответственно ряд) в правой части равенстваабсолютно сходится. В частности, nr,0 = M[Xr] — соответствующие начальные моменты компоненты X.Вектор с неслучайными координатами (mX, mY) = (n1,0, n0,1) называетсяматематическим ожиданием случайного вектора (X, Y) или центром рассеивания.

Центральным моментом порядка r + sслучайного вектора (X, Y) называется действительное число mr,sопределяемое формулой


mr,s = M[(X-mX)r (Y-mY)s] = />

Центральный момент mr,s существует, если интеграл(соответственно ряд) в правой части равенства абсолютно сходится. Вектор снеслучайными координатами (DX, DY) = (m2,0, m0,2) называется дисперсией случайного вектора.

Центральный момент m1,1 называется корреляционным моментом (ковариацией): KXY =M[/>/>] = M[(X-mX)×(Y-mY)] = M[XY]-mX mY.

Коэффициентом корреляции двух случайныхкомпонентов X и Y случайного вектора является нормированная ковариация

rXY = KXY/(sXsY).

Свойства ковариации (и коэффициентакорреляции):

KXX = DX, KYY = DY, (rXX = rYY = 1);

KXY = KYX, (rXY = rYX);

|KXY| £ />, (|rXY | £ 1).

Ковариационный момент и коэффициенткорреляции определяет степень линейной зависимости между X и Y.Условие |rXY | = 1 необходимо и достаточно, чтобы СВ X и Yбыли связаны линейной зависимостью Х = a×Y + b, где a и b — константы. СВ, для которых KXY = 0 (rXY = 0),называются некоррелированными. Из независимости случайных величин Х и Yвытекает их некоррелированность (обратное, вообще говоря, неверно).

Условным математическим ожиданиемкомпоненты Х при условии, что Y приняла одно из своих возможных значений yj,называется действительное число определяемое формулой:

mX/Y = M[X/Y = yj] = />

где Р{X = xi /Y = yj} =/>, pij = Р{X = xi ,Y = yj}.

Условной дисперсией компоненты Хпри условии, что Y приняла одно из своих возможных значений yj,называется действительное число определяемое формулой:

DX/Y = D[X/Y = yj] = />

Приведенные выше формулы длячисловых характеристик двумерного случайного вектора без труда обобщаются наслучай n-мерного случайного вектора (Х1, Х2, ..., Хn). Так,например, вектор с неслучайными координатами (m1, m2, ..., mn),где mi — математическое ожидание СВ Хi,определяемое формулой

mi = M[Xi] =/>,

называется центром, рассеиванияслучайного вектора.

Ковариационной матрицей n-мерногослучайного вектора /> = (Х1, Х2, ..., Хn)называется симметрическая матрица, элементы которой представляют собойковариации соответствующих пар компонент случайного вектора:


K= />,

где Кij= M[/>/>] — ковариация i-й и j-йкомпонент.

Очевидно, что Кii= М[Xi2] -дисперсия i-йкомпоненты.

Корреляционной матрицей n-мерного случайного вектора называется симметрическаяматрица, составленная из коэффициентов корреляции соответствующих пар компонентслучайного вектора:

C= />, rij= /> — коэффициенткорреляции i-й и j-йкомпоненты.


Заключение

Таким образом,рассмотрев теорию вероятности, ее историю и положения и возможности, можноутверждать, что возникновение данной теории не было случайным явлением вынауке, а было вызвано необходимостью дальнейшего развития технологии икибернетики, поскольку существующее программное управление не может помочьчеловеку в создании таких кибернетических машин, которые, подобно человеку, будутмыслить самостоятельно. И именно теория вероятности может способствоватьпоявлению искусственного разума. «Процессы управления, где бы они ни протекали– живых организмах, машинах или обществе,- происходят по одним и тем жезаконам», — провозгласила кибернетика. А значит, и те, пусть еще не познанныедо конца, процессы, что протекают в голове человека и позволяют ему гибкоприспосабливаться к изменяющейся обстановке, можно воспроизвести искусственно всложных автоматических устройствах. Важнейшим понятиемматематики является понятие функции, но почти всегда речь шла об однозначнойфункции, у которой одному значению аргумента соответствует только одно значениефункции и функциональная связь между ними четко определенная. Однако вреальности происходят случайные явления, и многие события имеют не определенныйхарактер связей. Поиск закономерностей в случайных явлениях — это задачараздела математики теория вероятности. Теория вероятности является инструментомдля изучения скрытых и неоднозначных связей различных явлений во многихотраслях науки, техники и экономики.

Теория вероятности позволяетдостоверно вычислить колебания спроса, предложения, цен и других экономическихпоказателей. Также теория вероятности является основой такой науки какстатистика. На формулах этого раздела математики построено так называемаятеория игр.


Список литературы

1. Беляев Ю.К. и Носко В.П. «Основныепонятия и задачи математической статистики.» — М.: Изд-во МГУ, ЧеРо, 2006.

2. В.Е. Гмурман «Теория вероятностейи математическая статистика. — М.: Высшая школа, 1997.

3. Корн Г., Корн Т. «Справочник поматематике для научных работников и инженеров. — СПБ: Издательство “Лань” 2003.

4. Пехелецкий И. Д. «Математикаучебник для студентов.» — М. Академия, 2003.

5. Суходольский В.Г. «Лекции повысшей математике для гуманитариев.» — СПБ Издательство Санкт — Петербургскогогосударственного университета. 2003;

6. Гнеденко Б. В. иХинчин А. Я. « Элементарное введение в теорию вероятностей» 3 изд., М. — Л.,1952.

7. Гнеденко Б. В.«Курс теории вероятностей» 4 изд., М., 1965.

8. Феллер В. «Введение в теорию вероятностей и её приложение» (Дискретные распределения),пер. с англ., 2 изд., т. 1-2, М., 1967.

9. Бернштейн С. Н. «Теория вероятностей» 4 изд., М. — Л., 1946

10. Для подготовкиданной работы были использованы материалы с сайта med-lib.ru/

11. Для подготовкиданной работы были использованы материалы с сайта www.neuch.ru/

еще рефераты
Еще работы по математике