Lekciya21

Page 1

1

ЛЕКЦІЯ

№ 21

з навчальної дисципліни

”Основи вищої математики та теорії ймовірностей” напряму підготовки ”Соціологія” освітньо-кваліфікаційного рівня бакалавр спеціальності _____________________________________________________

Лекція розроблена викладачем кафедри ВМ ДУІКТ (2011р) Омецінською О.Б.

Тема:.

Закони розподілу суми, різниці, добутку незалежних випадкових

величин. Числові (невипадкові) характеристики випадкової величини. Важливі розподіли дискретних та неперервних випадкових величин. Закон великих чисел. Основний зміст 1. Поняття незалежності випадкових величин. Закони розподілу суми, різниці, добутку незалежних випадкових величин. 2. Числові характеристики випадкової величини. 2.1. Характеристики положення: математичне сподівання випадкової величини і його властивості; мода та медіана випадкової величини. 2.2. Характеристики розсіювання: дисперсія та середнє квадратичне відхилення випадкової величини, їхні властивості. 2.3. Початкові та центральні моменти випадкової величини. Характеристики форми: коефіцієнти асиметрії та ексцесу 3. Приклади деяких важливих для практики розподілів дискретних випадкових величин. 4. Закон великих чисел. Центральна гранична теорема


2

Текст лекції 1. Поняття незалежності випадкових величин. Закони розподілу суми, різниці, добутку незалежних випадкових величин. Означення 1. Дві випадкові величини називають незалежними, якщо закон розподілу однієї з них не змінюється від того, якого саме із своїх можливих значень набула інша величина. Наприклад, якщо дискретна випадкова величина X може набувати значення хі (і=1,2,…n), а випадкова величина Y – значення уj (j=1,2,…m), то незалежність випадкових величин X і Y означає незалежність подій X=хі й Y=уj (за будь-яких і=1,2,…n та j=1,2,…m). Інакше, випадкові величини називають залежними. Дане

визначення

незалежності

випадкових

величин

еквівалентне

наступному, справедливому як для дискретних так і для неперервних випадкових величин. Означення 2. Випадкові величини X і Y називаються незалежними, якщо для всіх можливих дійсних х, y справедлива рівність P { ( X < x) ∩ (Y < y )} = P ( X < x) ×P (Y < y ) ,

(1)

тобто для всіх можливих дійсних х, y події ( X < x);(Y < y ) – незалежні. Алгебраїчні операції над випадковими величинами Нехай дано дві дискретні випадкові величини X і Y у вигляді рядів розподілу: X Р

х1 р1

х2 р2

… …

хі рі

… …

хn рn

Y Р

у1 g1

у2 g2

… …

уj gj

… …

уm gm

Означення 3. Сумою (різницею або добутком) дискретних випадкових величин X та Y називається випадкова величина, яка набуває всіх можливих значень вигляду хі+уj (хі−уj або хі⋅уj) (де і=1,2,…n; j=1,2,… m) із імовірностями ріj того, що випадкова величина X набуде значення хі, а Y – значення уj :


3

ріj=Р[(X=хі)⋅(Y=уj)].

(2)

Якщо випадкові величини X та Y незалежні, тобто незалежними є події X=хі й Y=уj за будь яких значень і=1,2,…n; j=1,2,… m, то за теоремою множення ймовірностей незалежних подій: ріj=Р(X=хі)⋅Р(Y=уj)=рі⋅gj.

(3)

Із визначення добутку випадкових величин випливає наступне: 1) m–им степенем дискретної випадкової величини X, тобто Xт, називається випадкова величина, яка набуває значень хіт з тими самими ймовірностями рі, (i = 1, 2,..., n) , що й сама величина X; 2) добутком kX дискретної випадкової величини X на сталу величину k називають випадкову величину, яка набуває значень kхі з тими самими ймовірностями рі, (i = 1, 2,..., n) , що й сама величина X, оскільки сталу k можна розглядати як випадкову величину, що з імовірністю, яка дорівнює одиниці, набуває значення k. Для суми та добутку випадкових величин, кількість яких більша двох, мають місце переставний, сполучний та розподільний закони. Означення 4. Дискретні випадкові величини Х1, Х2,…, Хn називаються незалежними в сукупності, якщо закон розподілу кожної з них не змінюється від того, яких саме із їхніх можливих значень набувають всі інші випадкові величини чи випадкові величини довільної комбінації із довільної кількості цих величин. За побудови закону розподілу суми скажімо 3-х випадкових величин незалежних в сукупності, X+Y+Z, за теоремою множення ймовірностей незалежних в сукупності подій дістанемо: ріjs=Р[(X=хі)⋅(Y=уj)⋅(Z=zs)]=Р(X=хі)⋅Р(Y=уj)⋅Р(Z=zs).

(4)

Приклад 1. Задано закони розподілів двох незалежних випадкових величин X і Y: X

0

2

5


4

Р

0,5

Y Р

-2 0,1

0,2 0 0,2

0,3

2 0,4

3 0,3

Знайти закони розподілів випадкових величин: а) U=3X; б) V=Y2; в) Z=X–Y. ▼ а) Можливі значення випадкової величини U=3X будуть: U=3X

0

6

15

Р

0,5

0,3

0,2 3⋅0; 3⋅2; 3⋅5

з тими самими ймовірностями, що й для величини Х: 0,5; 0,3; 0,2.

б) Можливі значення випадкової

V=Y2

0

4

9

Р

0,2

0,5

0,3

величини V=Y2 будуть: ( − 2) 2 = 4, 0 2 = 0, 2 2 = 4, 32 = 9 .

Оскільки

V=4

зустрічається

двічі,

то

P(V = 4) = 0,1 + 0, 4 = 0,5 . в)

Ймовірності

значень

випадкової

величини

Z=X–Y

отримуються

множенням ймовірностей відповідних значень випадкових величин X та Y, оскільки ці величини незалежні. Наприклад, якщо X=5, а Y=3, то випадкова величина

Z=X–Y

набуває

значення

Z=5-3=2

P ( Z = 2) = P ( X = 5) ×P (Y = 3) = 0,3 ×0,3 = 0, 09 .

Серед 12-ти можливих значень (3×4=12) є однакові: Z=Х–Y=0: 0-0=0, 2-2=0;

з

ймовірністю:


5

Z=Х–Y=2: 0-(-2)=2, 2-0=2, 5-3=2. Ймовірності однакових можливих значень додаємо: Р(Z=0)=Р(Х=0)⋅Р(Y=0)+Р(Х=2)⋅Р(Y=2)=0,5⋅0,2+0,2⋅0,4=0,18; Р(Z=2)=Р(Х=0)⋅Р(Y=−2)+Р(Х=2)⋅Р(Y=0)+Р(Х=5)⋅Р(Y=3)=0,5⋅0,1+0,2⋅0,2+ +0,3⋅0,3=0,18. Упорядковуючи можливі значення випадкової величини Х–Y в порядку зростання, отримаємо розподіл випадкової величини Z=Х–Y: Z=Х–Y Р

-3 0,15

-2 0,2

-1 0,06

9

Впевнимось, що

∑p k =1

k

0 0,18

2 0,18

3 0,12

4 0,02

5 0,06

7 0,03

= 0,15 + 0, 2 + 0, 06 + 0,18 + 0,18 + 0,12 + 0, 02 + 0, 06 + 0, 03 = 1 .▲

2. Числові характеристики випадкової величини. Моменти розподілу випадкової величини. Функція

розподілу

ймовірностей

повністю

характеризує

випадкову

величину, проте вона часто є невідомою. На практиці немає потреби так докладно описувати випадкову величину, а достатньо знати лише певні параметри, які несуть про неї істотну інформацію. Ці параметри є невипадковими числовими характеристики випадкової величини. Розлянемо найважливіші з них. 2.1. Характеристики положення: математичне сподівання випадкової величини і його властивості; мода та медіана випадкової величини. Математичне сподівання Означення

5.

Математичним

сподіванням

випадкової

величини

Х,

визначеної на просторі елементарних подій Ω, називають числову характеристику М(Х), яка виражає “середнє зважене за ймовірністю значення” випадкової величини, а саме: якщо простір Ω дискретний, то математичне сподівання M(X) визначається рівністю: ∞

M ( X ) = ∑ xi pi , i =1

(5)


6

Нескінченна сума (4) повинна бути збіжною за модулем, тобто

∑x i =1

i

pi < ∞ .

У випадку обмеженого дискретного простору Ω n

M ( X ) = ∑ xi pi =x1p1+x2p2+…+xnpn.

(6)

i =1

Отже,

математичне

сподівання

дискретної

випадкової

величини

дорівнює сумі добутків усіх її можливих значень на їхні ймовірності. Математичне сподівання неперервної випадкової величини вводиться у такий спосіб. Нехай неперервна випадкова величина Х набуває значень з інтервалу [α;β] і задана щільністю (густиною) розподілу f(x). Розіб’ємо інтервал на n частин: ∆x1 , ∆x2 ,..., ∆xn і виберемо в кожній частині довільно точку хі (i = 1, 2,..n) . Складемо суму добутків можливих значень хі на ймовірності попадання їх в інтервали ∆хі,

n

∑ x ×f ( x )∆x i =1

i

i

i

(добуток f(хі)⋅∆хі приблизно рівний ймовірності

попадання хі в інтервал ∆хі). Перейшовши до границі в останньому виразі, за прямування до нуля найбільшого з інтервалів, отримаємо математичне сподівання неперервної випадкової величини β

M ( X ) = ∫ x ×f ( x)dx ,

(7)

α

Для математичного сподівання неперервної випадкової величини, заданої на всій числовій осі, дістанемо M (X ) =

+∞

∫ x ×f ( x)dx ,

(8)

−∞

якщо цей інтеграл абсолютно збіжний. Властивості математичного сподівання Математичне сподівання має такі властивості: 1. На числовій осі можливі значення випадкової величини X розміщені зліва та справа від математичного сподівання. Тому математичне сподівання


7

називають центром розподілу або середнім значенням випадкової величини. 2. Математичне сподівання від сталої величини С дорівнює самій сталій: М(С)=С, оскільки сталу С можна розглядати як випадкову величину, що з імовірністю, яка дорівнює одиниці, набуває значення С, а тому М(С)=С⋅1=С. 3. Сталий множник можна виносити за знак математичного сподівання: М(СХ)=СМ(Х), n

n

i =1

i =1

Справді, M (CX ) = ∑ (C ×xi ) pi = C ∑ xk pk = CM ( X ) . 4. Математичне сподівання алгебраїчної суми двох незалежних випадкових величин дорівнює алгебраїчній сумі математичних сподівань цих величин: М(Х±Y)=М(Х)±М(Y). 5. Математичне сподівання добутку двох незалежних випадкових величин дорівнює добутку їх математичних сподівань: М(Х⋅Y)=М(Х)⋅М(Y). 6. Із застосуваням сполучного закону додавання та множення, для суми та добутку випадкових величин, кількість яких більша двох, на основі властивостей 4 та 5 дістанемо: математичне сподівання суми (добутку) незалежних в сукупності випадкових величин дорівнює сумі (добутку) математичних сподівань цих величин. Приклад 2. Знайти математичне сподівання суми Х очків, що випадають на верхній грані кожної з трьох підкинутих гральних кубиків. ▼ Можливі значення випадкової величини Х належать дискретній множині {3;4;5;…17;18}. Але немає потреби знаходити ряд розподілу величини Х – недоцільно знаходити ймовірності загалом нерівноможливих подій: Р(Х=3), Р(Х=4),…Р(Х=18). Підемо іншим значно простішим шляхом: Х=Х1+Х2+Х3, де Х1 – випадкова величина, що дорівнює числу очків на 1-му кубику, Х2 і Х3 – відповідно


8

на 2-му і 3-му кубиках. Оскільки Х1, Х2, Х3 – незалежні випадкові величини, то М(Х)=М(Х1)+М(Х2)+М(Х3). Але закони розподілу величин Х1, Х2, Х3 однакові: Хі;і=1,2,3 Р Отже,

1 1/6

2 1/6

3 1/6

4 1/6

5 1/6

М(Хі)=(1+2+3+4+5+6)/6=21/6=7/2,

6 1/6

звідки

дістанемо:

М(Х)=3⋅(7/2)=10,5. ▲ Мода та медіана випадкової величини Мода Мо дискретної величини Х – це таке значення із всіх її можливих значень хі, імовірність якого рі найбільша. Модою неперервного розподілу є те можливе значення Мо випадкової величини, за якого щільність розподілу f(x) має максимум. Якщо ймовірність або щільність ймовірності досягає максимуму не в одній, а в декількох точках, розподіл називають полімодальним. Існують і такі розподіли, які не мають моди. Їх називають антимодальними. Медіаною Ме неперервної випадкової величини Х називають те її можливе значення, для якого виконується рівність імовірностей таких подій: P ( −∞ < X < Me ) = P ( Me < X < ∞ )

⇒ F ( Me) − F (−∞) = F (∞) − F ( Me) ⇒ ⇒ F ( Me) + F ( Me) = F (−∞) + F (∞) = 1 ⇒ F ( Me) =

1 . 2

(9)

Отже, медіаною Ме випадкової величини Х є корінь рівняння

F ( x ) = 0,5. ,

де

F(х) – функція розподілу ймовірностей. Оскільки P ( −∞ < X < Me ) = P ( Me < X < ∞ ) ⇒

Me

−∞

f ( x )dx =

f ( x )dx , то якщо

Me

провести пряму х=Ме на графіку щільності розподілу випадкової величини, то вона поділить площу криволінійної трапеції, яка обмежена згори функцією f(x), а знизу – віссю Оx, на дві рівновеликі частини.


9

2.2. Характеристики розсіювання: дисперсія та середнє квадратичне відхилення випадкової величини, їхні властивості. Математичне сподівання не дає достатньо повної інформації про випадкову величину, оскільки може бути таке, що математичні сподівання випадкових величин однакові, хоча можливі значення цих випадкових величин суттєво відрізняються і випадкові величини мають різний розмах розсіювання відносно математичного сподівання. Тому математичне сподівання називають центром розсіювання. Для того, щоб оцінити міру розсіювання можливих значень випадкової величини навколо її математичного сподівання, використовують числову характеристику, яку називають дисперсією. Розглянемо відхилення випадкової величини Х від її математичного сподівання, тобто випадкову величину Х–М(X). Обчислимо її математичне сподівання: М[Х-М(Х)]=М(Х)-М(Х)=0, бо математичне сподівання випадкової величини є її числовий параметр, тобто стала величина, тому М[М(Х)]=М(Х). Отже, математичне сподівання відхилення дорівнює нулю, оскільки відємні відхилення можливих значень випадкової величини від її математиного сподівання в сумі компенсуються додатними, тому за міру розсіювання випадкової величини навколо її математичного сподівання розглядають не самі відхилення, а математичне сподівання (середнє значення) квадрата відхилення. Означення 6. Дисперсією дискретної випадкової величини називають математичне сподівання квадрата відхилення випадкової величини від її математичного сподівання: D(X)=M[(X–M(X))2]=M(X2)–(M(X))2,

(10)

адже M[X2–2XM(X)+(M(X))2]=M(X2)–2M(X)⋅M(X)+(M(X))2 на підставі того, що математичне сподівання випадкової величини та її квадрата є постійні параметри. Для неперервної випадкової величини Х, що набуває значень з інтервалу [α;β] і задана щільністю (густиною) розподілу f(x), дисперсію знаходять за однією з наступних формул, які як і у випадку формули (7) для


10

математичного сподівання, отримуються на основі формул (9) із застосуванням операції довільного поділу інтервалу [α;β] на n частин ∆xi (i = 1, 2,..n) , подальшого вибору в кожній частині довільно точки хі та граничного переходу у відповідній інтегральній сумі за прямування до нуля найбільшого з інтервалів; при цьому добуток значення щільності розподілу на величину інтервалу, f(хі)⋅∆хі, приблизно рівний ймовірності попадання хі в інтервал ∆хі: β

D( X ) = ∫ ( x − M ( X )) 2 f ( x )dx 2,

(11)

α

або β

D( X ) = ∫ x 2 f ( x)dx − ( M ( X )) 2 .

(12)

α

У випадку неперервної випадкової величини, заданої на всій числовій осі, проміжок [α;β] інтегрування в цих формулах слід замінити на (−∞;+∞). Слід пам’ятати, що дисперсія не може бути від’ємною величиною, D(Х)≥0. Середнє квадратичне відхилення Оскільки дисперсія має розмірність квадрата випадкової величини, за характеристику її розсіювання навколо математичного сподівання беруть середнє квадратичне відхилення σ(X) – корінь квадратний із дисперсії:

σ( X ) = D( X )

(13)

Розмірність σ(X) співпадає з розмірністю випадкової величини X. На графіку щільності розподілу f(x) σ(X) зображається відстанню від М(X) в обидві сторони. Властивості дисперсії випливають із її виначення за формулами (9) та відповідних властивостей мтематичного сподівання. 1. Дисперсія сталої величини С дорівнює нулю: D(С)=0.


11

2. Сталий множник можна виносити за знак дисперсії, попередньо піднісши його до квадрату: D(CX)=С2D(X). 3. Дисперсія суми двох незалежних випадкових величин дорівнює сумі дисперсій цих величин: D(X+Y)=D(X)+D(Y). 4. Дисперсія різниці двох незалежних випадкових величин дорівнює сумі дисперсій цих величин: D(X–Y)=D(X)+D(Y). 5. Із застосуваням сполучного закону додавання, для суми випадкових величин, кількість яких більша двох, на основі властивості дістанемо: дисперсія суми незалежних в сукупності випадкових величин дорівнює сумі дисперсій цих величин. Відповідно, середнє квадратичне відхилення суми скінченого числа взаємно незалежних випадкових величин рівне: σ( X 1 + X 2 + L + X n ) = σ 2 ( X 1 ) + σ 2 ( X 2 ) + ... + σ 2 ( X n ) .

Нормування випадкової величини Якщо від випадкової величини X віднімемо її математичне сподівання, то дістанемо центровану випадкову величину X0, математичне сподівання якої дорівнює нулю: X 0=Х-М(Х).

(14)

Справді, М(X0)=М[X-М(Х)]=М(Х)-М[М(Х)]=М(Х)-М(Х)=0. Ділення випадкової величини на її середнє квадратичне відхилення називається нормуванням цієї випадкової величини. 0 Нормована випадкова величина X =

сподівання й одиничну дисперсію.

X − M (X ) має нульове математичне σ(X )


12

Приклад 3. Знайти математичне сподівання, дисперсію та середнє квадратичне відхилення дискретної випадкової величини X, якщо маємо її ряд розподілу: X Р

0,1 0,4

2 0,2

10 0,15

20 0,25

▼ Знайдемо математичне сподівання випадкової величини X: М(X)=0,1⋅0,4+2⋅0,2+10⋅0,15+20⋅0,25=0,04+0,4+1,5+5=6,94. Знайдемо математичне сподівання випадкової величини X2: М(X2)=0,12⋅0,4+22⋅0,2+102⋅0,15+202⋅0,25=0,004+0,8+15+100=115,804. Знайдемо дисперсію: D(X)=M(X2)–(M(X))2=115,804–(6,94)2=67,6404. Дисперсію ми могли знайти й за іншою формулою: D( X ) = M (( X − M ( X )) 2 ) = (0.1 − 6.94) 2 ×0.4 + (2 − 6.94) 2 ×0.2 + (10 − 6.94) 2 ×0.15 + (20 − 6.94) 2 ×0.25 = 18.71424 + 4.88072 + 1.40454 + 42.6409 = 67, 6404.

Результат той самий. Середнє квадратичне відхилення дорівнює:

σ( X ) = D( X ) = 67, 6404 ≈ 8, 224 .▲ Приклад 4. Неперервну випадкову величину X задано щільністю розподілу: 0, x ≤ 0,  f ( x ) = 0.5sin x, 0π, <x≤ 0, xπ.> 

Знайти М(Х), D(X), σ(X), моду m0 та медіану mе. ▼ Враховуючи, що щільність ймовірностей симетрична відносно середини проміжку можливих значень випадкової величини Х, можна передбачити, що M ( X )π=/ 2

. Значення

M (X )

можна знайти за визначенням математичного

сподівання неперервної випадкової величини, (7):

M ( X ) = ∫xf ( x ) dx. − ∞

Для випадкової величини X, розподіленої в інтервалі [0,π] , знаходимо:


13 π

π

0

0

M ( X ) = ∫ x ×f ( x)dx = ∫ x ×0,5 sin x dx =

π π π 1 1 ×∫ x ×sin x dx = −0,5 ×x ×cos x + 0,5 ×sinπx = . 0 0 2 2 0

Для визначення дисперсії скористаємось формулою (12) для неперервної випадкової величини X

π 2

в інтервалі (0, π ); підставивши значення M ( X ) = ,

маємо: π u = x 2 , du = 2 xdx 1π 2 2 D( X ) = ×∫ x sin x dx − ( ) = 2 0 2 sin xdx = dv → v = − cos x

=

=

π 2 u = x, du = dx 1π 2π (− x cos x 0 + 2 ∫ x cos xdx) − = cos xdx = dv → v = sin x 2 4 0

=

π

2 1π 1 π2 2 π = (− x 2πcos x 0 + 2( xπ sin x 0 − ∫ sin xdx)) − = (− x cos x + 2 x sin x + 2 cos x) 0 − = 2 4 2 4 0

=

.

π2 − 4 π2 π2 − 8 − = ≈ 0, 467. 2 4 4

Середнє квадратичне відхилення випадкової величини X: σ ( X ) = D( X ) = π 2

1 2

π2 − 8 ≈ 0, 467 ≈ 0, 683 . 2

π 2

Так як f ( ) = sin = 0.5 є максимальним значенням, то мода становить π 2

величину Mo( X ) = . Для обчислення медіани Ме знайдемо спочатку функцію розподілу x

ймовірностей: F ( x) = ∫ 0,5sin xdx = −0,5cos x 0

x 0

=

1 − cos x . Отже, 2

0, x ≤ 0; 1 − cos x  F ( x) =  , 0π; <x≤  2 1, xπ.>

Згідно F ( Me) =

з

(9)

медіану

Ме

знайдемо

1 − cos( Me) 1π = → cos( Me) = 0 → Me( X ) = .▲ 2 2 2

з

рівняння

F ( Me) = 1/2:


14

2.3.

Початкові

та

центральні

моменти

випадкової

величини.

Характеристики форми: коефіцієнти асиметрії та ексцесу Узагальненням розглянутих числових характеристик випадкових величин є початкові та центральні моменти. Початковим моментом k-го порядку,ν k, випадкової величини X називають математичне сподівання величини Xk: ν k = M ( X k ) (k = 1, 2,3,...) .

(15)

Початковий момент 1–го порядку дає математичне сподівання ν1 = M ( X ) . Для дискретної випадкової величин X: n

ν k = ∑ xi k ×pi , i =1

а для неперервної: νk =

∫x

−∞

b

k

×f ( x )dx ; якщо X ∈ [ a; b ] , то ν k = ∫ x k ×f ( x) dx . a

Центральним моментом k-того порядку, µ k, випадкової величини X називають математичне сподівання k-того степеня відповідної центрованої випадкової величини, X 0k = ( X − M ( X ))k : μ k = M ( X − M ( X )) k (k = 1, 2,3,...) .

(16)

Центральний момент першого порядку дорівнює нулеві, а 2-го порядку дає дисперсію, μ1 = M ( X − M ( X )) = 0; μ 2 = M ( X − M ( X )) 2 = D( X )

Для дискретної випадкової величин X маємо: n

μ k = ∑ ( xi − M ( X )) k ×pi ; i =1

а для неперервної: μk =

∫ ( x − M ( X ))

−∞

b

k

×f ( x)dx ; якщо X ∈ [ a; b ] , то μ k = ∫ ( x − M ( X )) k ×f ( x )dx . a

Асиметрія та ексцес


15

Третій центральний момент характеризує асиметрію закону розподілу випадкової величини: μ 3 = M ( X − M ( X ))3 .

(17)

Якщо µ3=0, то випадкова величина X симетрично розподілена відносно M(X). Так як µ3 має розмірність випадкової величини в кубі, то вводять безрозмірну величину – коефіцієнт асиметрії: As =

μ3 . σ3

(18)

Якщо Аs>0, то графік щільності розподілу має правосторонню асиметрію відносно математичного сподівання, а коли Аs<0 – лівосторонню. Для нормальної кривої As=0 (див. далі „Нормальний розподіл”) Центральний момент четвертого

порядку

µ4 використовується для

визначення ексцесу, що характеризує плосковершинність або гостровершинність щільності f(x) розподілу випадкової величини. Ексцес обчислюється за формулою: Eκ =

μ4 − 3 , де σ4

μ 3 = M ( X − M ( X ))3 .

Для нормального закону розподілу (див. далі)

(19) μ4 = 3 → Ек=0. Тому, коли σ4

Ек>0, то графік щільності розподілу має гострішу вершину порівняно з нормальною кривою, а якщо Ек<0 – пологішу). Розглянемо найбільш вживані закони розподілу випадкових величин, а також і задачі, де ці розподіли використовуються. 1. Біноміальний закон розподілу Закон справджується для схеми незалежних повторних випробувань, у кожному з яких подія А настає з імовірністю р. Імовірності кількості Х можливих появ події в n випробуваннях (частоти Х настання події, що належать множині {0;1;2;…n}) визначаються за формулою Бернуллі: P ( X = m ) = Cnm p m ( 1 − p )

(19)

n−m

= C nm p m (1 − p )

n −m

,

m=0,1,2,…,n.


16

Цей розподіл носить назву біноміальний закону розподілу. Його числові характеристики: MX = np, DX = np ( 1 − p ) . Приклад 5. У цеху є 5 верстатів. Імовірність того, що верстат працює, дорівнює 0,8. Знайти ймовірність того, що працюватимуть не менш як 3 верстати. ▼ За теоремою про ймовірність суми несумісних подій маємо: P ( X ≥ 3) = P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) .

Імовірність того, що працює будь-який верстат, дорівнює 0,8. Тому справджується біноміальний закон розподілу. Застосувавши (19), дістанемо P ( X ≥ 3) = C53 ×0,83 ×0, 22 + C54 ×0,84 ×0, 2 + 0,85 = 0, 2048 + 0, 4096 + 0,32768 = 0,94208 . ▲

2. Закон розподілу Пуассона Дискретна випадкова величина Х має розподіл Пуассона, якщо вона набуває одного із зліченної множини значень m∈{0;1;2;…} з імовірностями: P ( X = m) =

Функція P ( X = m ) =

am −a e , m!

( a > 0 ) m=0,1,2,…

(20)

am −a e табулюється для різних значень m та а (див. m!

ДОДАТОК 3). Цей розподіл описує кількість подій, які настають на інтервалах часу однакової тривалості за умови, що ці події відбуваються незалежно одна від одної зі сталою інтенсивністю. Розподіл Пуассона розглядається як статистична модель: для кількості альфа-частинок, що їх випромінює радіоактивне джерело за певний проміжок часу; кількості викликів, які надходять на телефонну станцію за певний період доби; кількості дефектів на однакових пробах речовини тощо. Розподіл застосовується в задачах статистичного контролю якості, у теорії надійності, теорії масового обслуговування. Математичне сподівання і дисперсія в цьому розподілі однакові і дорівнюють а. Для цього розподілу складено таблиці щодо різних значень а. У таблицях для відповідних значень а наведено ймовірності P ( X = m) i P ( X ≥ m) .


17

Якщо у схемі незалежних повторних випробувань n велике і р або 1–р прямують до нуля, то біноміальний розподіл апроксимується розподілом Пуассона, коли a = np . Приклад 6. Визначити ймовірність потрапляння за контрольні межі не менш ніж 2 деталей із проби з 5 деталей, якщо автомат, із продукції якого беруться проби, обробляє 2 деталі за 1 хв і за зміну у його продукції виявляється 38 деталей, які виходять за контрольні межі. Застосувати для розв’язування задачі закон розподілу Пуассона. P ( X = m ) = ( λt ) , m

▼ Застосуємо формулу розподілу Пуассона:

m!

m=0,1,…

Знайдемо λ – середню кількість бракованих деталей, які виготовляються за 1 хв. Якщо тривалість зміни 480 хв, то. Пробу з 5 деталей виготовляють за 5

λt = 0, 08 ×2,5 = 0, 2 . Знайдемо шукану ймовірність: P ( X ≥ 2 ) = ∑

m=2

( λt )

t=

5 = 2,5 хв, 2

m

m!

= 0, 0175 . ▲

3. Геометричний розподіл Закон подається формулою: P ( X = m ) = p ×( 1 − p )

m −1

, m=1,2,…

(21)

Геометричний закон розподілу має частота Х настання події у схемі незалежних повторних випробувань, якщо вони проводяться до першого настання події. У формулі р – імовірність настання події в кожному випробуванні.

Геометричний

закон

розподілу

застосовується

у

задачах

статистичного контролю якості і теорії надійності. Числові характеристики 1

1− p

геометричного розподілу: M ( X ) = p ; D( X ) = p 2 . Приклад 7. При виготовленні довільного виробу інструмент з імовірністю р=0,2 може бути пошкодженим і потребуватиме заміни. Знайти математичне сподівання і дисперсію кількості виробів, які будуть виготовлені цим інструментом.


18

▼ Нехай випадкова величина Х — кількість деталей, виготовлених до заміни цим інструментом. Ця випадкова величина може набувати значень 0, 1, 2, …. Побудуємо закон розподілу цієї величини. Вона набуває значення, що дорівнює нулю, якщо при виготовленні першого виробу інструмент буде пошкоджено; P ( X = 0 ) = p = 0, 2 . Якщо інструмент буде пошкоджено при виготовленні другого 2 3 виробу, то Х=1, P ( X = 1) = p ( 1 − p ) . Аналогічно P ( X = 2 ) = p ( 1 − p ) , P ( x = 3) = p ( 1 − p ) ,

…, P ( X = k ) = p ( 1 − p ) ,... Для обчислення математичного сподівання і дисперсії k

зіставимо здобутий закон розподілу з геометричним законом розподілу P ( Y = m) = p ( 1− p )

m −1

, m = 1, 2,....

Очевидно,

що

Скориставшись

X =Y −1.

властивостями математичного сподівання та дисперсії, дістанемо: M ( X ) = M ( Y − 1) = M (Y ) − 1 = D( X ) = D ( Y − 1) = D (Y ) =

1 −1 = 5 −1 = 4 ; p

1− p = 20 .▲ p2

4. Показниковий закон розподілу (експоненціальний) Щільність розподілу випадкової величини, розподіленої за показниковим законом, задається формулою: якщо 0, f ( x ) =  − λx  λe ,якщо

x0,≤ x0,>

Рис.1, (22)

де λ>0 є параметром розподілу. Числові характеристики: 1 1 ln 2 . M ( X ) = , D( X ) = 2 , Mo = 0, Me = λ λ λ Рис.1. Графік у=f(x) щільності показникового розподілу (22) випадкової величини Х

Випадкові величини з таким законом розподілу

широко

застосовуються

в

задачах з теорії надійності й теорії

масового обслуговування. Зайдемо закон розподілу ймовірності показникового закону: для х>0:


19 x

F ( x) =

−∞

0

f ( x)dx = ∫ 0 ×dx + −∞

x

+ ∫ λe − λx dx = − e − λx

x 0

= 1 − e − λx .

0

Отже: якщо 0, F ( x ) =  − λx 1-e ,якщо

Рис.2. Графік у=F(x) розподілу (23) ймовірності випадкової величини Х

x0;≤

(23)

x0.>

5. Рівномірний закон розподілу Рівномірним

називають

такий

розподіл

ймовірностей

неперервної

випадкової величини Х, що на проміжку, якому належать всі можливі значення Х, щільність її розподілу зберігає стале значення. Нехай проміжок можливих значень рівномірно розподіленої випадкової величини є [a,b], тоді функція щільності розподілу має вигляд: якщо 0,  1  f ( x) =  ,якщо b − a якщо 0,

x ≤; a a < x ≤; b (24) x > b.

Графік f(x) вказано на Рис.3. Числові характеристики: Рис.3. Графік у=f(x) функції щільності розподілу випадкової величини Х

( b − a) . a+b M (X ) = , D( X ) = 2 12 2

Рівномірний закон розподілу легко моделювати. За допомогою функціональних перетворень із величин, розподілених рівномірно, можна діставати величини з довільним законом розподілу. Закон розподілу ймовірності рівномірного закону (24) має вигляд:


20

0, якщо x ≤ a;  x−a F ( xякщо ) =  a ,x b < ≤ ; b − a   якщо x > b. 1,

(25)

Графік F(x) вказано на Рис.4. F(x) 1

a

b

Рис.4. Графік ймовірності рівномірно розподіленої випадкової величини Х, (25).

Якщо

ймовірність

потрапляння

випадкової

величини

на

інтервал

пропорційна до довжини інтервалу і не залежить від розташування інтервалу на осі Ох, то вона має рівномірний закон розподілу. Наприклад, шкала будь-якого вимірювального приладу проградуйована в деяких одиницях. Покази округлюють до найближчої цілої поділки. Похибку округлення при цьому можна розглядати як випадкову величину Х, яка може набувати зі сталою щільністю розподілу будь-якого значення між двома сусідніми цілими поділками. Отже, Х має рівномірний розподіл. Приклад 8. Випадкова величина Х розподілена рівномірно. Знайти щільність її розподілу, якщо P ( X ≥ 3) = 0.4, a M ( X ) = 2 . ▼ Щільність рівномірного розподілу f ( x ) =

1 . Отже, потрібно визначити b−a

проміжок (а,b) зміни випадкової величини. Складаємо систему рівнянь: b 1 b −3 dx = 0, 4; ∫  b − a = 0, 4; b − a 0, 6b + 0, 4a = 3; 3 ⇒ ⇒ ⇒ b = 7, a = −3 . b b = 4 − a.  x dx = 2.  a + b = 2.  2 ∫ b − a a


21

0, якщо  Отже, f ( x ) = 0.1,якщо 0, якщо 

x 3; ≤3 - < x7;≤ x7> .

6. Нормальний закон розподілу Нормальним називають розподіл неперервної випадкової величини X; який описується щільністю: − 1 f ( x) = e σ 2π

( x − a )2 2σ 2

(26)

,

де а, σ – параметри розподілу. Ймовірнісний зміст параметрів: a = M ( X ),σ

2

=D ( X ) , тобто параметр σ –

середнє квадратичне відхилення випадкової величини. Випадкову величину Х, розподілену за нормальним законом позначають X = N (a;σ) .

При побудові графіка у=f(x) щільності нормального розподілу, Рис.5, використовують такі її властивості: 1) функція визначена для всіх х; 2) крива розміщена над віссю ох; 3) вісь ох – горизонтальна асимптота графіка; 4) при х=а функція має максимум, що дорівнює

1 ; σ 2π

5) графік функції симетричний відносно прямої х=а; 6) точками перегину графіка є точки з координатами: 1    a − σ; ÷, σ 2π ×e  

1    a + σ; ÷. σ 2π ×e  


22

Рис.5

Із Рис.5 бачимо, що графік f(x) розміщений симетрично відносно умовно проведеного перпендикуляра в точку х=а. Зі зміною значень параметра а крива f(x) зміщується не змінюючи при цьому своєї форми уздовж осі Ох: праворуч, якщо а>0 або ліворуч, якщо a<0; f(a)=max, отже, мода Мо=а. Оскільки площа криволінійної трапеції, обмеженої згори кривою щільності розподілу, а знизу віссю Ох дорівнює 1, то при збільшені значення σ – середнього квадратичного відхилення випадкової величини графік f(x) має менший пік, f(a)=max, і стає більш пологішим, див. Рис.3 при σ2>σ1, точки перегину віддаляються від т.х=а і їхні ординати зменшуються. Для нормального розподілу мода, асиметрія та ексцес мають значення відповідно: Mo( X ) = Me( X ) = a, As( X ) = 0, Ek ( X ) = 0 . Якщо задати параметри нормального розподілу, взявши a = 0,σ 1= , то отримаємо нормований (стандартний) нормальний розподіл, X = N (0;1) . Щільність нормованого нормального розподілу описується функцією Гаусса, див. Рис.5 при σ=1, 2

1 − x2 f ( x) = e . 2π

(27)

Значення функції Гаусса табульовано (див. ДОДАТОК 1). Із цією функцією ми зустрічались при розв’язуванні задач на застосування локальної теореми Лапласа в схемі Бернуллі за великих значень числа випробувань.


23

Знайдемо вигляд функції розподілу ймовірності для нормального закону: x

F ( x) =

−∞

1 f ( x )dx = σ 2π

x

∫e

( t − a )2 2σ 2

dt ,

(28)

−∞

або у випадку нормованого нормального розподілу F ( x) =

1 2π

x

∫e

− t 2 /2

dt .

(29)

−∞

Це інтеграл, який не береться в елементарних функціях. Виразимо його через функцію, що табулюється: F ( x) =

1 2π

x

− t /2 ∫ e dt = 2

−∞

1 2π

0

− t /2 ∫ e dt + 2

−∞

x

2 1 e − t /2 dt , ∫ 2π 0

де перший інтеграл в сумі дорівнює 0.5, як інтеграл від парної щільності розподілу нормальної випадкової величини по півпроміжку (0,∝) її можливих значень, симетричному відносно математичного сподівання M(X)=0: другий доданок суми є функція Лапласа, Ф(х), яка табулюється, x

Φ ( x) =

2 1 e − t /2 dt . ∫ 2π 0

(30)

Ця функція непарна, Ф(-х)=-Ф(х), і табулюється для х≥0 (див. ДОДАТОК 2), із зростанням х вона монотонно зростає від нульового значення при х=0 до граничного значення 0,5 при х→∝, для значень х≥4 функція Ф(х) практично не змінюється і наближено дорівнює 0,5. Із цією функцією ми зустрічались при розв’язуванні задач на застосування інтегральної теореми Муавра – Лапласа в схемі Бернуллі за великих значень числа випробувань. Отже, функція розподілу ймовірності для нормального закону має вигляд: F ( x) = Φ( x) + 0,5 .

Графік F(x) вказано на Рис.6. F(х) 1`

(31)


24

0,5

0

а

х

Рис.6. Графік функції розподілу ймовірності для нормального закону, (31)

За розрахунку ймовірності попадання нормально розподіленої випадкової величини X в проміжок (α,β) використовується формула: β−a α−a P ( α < X < β) = Φ  ÷− Φ  ÷,  σ   σ 

(32)

з якої у випадку симетричного відносно математичного сподівання а проміжку (a − ∆; a + ∆ ) дістанемо: ∆ P ( X − a < ∆ ) = 2Φ  ÷, σ

(33)

Якщо взяти ∆ = 3σ , то отримаємо  3σ  P ( X − a < 3σ) = 2Φ  ÷ = 2Φ ( 3) ≈ 2 ×0, 49865 = 0,9973 .  σ 

Отже, ймовірність того, що за абсолютною величиною відхилення не перевищить потроєного середнього квадратичного відхилення, практично рівна одиниці. В цьому й полягає суть правила трьох сигм: якщо випадкова величина розподілена нормально, то абсолютна величина її відхилення від математичного сподівання не перевищує потроєного середнього квадратичного відхилення. На практиці правило трьох сигм застосовують так: якщо розподіл досліджуваної випадкової величини невідомий, але правило трьох сигм виконується, то є підстави припустити, що досліджувана величина розподілена нормально; інакше – вона не розподілена нормально. Нормальний закон розподілу широко застосовується в математичній статистиці, йому підлягають також і випадкові величини такі як зріст людини, дальність польоту снаряду, похибка вимірювань тощо.


25

Приклад 9. Похибка спостереження Х при вимірюванні довжини розподілена нормально з a = 5 мм і σ = 4 мм . Знайти ймовірність того, що виміряне значення відхилиться від істинного більш ніж на 10 мм. ▼ Згідно з умовою потрібно знайти P ( X ≥ 10 ) . Виразимо цю ймовірність через ймовірність протилежної події і застосуємо формулу (30):  10 − 5  P ( X ≥ 10 ) = 1 − P ( X < 10 ) = 1 − P ( −10 < X < 10 ) = 1 − Φ  ÷+  4   −10 − 5  +Φ  ÷ = 1 − Φ ( 1, 25 ) − Φ ( 3, 75 ) = 1 − 0,3944 − 0, 4999 = 0,1057 .▲  4 

4. Закон великих чисел. Центральна гранична теорема Під законом великих чисел в широкому розумінні слід розуміти загальний принцип, за яким сукупна дія великої кількості випадкових факторів приводить (при деяких загальних умовах) до результату, який майже не залежить від випадку. Іншими словами, при великій кількості випадкових величин їхній середній результат перестає бути випадковим і його можна передбачити з великим ступенем надійності. Законом великих чисел у вузькому розумінні називають групу теорем, у кожній з яких для тих чи інших умов встановлюється факт наближення середніх характеристик великої кількості випробувань до деяких сталих. Найбільш загальною із цих теорем є теорема Чебишева, яка також називається просто законом великих чисел. 1) Теорема Чебишева Якщо

дисперсії

незалежних

(некорельованих)

випадкових

величин

X 1 , X 2 ,..., X n ,... обмежені зверху числом β , то для будь-якого скільки завгодно

малого ε > 0 справедлива нерівність: n  n  X  ∑ i ∑ M ( X i )  β P  i =1 − i =1 ≤ ε > 1− 2 n nε  n   


26

та гранична рівність n  n  X M( X i ) ∑ ∑ i  i =1  lim P − i =1 ≤ ε =1 , n →∞ n  n   

тобто при необмеженому збільшенні числа n середнє арифметичне випадкових величин збігається за ймовірністю до середнього арифметичного їхніх математичних сподівань, n

∑X i =1

n

n

i

P  →

∑ M (X ) . i

i =1

n

Наслідок. Нехай X 1 , X 2 ,..., X n ,... - послідовність незалежних випадкових величин така, що М(Х)=а, D(Х)≤с, n=1,2,… Тоді для кожного ε > 0 :  X + X 2 + ... + X n  C P 1 − a ≤ ε > 1− 2 n nε  

та має місце гранична рівність X + X + ... + X n lim P{ε} 1 1 2 −a ≤ n →∞ n

=

n

або

∑X i =1

n

i

P  →a

.

Теорема Чебишева та її наслідок мають велике практичне значення. Наприклад, страховій компанії необхідно встановити розмір страхового внеску, який повинен сплачувати застрахований; при цьому страхова компанія зобов’язується виплатити, коли настане страховий випадок, певну страхову суму. Розглядаючи відношення частота/збитки застрахованого, коли має місце страховий випадок, як величину випадкову і маючи статистику таких випадків, можна визначити відношення середнього числа страхових випадків до середніх збитків при настанні страхових випадків, яке на основі теореми Чебишева з великим ступенем надійності можна вважати величиною майже не випадковою. Тоді на основі цих даних і передбачуваної страхової суми визначається розмір


27

страхового внеску. Без врахування дії закону великих чисел (теореми Чебишева) можливі суттєві збитки страхової компанії (при заниженні розміру страхового внеску), або втрата привабливості страхових послуг (при завищенні розміру внеску). Якщо потрібно виміряти деяку величину, істинне значення якої рівне а, проводять n незалежних вимірювань цієї величини. Нехай результат кожного вимірювання – випадкова величина X i (i = 1, 2,..., n) Якщо при вимірюваннях відсутні систематичні похибки (що спотворюють результат вимірювання в один і той самий бік), то природно припустити, що M ( X i ) = a для будь-яких і. Тоді на основі наслідку з теореми Чебишева середнє арифметичне результатів n n

вимірювань

∑X i =1

i

збігається за ймовірністю до істинного значення а.

n

Якщо

всі

вимірювання

проводяться

характеризується дисперсією D( X i )σ=  n  ∑ Xi D  i =1  n  

2

з

однаковою

точністю,

що

, то дисперсія їхнього середнього

 ÷ 1  n  1 ÷= 2 D  ∑ X i ÷= 2 ÷ n  i =1  n ÷ 

n

∑ D( X i ) =

а її середнє квадратичне відхилення становить

i =1

2 1σ 2 (σ n ) = , n2 n

σ . Отримане відношення, відоме n

під назвою „правило кореня з n”, говорить про те, що середнє очікуване розсіювання середньої n вимірювань в

n разів менше розсіювання кожного

виміру. Таким чином, збільшуючи кількість вимірювань, можна як завгодно зменшувати

вплив

випадкових

похибок

(але

не

систематичних),

тобто

збільшувати точність визначення істинного значення а. Закони великих чисел стверджують, що середнє арифметичне випадкових величин при збільшенні їх числа має властивість статистичної стійкості, тобто збігається за ймовірністю до невипадкової величини – середньої арифметичної математичних сподівань цих випадкових величин. Практичне застосування


28

законів великих чисел полягає у тому, що середня арифметична, обчислена для достатньо великої кількості результатів вимірювань будь-якої величини, буде скільки завгодно близькою до величини, що вимірюється. Статистична стійкість відносної частоти появи успіху в серії незалежних випробувань доводиться в теоремі Бернуллі (див. далі). Приклад 10. Скільки треба провести вимірювань даної величини, щоб з імовірністю не меншою 0,95 гарантувати відхилення середньої арифметичної цих вимірювань від істинного значення величини не більше, ніж на 1 (за абсолютною величиною), якщо середнє квадратичне відхилення кожного з вимірювань не перевищує 5? ▼ Нехай X i - результат і-го вимірювання(і=1,2,..,n) – істинне значення величини, тобто M ( X i ) = a при будь-якому і.  Χ1 + Χ 2 + ... + Χ n   − a ≤ 1÷ ≥ 0,95 . Необхідно знайти n, при якому Ρ  ÷ n  

За наслідком з теореми Чебишева нерівність буде виконуватися, якщо 1−

25 25 C 52 = 500 , тобто потрібно не менше 500 = 1 − ≥ 0,95 , звідси ≤ 0.05 і n ≥ 2 2 n 0.05 nε n ×1

вимірювань. ▲ 2) Теорема Бернуллі Якщо ймовірність успіху в кожному з n незалежних випробувань постійна та рівна p, то для довільного скільки завгодно малого ε > 0 справедлива гранична рівність: m  limεP  1 − p ≤  = n →∞ n 

або

m p →p, n

де m - число успіхів в серії з n випробувань.


29

Нерівність Чебишева для теореми Бернуллі матиме такий вигляд: P ( W ( A)ε) − p 1<

≥ −

pq nε 2

Історично теорема Бернуллі була доведена набагато раніше ніж більш загальна теорема Чебишева. Вона дає теоретичне обґрунтування заміни невідомої ймовірності події її частотою, або статистичною ймовірністю, отриманою в n повторних незалежних випробуваннях, що проводяться в однакових умовах. Безпосереднім узагальненням теореми Бернуллі є теорема Пуассона, коли ймовірності події у кожному випробуванні різні. Приклад 11. Ймовірність виготовити стандартну деталь робітником дорівнює 0,95. Контролю підлягає 400 деталей. Оцінити ймовірність відхилення відносної частоти появи стандартної деталі W ( A) від ймовірності 0,95 не більше ніж на величину 0,02. ▼ За умовою: . p = 0.95; q = 0.05; n = 400 Тоді: P ( W ( A) − 0.95 < 0.02) ≥ 1 −

0.95 ×0.05 = 1 − 0.2969 = 0, 7031 .▲ 400 ×(0.02) 2

Приклад 12. Скільки потрібно провести випробувань n, щоб ймовірність відхилення відносної частоти появи випадкової події W ( A) від ймовірності р=0,85, взятого за абсолютною величиною, на ε = 0.001 , була б меншою від 0,99. Розв’язування: ▼ За умовою: p = 0.85; q = 0.15;ε = 0.001; P( W ( A) − 0.85 < 0.001) = 0.99 . Тоді 1 −

pq pq 0.85 ×0.15 = 0.99 → n = = = 1245000 . ▲ 2 2 nε 0.01ε 0.01 ×0.000001

3) Теорема Пуассона Частота події в n повторних випробуваннях , у кожному з яких вона може відбутись відповідно з імовірностями p1 , p2 ,..., pn , при необмеженому збільшенні числа n збігається за ймовірністю до середньої арифметичної ймовірностей події в окремих випробуваннях:


30

 m p + p2 + ... + pn  limεP  1 − 1 ≤ = n →∞ n n 

n

p p ∑ i або m → . i =1 n n

Центральна гранична теорема Розглянутий вище закон великих чисел встановлює факт наближення середньої великої кількості випадкових величин до певних сталих. Але цим не обмежуються закономірності, які виникають в результаті сумарної дії випадкових величин. Виявляється, що при деяких умовах сукупна дія випадкових величин приводить до певного, а саме – до нормального закону розподілу. Центральна гранична теорема являє собою групу теорем, що стосуються встановленню умов, за яких виникає нормальний закон розподілу. Серед цих теорем найважливіше місце належить теоремі Ляпунова. 1) Теорема Ляпунова Якщо

X 1 , X 2 ,...., X n

- незалежні випадкові величини, для кожної з яких

2 існує математичне сподівання M ( X i ) = a , дисперсія D ( X i ) = σ , абсолютний

центральний момент третього порядку

(

M X i − ai

3

)=m

i

і

n ∑ mi lim i =1 3/2 = 0 , n →∞ n 2 ∑ σi i =1

( )

то

закон

розподілу

суми

Yn = X 1 + X 2 + ... + X n

при

n→ ∞

необмежено

n

наближається до нормального з математичним сподіванням n

∑σ i=1

2 i

.

∑a i =1

i

і дисперсією


31 n

Необмежене наближення закону розподілу суми Yn = ∑ X i до нормального i =1

закону при n → ∞ у відповідності з властивостями нормального закону означає, що n    Yn − ∑ ai ÷ 1  i =1 lim P ≤ x ÷=  ÷ n n →∞ 2π  ∑ σi2 ÷  ÷ i =1  

x

∫e

−∞

− t 2 /2

dt =

1 + Φ ( x) . 2

n

Суть умови теореми Ляпунова полягає в тому, щоб в сумі Yn = ∑ X i , не i =1

було доданків, вплив яких на розсіювання величини Yn дуже великий порівняно з впливом всіх інших, а також не повинно бути набто великої кількості випадкових доданків, вплив яких дуже малий порівняно з сумарним впливом решти. Таким чином, питома вага кожного окремого доданку прямує до нуля при збільшенні числа доданків. Так, наприклад, споживання електроенергії для побутових потреб за місяць в кожній квартирі багатоквартирного будинку можна представити у вигляді п різних випадкових величин. Якщо споживання електроенергії в кожній квартирі за своїм значенням різко не виділяється серед інших, то на підставі теореми Ляпунова можна вважати, що споживання електроенергії всього будинку, тобто сума п незалежних випадкових величин буде випадковою величиною, яка має приблизно нормальний закон розподілу. Якщо, наприклад, в одному з приміщень будинку розміститься обчислювальний центр, у якого рівень споживання електроенергії незрівнянно вищий, ніж у кожній квартирі для побутових потреб, то висновок про приблизно нормальний розподіл споживання електроенергії всього будинку буде неправомірним, оскільки порушена умова теореми Ляпунова, бо споживання електроенергії обчислювальним центром гратиме головну роль в утворенні всієї суми споживання. Інший приклад. При стійкому і налагодженому режимі роботи верстатів, однорідного оброблюваного матеріалу і т.д. варіювання якості продукції набуває


32

форми нормального закону розподілу внаслідок того, що виробнича похибка є результатом сумарної дії великої кількості випадкових величин: похибки верстата, інструменту, робітника, тощо. Наслідок. Якщо X 1 , X 2 ,..., X n - незалежні випадкові величини, для яких 2 існують однакові математичні сподівання M ( X i ) = a , дисперсії D ( X i ) = σ і

абсолютні центральні моменти третього порядку M ( X i − ai

3

) = m ( i = 1,2,..., n ), то i

закон розподілу суми Yn = X 1 + X 2 + ... + X n при n → ∞ необмежено наближається до нормального закону. Зокрема, якщо всі випадкові величини X i однаково розподілені, то закон розподілу їх суми необмежено наближається до нормального закону при n → ∞ . 2) Теорема Муавра-Лапласа У загальному випадку випадкові величини X 1 , X 2 ,..., X n , що розглядаються в центральній граничній теоремі, можуть мати довільні закони розподілу. Якщо X i є дискретними і мають лише два значення: P( X i = 0) = q, P( X i = 1) = p , то приходимо до теореми Муавра-Лапласа, яка є найпростішим випадком центральної граничної теореми. Якщо здійснюється n незалежних експериментів, у кожному з яких ймовірність появи випадкової події А є величиною сталою і дорівнює р, то для інтервалу [α; β) справедлива рівність: β − np α − np P (α < YФ< β) = ( Ф ) − ( ). npq npq


33

ДОДАТОК 1 2

1 − x2 ТАБЛИЦЯ ЗНАЧЕНЬ ФУНКЦІЇ ГАУСА φ( x ) = e 2π х 0,0 0,1 0,2 0,3 0.4 0.5 0.6 0.7 0.8 0.9

0 0,3989 3970 3910 3814 3683 3521 3332 3123 2897 2661

1 0,3989 3965 3902 3802 3668 3503 3312 3101 2874 2637

2 0,3989 3961 3894 3790 3653 3485 3292 3079 2850 2813

3 0,3988 3956 3885 3778 3637 3467 3271 3056 2827 2589

4 0,3986 3951 3876 3765 3621 3478 3251 3034 2803 2565

5 0,3984 3954 3876 3752 3605 3429 3230 3011 2780 2541

6 0,3982 3939 3857 3739 3589 3410 3209 2989 2756 2516

7 0,3980 3932 3847 3726 3572 3391 3187 3966 2732 2492

8 0,3977 3925 3836 3712 3555 3372 3166 2943 2709 2468

9 0,3973 3918 3825 3697 3538 3352 3144 2920 2685 2444

1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9

0.2420 2179 1942 1714 1497 1295 1109 0940 0790 0656

2396 2155 1919 1691 1476 1276 1092 0925 0775 0644

2371 2131 1895 1669 1456 1257 1074 0909 0761 0632

2347 2107 1872 1647 1435 1238 1057 0893 0748 0620

2323 2083 1849 1646 1415 1219 1040 0978 0734 0608

2293 2059 1826 1604 1394 1200 1023 0863 0721 0596

2275 2036 1804 1582 1374 1182 1006 0848 0707 0584

2251 2012 1781 1561 1354 1163 0989 0833 0694 0573

2227 1989 1758 1539 1334 1145 0973 0818 0681 0562

2203 1965 1736 1518 1315 1107 0957 0804 0669 0551

2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9

0.0540 0440 0355 0283 0224 0175 0136 0104 0079 0060

0525 0431 0347 0277 0219 0171 0132 0101 0077 0058

0519 0422 0339 0270 0213 0164 0129 0099 0075 0056

0508 0410 0332 0264 0208 0163 0126 0096 0073 0055

0498 0404 0325 0258 0203 0158 0122 0093 0071 0053

0488 0396 0317 0252 0198 0154 0118 0091 0069 0051

0478 0387 0310 0246 0194 0151 0116 0088 0067 0050

0468 0379 0303 0241 0189 0147 0113 0086 0065 0048

0459 0371 0279 0235 0184 0143 0110 0084 0063 0047

0449 0363 0290 0229 0180 0139 0107 0081 0061 0046

3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4,0

0.0040 0033 0024 0017 0012 0009 0006 0004 0003 0002 0001

0043 0032 0023 0017 0012 0008 0006 0004 0003 0002 0001

0042 0031 0022 0016 0012 0008 0006 0004 0003 0002 0001

0040 0030 0022 0016 0011 0008 0005 0004 0003 0002 0000

0039 0029 0021 0015 0011 0008 0005 0004 0003 0002 0000

0038 0028 0020 0014 0010 0007 0005 0003 0002 0002 0000

0037 0027 0020 0014 0010 0007 0005 0003 0002 0002 0000

0036 0026 0019 0013 0010 0007 0005 0003 0002 0002 0000

0035 0025 0018 0013 0009 0007 0005 0003 0002 0002 0000

0034 0025 0018 0013 0009 0006 0004 0003 0002 0001 0000


34

ДОДАТОК 2 x

2

t − 1 2 e dt ТАБЛИЦЯ ЗНАЧЕНЬ ФУНКЦІЇ ЛАПЛАСА Ф( x ) = 2π ∫0

х 0,0 0,1 0,2 0,3 0.4 0.5 0.6 0.7 0.8 0.9

0 0,00000 0,03983 0,07926 0,11791 0,15542 0,19146 0,22575 0,25804 0,28814 0,31594

1 0,00399 0,04380 0,08317 0,12172 0,15910 0,19497 0,22907 0,26115 0,29103 0,31859

2 0,00798 0,04776 0,08706 0,12552 0,16276 0,19847 0,23237 0,26424 0,29389 0,32121

3 0,01197 0,05172 0,09095 0,12930 0,16640 0,20194 0,23565 0,26730 0,29673 0,32381

4 0,01595 0,05567 0,09483 0,13307 0,17003 0,20540 0,23891 0,27035 0,29955 0,32638

5 0,01994 0,05962 0,09871 0,13683 0,17364 0,20884 0,24215 0,27337 0,30234 0,32894

6 0,02392 0,06356 0,10257 0,14058 0,17724 0,21226 0,24537 0,27637 0,30511 0,33147

7 0,02790 0,06749 0,10642 0,14431 0,18082 0,21566 0,24857 0,27935 0,30785 0,33398

8 0,03188 0,07142 0,11026 0,14803 0,18439 0,21904 0,25175 0,28230 0,31057 0,33646

9 0,03586 0,07535 0,11409 0,15173 0,18793 0,00040 0,25490 0,28524 0,31327 0,33891

1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9

0,34134 0,36433 0,38493 0,40320 041924 0,43319 0,44520 0,45543 0,46407 0,47128

0,34375 0,36650 0,38686 0,40490 0,42073 0,43448 0,44630 0,45637 0,46485 0,47193

0,34614 0,36864 0,38877 0,40658 0,42220 0,43574 0,44738 0,45728 0,46562 0,47257

0,34849 0,37076 0,39065 0,40824 0,42364 0,43699 0,44845 0,45818 0,46638 0,47320

0,35083 0,37286 0,39251 0,40988 0,42507 0,43822 0,44950 0,45907 0,46712 0,47381

0,35314 0,37493 0,39435 0,41149 0,42647 0,43943 0,45053 0,45994 0,46784 0,47441

0,35543 0,37698 0,39617 0,41308 0,42785 0,44062 0,45154 0,46080 0,46856 0,47500

0,35769 0,37900 0,39796 0,41466 0,42922 0,44179 0,45254 0,46164 0,46926 0,47558

0,35993 0,38100 0,39973 0,41621 0,43056 0,44295 0,45352 0,46246 0,46995 0,47615

0,36214 0,38298 0,40147 0,41774 0,43189 0,44408 0,45449 0,46327 0,47062 0,47670

2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9

0,47725 0,48214 0,48610 0,48928 0,49180 0,49379 0,49534 0,49653 0,49744 0,49813

0,47778 0,48257 0,48645 0,48956 0,49202 0,49396 0,49547 0,49664 0,49752 0,49819

0,47831 0,48300 0,48679 0,48983 0,49224 0,49413 0,49560 0,49674 0,49760 0,49825

0,47882 0,48341 0,48713 0,49010 0,49245 0,49430 0,49573 0,49683 0,49767 0,49831

0,47932 0,48382 0,48745 0,49036 0,49266 0,49446 0,49585 0,49693 0,49774 0,49836

0,47982 0,48422 0,48778 0,49061 0,49286 0,49461 0,49598 0,49702 0,49781 0,49841

0,48030 0,48461 0,48809 0,49086 0,49305 0,49477 0,49609 0,49711 0,49788 0,49846

0,48077 0,48500 0,48840 0,49111 0,49324 0,49492 0,49621 0,49720 0,49795 0,49851

0,48124 0,48537 0,48870 0,49134 0,49343 0,49506 0,49632 0,49728 0,49801 0,49856

0,48169 0,48574 0,48899 0,49158 0,49361 0,49520 0,49643 0,49736 0,49807 0,49861

3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4,0 4,5 5,0

0,49865 0,49903 0,49931 0,49952 0,49966 0,49977 0,49984 0,49989 0,49993 0,49995 0,49996 0,49997 0,49999

0,49869 0,49906 0,49934 0,49953 0,49968 0,49978 0,49985 0,49990 0,49993 0,49995

0,49874 0,49910 0,49936 0,49955 0,49969 0,49978 0,49985 0,49990 0,49993 0,49996

0,49878 0,49913 0,49938 0,49957 0,49970 0,49979 0,49986 0,49990 0,49994 0,49996

0,49882 0,49913 0,49940 0,49958 0,49971 0,49980 0,49986 0,49991 0,49994 0,49996

0,49886 0,49918 0,49942 0,49960 0,49972 0,49981 0,49987 0,49991 0,49994 0,49996

0,49889 0,49921 0,49944 0,49961 0,49973 0,49981 0,49987 0,49992 0,49994 0,49996

0,49893 0,49924 0,49946 0,49962 0,49974 0,49982 0,49988 0,49992 0,49995 0,49996

0,49896 0,49926 0,49948 0,49964 0,49975 0,49983 0,49988 0,49992 0,49995 0,49997

0,49900 0,49929 0,49950 0,49965 0,49976 0,49983 0,49989 0,49992 0,49995 0,49997


35

ДОДАТОК 3 ТАБЛИЦЯ ЗНАЧЕНЬ ФУНКЦІЇ ПУАССОНА: P ( X = m ) =

m 0 1 2 3 4 5 6

m 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

0.1 0.9048 0.0905 0.0045 0.0002 -

1.0 0.3679 0.3679 0.1839 0.0313 0.0153 0.0081 0.0005 0.0001 -

0.2 0.8187 0.1638 0.0164 0.0011 -

2.0 0.1353 0.2707 0.2707 0.1804 0.0902 0.0361 0.0120 0.0034 0.0009 0.0002 -

0.3 0.7408 0.2222 0.0333 0.0033 0.0002 -

3.0 0.0498 0.1494 0.2240 0.2240 0.1680 0.1008 0.0504 0.0216 0.0081 0.0027 0.0008 0.0002 0.0001 -

0.4 0.6703 0.2681 0.0536 0.0072 0.0007 0.0001 -

4.0 0.0183 0.0733 0.1465 0.1954 0.1954 0.1563 0.1042 0.0595 0.0298 0.0132 0.0053 0.0019 0.0006 0.0002 0.0001 -

а 0.5 0.6065 0.3033 0.0758 0.0126 0.0016 0.0002 а 5.0 0.0067 0.0337 0.0842 0.1404 0.1755 0.1755 0.1462 0.1044 0.0655 0.0363 0.0181 0.0034 0.0013 0.0005 0.0002 -

0.6 0.5488 0.3293 0.0988 0.0198 0.0030 0.0004 -

6.0 0.0025 0.0149 0.0446 0.0892 0.1339 0.1606 0.1606 0.1377 0.1033 0.0688 0.0413 0.0225 0.0113 0.0052 0.0022 0.0009 0.0003 0.0001 -

am −a e , m!

0.7 0.4966 0.3476 0.1217 0.0284 0.0050 0.0007 0.0001

7.0 0.0009 0.0064 0.0223 0.0521 0.0912 0.1277 0.1490 0.1490 0.1304 0.1014 0.0710 0.0452 0.0264 0.0142 0.0071 0.0033 0.0014 0.0006 0.0002 0.0001 -

( a > 0) 0.8 0.4493 0.3596 0.1438 0.0383 0.0077 0.0012 0.0002

8.0 0.0003 0.0027 0.0107 0.0286 0.0572 0.0916 0.1221 0.1396 0.1396 0.1241 0.0993 0.0722 0.0481 0.0296 0.0169 0.0090 0.0045 0.0021 0.0009 0.0004 0.0002 0.0001 -

0.9 0.4066 0.3696 0.1647 0.0494 0.0111 0.0020 0.0003

9.0 0.0001 0.0011 0.0055 0.0150 0.0337 0.0607 0.0911 0.1318 0.1318 0.1318 0.1180 0.0970 0.0728 0.0504 0.0324 0.0194 0.0109 0.0058 0.0029 0.0014 0.0006 0.0003 0.0001


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.