Warning: session_start(): open(C:\Windows\temp\sess_60ktsanaf9s23lt95an4eidov2, O_RDWR) failed: No space left on device (28) in C:\www\lemma4.1php\login.php on line 15 Warning: session_commit(): open(C:\Windows\temp\sess_60ktsanaf9s23lt95an4eidov2, O_RDWR) failed: No space left on device (28) in C:\www\lemma4.1php\login.php on line 36 Warning: session_commit(): Failed to write session data (files). Please verify that the current setting of session.save_path is correct (C:\Windows\temp) in C:\www\lemma4.1php\login.php on line 36 Математика для Психологов

Сначала рассмотрим нормальное распределение. Площадь под графиком функции плотности распределения ϕ(x) определяет вероятность, поэтому задача вычисления вероятностей типа p(0<U<x) решается с помощью функции распределения

F(x)=0xϕ(t)dt - одной из первообразных для плотности распределения

Ассоциативная связь


Для нахождения конкретных значений функции F(x) обычно используют таблицы. Таблицы бывают разной степени подробности, далее будем использовать следующую таблицу:

Ассоциативная связь

Например, вероятность p(0U0.4)=0.155 .

Свойство симметричности графика плотности распределения дает формулу

p(U0)=p(U0)=0.5 ,

отсюда

p(U0.4)=0.5p(0U0.4)=0.5F(0.4)=0.50.155=0.345,p(U0.7)=0.5p(0U0.7)=0.5F(0.7)=0.50.258=0.242. 

Ассоциативная связь

Так как график функции симметричен, получаем

p(0.4U0)=p(0U0.4)=F(0.4)=0.155. 

Еще несколько примеров

Ассоциативная связь

Для произвольной нормальной случайной величины значения вероятностей находят с помощью соответствующих вычислений для стандартной нормальной величины.
Если имеется нормальная случайная величина X=N(σ,μ), то ее легко превратить в стандартную. Для этого вычитаем из нормальной случайной величины ее математическое ожидание и делим на стандартное отклонение. В результате получим стандартную нормальную величину:

Xμσ=U. 

Неравенства

aXb,aμσXμσbμσ 

выполнены или не выполнены одновременно, поэтому справедливы формулы:

p(aXb)=p(aμσXμσbμσ)=p(aμσUbμσ). 

 Ассоциативная связь

Ассоциативная связь

По закону распределения дискретной случайной величины X всегда можно найти функцию распределения F(x) для нее. Она имеет вид F(x)=xi<xP(X=xi). 

График функции распределения дискретной случайной величины представляет собой разрывную ступенчатую линию. Например, построим функцию распределения для биномиальной случайной величины B(2,0.5) 

Ассоциативная связь

Левее нуля у нее нет значений, поэтому F(x)=0 . В точке 0 функция делает скачок, F(0)=p(B<0.5)=0.25, и сохраняет это значение для всех точек интервала (0,1). Действительно F(0.5)=p(B<0.5)=p(B=0)=0.25. 

Следующий скачок она делает в точке x=1, так как p(B1)=p(B=0)+p(B=1)=0.25+0.5=0.75. 

Последний скачок в точке x=2 и F(x)=1 везде, правее этой точки.

Формула Муавра – Лапласа

Если случайная величина X имеет биномиальное распределение B(n,p), то это означает следующее:

p(X=k)=Cnkpk(1p)nk,k=0,1,...,n. 

Рассмотрим случайную величину B(1,p) заданную таблицей

01qp .

Ее математическое ожидание и дисперсия имеют вид:

M(B(1,p))=0q+1p=p, D(B(1,p))=(0p2)q+(1p)2p=pq(p+q)=pq. 

Применим теоремы о свойствах (свойства суммы) математического ожидания и дисперсии. Очевидно, что B(n,p) является n-кратной суммой независимых испытаний B(1,p), и, следовательно, ее математическое ожидание равно np , а дисперсия равна npq. 

Таким образом, MX=np,DX=np(1p). 
Биномиальное и нормальное распределения тесно связаны. При больших значениях n имеет место приближенная формула:

B(n,p)N(np,np(1p)). 
Эта формула называется формулой Муавра – Лапласа.

Обычно она применяется для вычислений вероятностей, связанных с биномиальным распределением при n>90 и np(1p)>9. 

Более общее утверждение состоит в том, что сумма большого числа почти произвольных случайных величин распределена приближенно по нормальному закону и носит название центральная предельная теорема.

Ассоциативная связь

Неравенство Чебышева

Доказательство теоремы Чебышева приведем только для дискретных случайных величин. В случае непрерывной случайной величины аналогичные рассуждения следует провести с помощью интегралов.

Теорема (Неравенство Чебышева). Для любой случайной величины X вероятность того, что она отклонится от своего математического ожидания больше чем на число α, всегда меньше, чем DXα2. 
В виде формулы утверждение теоремы записывается так:

p(|XMX|α)DXα2. 


Доказательство.

Пусть случайная величина X принимает значения x1,x2,...,xn с вероятностями p1,p2,...,pn. Будем считать, что эти значения расположены по возрастанию удаленности от математического ожидания MX. Если это не так, то всегда можно расположить их таким образом, перенумеровав в нужном порядке.
Отметим номер k, начиная с которого расстояние |xkMX| становится больше или равным α . Тогда

DX=(x1MX)2p1+...+(xnMX)2pn(xkMX)2pk+...+(xnMX)2pn. 

 

В правой части формулы содержатся лишь слагаемые, для которых |xkMX|α. 
Заменяя все квадраты, содержащиеся в скобках, на меньшее либо равное число α2, мы можем только уменьшить сумму. В итоге

DXα2pk+...+α2pn=α2(pk+...+pn). 

Осталось заметить только, что выражение в скобках есть сумма вероятностей тех значений, которые отклоняются от MX больше, чем на α. То есть вероятность того, что случайная величина будет иметь это большее значение. Окончательно

DXα2p(|XMX|α). 
Деля обе части на α2, получаем нужное нам неравенство.

Мы показали, что для биномиальной случайной величины X=B(n,p) дисперсия DX=np(1p)=npq. Тогда, если бросать монетку 100 раз, то вероятность того, что суммарное количество гербов будет меньше 40 или больше 60, не превосходит 100pq102=1000.50.5100=0.25. 

Если мы бросим монетку 10 000 раз и рассмотрим вероятность отклонения на 0.1 возможного диапазона, то есть на 1000, то эта вероятность окажется очень маленькой
100000.50.510002=1400 .
Вероятность отклонения на 100, то есть на корень квадратный из 10 000, будет равна 0.25. Это значит, что с вероятностью 0.75 количество выпадения «гербов» отклонится от 0.5 меньше, чем на 1%.
Если бросить монетку 1 000 000 раз, то с вероятностью 0.75 количество выпадения «гербов» отклонится от 0.5 меньше, чем на 0.1%

Учитывая неравенство Чебышева, можно объяснить, почему в статистике чаще используют не дисперсию, а среднее квадратическое отклонение, которое является корнем из дисперсии.

Пусть случайная величина X имеет дисперсию DX. Возьмем в неравенстве Чебышева α=3DX. Тогда p(|XMX|3DX)DX9DX=19. 
Отсюда следует, что для любой случайной величины отклонение от среднего значения на три среднеквадратических отклонения происходит с вероятностью не более чем 19. Отклонение на четыре среднеквадратитических отклонений происходит с вероятностью не более, чем 116, и так далее.

Закон больших чисел

Пусть X случайная величина с математическим ожиданием M и дисперсией D. Предположим, что мы имеем серию подобных случайных величин X1,...,Xn, то есть имеющих те же самые математические ожидание M и дисперсию D. 
Рассмотрим новую случайную величину Y=X1+...+Xnn. Математическое ожидание Y есть среднее арифметическое из математических ожиданий X1,...,Xn, то есть сумма из математических ожиданий MXi=M, деленная на n. Таким образом MY=M. 
Для дисперсии ситуация отличается (свойства дисперсии суммы случайных величин и умножения на число!):

DY=D(X1+...+Xnn)=D(X1+...+Xn)n2=Dn. 


Теперь применим неравенство Чебышева к случайной величине Y. 
p(|YM|α)Dnα2. 
Отсюда следует, что

p(|YM|α)1Dnα2. 

Следствие. Закон больших чисел в форме Чебышева.

Для любого, сколь угодно малого α справедливо утверждение:

limnp(|YM|α)=1. 

Это неравенство доказывает, что с увеличением числа испытаний среднее арифметическое независимых испытаний случайной величины все с большей точностью представляет ее математическое ожидание.