1. Если Р(В)>0, то для независимых событий А и В
Р(А/В)=Р(А) (1’)
Доказательство:
Замечание: Иногда определение независимости событий дают на основе (1’). События А и В называются независимыми, если появление одного из них не влияет на вероятность появления другого.
2. Если А и В независимы, то независимы и и В; А и ; и .
Доказательство: Докажем первое утверждение.
P( B)=P(B-AB)=P(B)-P(AB)=P(B)-P(B)P(A)=
=P(B)(1-P(A))=P(B)P().
Доказательство второго утверждения аналогично. Докажем третье утверждение.
P( )=P()=1-P(AÈB)=1-P(A)-P(B)+P(AB);
P()P()=(1-P(A))(1-P(B))=1-P(A)-P(B)+P(AB)
Сравнивая эти равенства, видим, что у них одинаковы правые части, следовательно
Р( )=Р()Р()
3. Пусть А и В1 независимы, А и В2 независимы, причем В1В2=Æ, тогда А и В1+В2 - независимы.
Доказательство:
P(A(В1+В2))=P(AВ1+ AВ2)= P(A)P(В1)+P(A)P(В2)=
=P(A)(P(В1)+P(В2))=P(A)P(В1+В2)
4. Два несовместных события всегда зависимы, т.к. появление одного исключает появление другого
Если А и В несовместны (АВ=Æ), причем P(А)>0, P(B)>0, то Р(А/В)=Р(В/А)=0.
Доказательство: P(A/B)=
Независимость событий в совокупности: События А1,А2,..., Аn называются независимыми в совокупности, если любое из них не зависит от любой комбинации (произведения) любого числа других. Для независимых событий правило умножения принимает вид:
|
|
P(А1А2...Аn)=P(А1)P(А2)...P(Аn)
или короче, пользуясь знаком произведения:
Т.е. вероятность произведения нескольких независимых событий равна произведению вероятностей этих событий.