double arrow

Правило трёх сигм

При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм.

Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:

Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа:

Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

Это правило называется правилом трех сигм.

Не практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.

Пример. Поезд состоит из 100 вагонов. Масса каждого вагона – случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением s = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется.

Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (100×65 = 6500) не превосходит 6600 – 6500 = 100 т.

Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально.

Получаем:

Пример. Нормально распределенная случайная величина Х задана своими параметрами – а = 2 – математическое ожидание и s = 1 – среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2.

Плотность распределения имеет вид:

Построим график:

Найдем вероятность попадания случайной величины в интервал (1; 3).

Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2.

Тот же результат может быть получен с использованием нормированной функции Лапласа.

Центральная предельная теорема Ляпунова

Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному.

На практике для большинства случайных величин выполняются условия теоремы Ляпунова.

3 Система случайных величин   Рассмотренные выше случайные величины были одномерными, т.е. определялись одним числом, однако, существуют также случайные величины, которые определяются двумя, тремя и т.д. числами. Такие случайные величины называются двумерными, трехмерными и т.д. В зависимости от типа, входящих в систему случайных величин, системы могут быть дискретными, непрерывными или смешанными, если в систему входят различные типы случайных величин. 3.1 Система двух случайных величин Более подробно рассмотрим системы двух случайных величин. Определение. Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях. Определение. Функцией распределения системы двух случайных величин называется функция двух аргументов F(x, y), равная вероятности совместного выполнения двух неравенств X<x, Y<y. Отметим следующие свойства функции распределения системы двух случайных величин: 1) Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной величины, соответствующей другому аргументу. 2) Если оба аргумента стремятся к бесконечности, то функция распределения системы стремится к единице. 3) При стремлении одного или обоих аргументов к минус бесконечности функция распределения стремится к нулю. 4) Функция распределения является неубывающей функцией по каждому аргументу.   5) Вероятность попадания случайной точки (X, Y) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле:  

Плотность распределения системы двух случайных величин

Определение. Плотностью совместного распределения вероятностей двумерной случайной величины (X, Y) называется вторая смешанная частная производная от функции распределения.

Если известна плотность распределения, то функция распределения может быть легко найдена по формуле:

Двумерная плотность распределения неотрицательна и двойной интеграл с бесконечными пределами от двумерной плотности равен единице.

По известной плотности совместного распределения можно найти плотности распределения каждой из составляющих двумерной случайной величины.

Условные законы распределения

Как было показано выше, зная совместный закон распределения можно легко найти законы распределения каждой случайной величины, входящей в систему.

Однако, на практике чаще стоит обратная задача – по известным законам распределения случайных величин найти их совместный закон распределения.

В общем случае эта задача является неразрешимой, т.к. закон распределения случайной величины ничего не говорит о связи этой величины с другими случайными величинами.

Кроме того, если случайные величины зависимы между собой, то закон распределения не может быть выражен через законы распределения составляющих, т.к. должен устанавливать связь между составляющими.

Все это приводит к необходимости рассмотрения условных законов распределения.

Определение. Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения.

Условный закон распределения можно задавать как функцией распределения так и плотностью распределения.

Условная плотность распределения вычисляется по формулам:

Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.

Условное математическое ожидание

Определение. Условным математическим ожиданием дискретной случайной величины Y при X = x (х – определенное возможное значение Х) называется произведение всех возможных значений Y на их условные вероятности.

Для непрерывных случайных величин:

,

где f(y/x) – условная плотность случайной величины Y при X=x.

Условное математическое ожидание M(Y/x)=f(x) является функцией от х и называется функцией регрессии Х на Y.

Пример. Найти условное математическое ожидание составляющей Y при

X = x= 1 для дискретной двумерной случайной величины, заданной таблицей:

Y X
x1=1 x2=3 x3=4 x4=8
y1=3 0,15 0,06 0,25 0,04
y2=6 0,30 0,10 0,03 0,07

Аналогично определяются условная дисперсия и условные моменты системы случайных величин

Зависимые и независимые случайные величины

Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.

Понятие зависимости случайных величин является очень важным в теории вероятностей.

Условные распределения независимых случайных величин равны их безусловным распределениям.

Определим необходимые и достаточные условия независимости случайных величин.

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.

Аналогичную теорему можно сформулировать и для плотности распределения:

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих.

Определение. Корреляционным моментом mxy  случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин.

Практически используются формулы:

Для дискретных случайных величин:

Для непрерывных случайных величин:

Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю.

Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y. Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин.

Для того, чтобы устранить этот недостаток применятся другая характеристика – коэффициент корреляции.

Определение. Коэффициентом корреляции rxy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.

Коэффициент корреляции является безразмерной величиной. Коэффициент корреляции независимых случайных величин равен нулю.

Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий.

Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.

Случайные величины называются коррелированными, если их корреляционный момент отличен от нуля, и некоррелированными, если их корреляционный момент равен нулю.

Если случайные величины независимы, то они и некоррелированы, но из некоррелированности нельзя сделать вывод о их независимости.

Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными.

Часто по заданной плотности распределения системы случайных величин можно определить зависимость или независимость этих величин.

Наряду с коэффициентом корреляции степень зависимости случайных величин можно охарактеризовать и другой величиной, которая называется коэффициентом ковариации. Коэффициент ковариации определяется формулой:

Пример. Задана плотность распределения системы случайных величин Х и Y.

Выяснить являются ли независимыми случайные величины Х и Y.

Для решения этой задачи преобразуем плотность распределения:


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



Сейчас читают про: