Расчет количества информации

 

Количество информации - одна из важнейших характеристик управленческих процессов. Количество, выражая внешнюю определенность объекта, проявляется через его величину, число, объем, степень развития свойств, темп протекания производственных, управленческих и иных процессов.

В 1948 году американский инженер Клод Шеннон в своей работе «Математическая теория связи» довольно убедительно разработал вопросы формально-количественного измерения информации. Он предложил учитывать при определении количества информации не только число разнообразных сообщений, которые можно получить от источника информации, но и вероятность их получения [3, стр.78].

Для определения количества информации (I) К. Шеннон дал формулу, ставшую классической:

где:

n — число возможных сообщений (исходов опыта),

pi — вероятность i-го сообщения.

На основании буквенной информации этой курсовой работы рассчитаем количество информации, приходящуюся на одну букву русского алфавита. Для этого предварительно найдем количество каждой буквы и пробела (буквы «е» и «ё», «ъ» и «ь» считаются одной буквой) в тексте и рассчитаем вероятность их появления (Pi). Результаты занесем в таблицу 3.2.1.


Таблица 3.2.1

Вероятность появления букв русского алфавита

 

Буква Количество в тексте Вероятность Буква Количество в тексте Вероятность

А

2386

0,0666

Р

1727

0,0482

Б

609

0,0170

С

1807

0,0504

В

1255

0,0350

Т

2179

0,0608

Г

425

0,0119

У

690

0,0193

Д

964

0,0269

Ф

191

0,0053

Е,Ё

2694

0,0752

Х

352

0,0098

Ж

179

0,0050

Ц

289

0,0081

З

538

0,0150

Ч

472

0,0132

И

2589

0,0723

Ш

81

0,0023

Й

327

0,0091

Щ

177

0,0049

К

910

0,0254

Ъ,Ь

427

0,0119

Л

1184

0,0330

Ы

520

0,0145

М

901

0,0251

Э

98

0,0027

Н

2189

0,0611

Ю

145

0,0040

О

3612

0,1008

Я

720

0,0201

П

1028

0,0287

пробел

4164

0,1162

 

С помощью полученных данных рассчитаем двоичный логарифм от Pi и произведение полученных чисел на вероятность появления данной буквы в тексте. Данные представим в виде таблицы 3.3.2.

Таблица 3.3.2

Расчет количества информации приходящуюся на одну букву русского алфавита

 

Буква алфавита Вероятность появления, Pi LogPi Pi·logPi
А 0,0666 -3,9085 -0,2603
Б 0,0170 -5,8785 -0,0999
В 0,0350 -4,8354 -0,1694
Г 0,0119 -6,3975 -0,0759
Д 0,0269 -5,2160 -0,1403
Е,Ё 0,0752 -3,7333 -0,2807
Ж 0,0050 -7,6450 -0,0382
З 0,0150 -6,0574 -0,0910
И 0,0723 -3,7907 -0,2739
Й 0,0091 -6,7757 -0,0618
К 0,0254 -5,2991 -0,1346
Л 0,0330 -4,9194 -0,1626
М 0,0251 -5,3135 -0,1336
Н 0,0611 -4,0328 -0,2464
О 0,1008 -3,3103 -0,3337
П 0,0287 -5,1232 -0,1470
Р 0,0482 -4,3748 -0,2109
С 0,0504 -4,3095 -0,2173
Т 0,0608 -4,0394 -0,2457
У 0,0193 -5,6984 -0,1097
Ф 0,0053 -7,5514 -0,0403
Х 0,0098 -6,6694 -0,0655
Ц 0,0081 -6,9539 -0,0561
Ч 0,0132 -6,2462 -0,0823
Ш 0,0023 -8,7890 -0,0199
Щ 0,0049 -7,6612 -0,0378
Ъ,Ь 0,0119 -6,3907 -0,0762
Ы 0,0145 -6,1065 -0,0886
Э 0,0027 -8,5141 -0,0233
Ю 0,0040 -7,9489 -0,0322
Я 0,0201 -5,6370 -0,1133
Пробел 0,1162 -3,1051 -0,3609

 

Таким образом, средняя информация на одну букву русского языка, подсчитанная по данным таблицы, будет равна:

 



Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: