Упражнение 2 (устно)

1. Еще один пример. На экзамен приготовлено 30 билетов.

- Чему равно количество событий, которые могут произойти при вытягивании билета? (30)

- Равновероятны эти события или нет? (Равновероятны.)

- Чему равна неопределенность знаний ученика перед тем как он вытянет билет? (30)

- Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? (В 30раз.)

- Зависит ли этот показатель от номера вытянутого билета? (Нет, т.к.события равновероятны.)

Из всех рассмотренных примеров можно сделать следующий вывод:

Чем больше начальное число возможных равновероятных событий, тем в большее количество раз уменьшается неопределенность наших знаний, и тем большее количество информации будет содержать сообщение о результатах опыта.

А каким может быть самое маленькое количество информации? Вернем­ся к примеру с монетой. Предположим, что у монеты обе стороны «орел».

- Существует ли неопределенность знаний пред броском в этом случае? Почему? (Нет, так как мы заранее знаем, что выпадет в любом случае «орел».)

- Получите вы новую информацию после броска? (Нет, так как ответ мы уже знали заранее.)

Будет ли информативным сообщение о результате броска? (Нет, так оно не принесло новых и полезных знаний.)

- Чему равно количество информации в этом случае? (Нулю, т.к. оно неинформативно.)

Вывод: мы не получаем информации в ситуации, когда происходит одно событие из одного возможного. Количество информации в этом случае равно нулю.

Для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных. Такое количество информации, кото­рое находится в сообщении о том, что произошло одно событие из двух равно­вероятных, принято за единицу измерения информации и равно 1 биту.

(Огромное количество способов кодирования информации неизбежно привело пытливый ум человека к попыткам создать универсальный язык или азбуку для кодирования. Эта проблема была достаточно успешно реализована лишь в отдельных областях техники, науки и культуры. Своя система кодирования информации существует и в вычислительной технике. Она называется двоичным кодированием. Всю информацию, с которой работает вычислительная техника, можно представить в виде последовательности всего двух знаков – 1 и 0. Эти два символа называются двоичными цифрами, по-английски – binary digit или сокращенно bit – бит.

1 бит кодирует 2 понятия или сообщения (0 или 1)

2 бита – 4 разных сообщения (00 или 01 или 10 или 11)

3 бита – 8 разных сообщений.

4 бита – 16 разных сообщений и т.д.

Общая формула N= 2i, где N – количество значений информации, i – количество бит.

Почему именно двоичное кодирование используется в вычислительной технике? Оказывается такой способ кодирования легко реализовать технически: 1 – есть сигнал, 0 – нет сигнала. Для человека такой способ кодирования неудобен тем, что двоичные последовательности получаются достаточно длинными. Но технике легче иметь дело с большим числом однотипных элементов, чем с небольшим числом сложных).

Итак, с помощью битов информация кодируется. С точки зрения коди­рования с помощью 1 бита можно закодировать два сообщения, события или два варианта некоторой информации. С точки зрения вероятности 1 бит — это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных. Согласитесь, что эти два определения не противоречат друг другу, а совершенно одинаковы, но просто рассмотрены с разных точек зрения.

Еще одно определение 1 бита:


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: