Задания для предварительной самостоятельной подготовки

1. Сформулировать понятие ценности информации и привести примеры систем, в которых информация характеризуется ценностью.

2. Определить соотношение понятий информации о системе и модели системы.

3. Привести примеры систем, неопределенность которых не может быть полностью снята каким-либо испытанием.

Задачи

1. Доказать, что в случае равнораспределения вероятности по элементам множества количество информации по Щеннону сводится к количеству информации по Харди.

2. Предложить алгоритм задания вопросов, реализующий количество информации по Харди для множества студентов группы.

3. Какое количество информации получает школьник младших классов при работе в научной лаборатории в течении 10 минут, если ему поручено записывать показания восьмиразрядного цифрового вольтметра с интервалом в 10 секунд.

4. Как изменится количество информации, получаемой при некотором измерении, если используемый измерительный прибор заменить на более точный с ценой деления шкалы, в 100 раз меньшей цены деления исходной.

5. В партии 100 сенсоров, из них 5% бракованных. Из партии выбирают наугад 5 сенсоров для контроля. Какое количество информации содержится в сообщении о том, что в случайной выборке оказалось ровно 3 бракованных прибора?

6. Многоканальная сенсорная система состоит из 32 равнонадежных элементов и имеет устройство контроля их исправности. Определить минимальное число проб, которое необходимо выполнить этому устройству, чтобы установить любой неисправный элемент.

7. Для случая, когда в каждом испытании некоторой системы реализуется один из двух возможных исходов с заданной вероятностью p, записать количество получаемой в таком испытании информации по Шеннону и найти максимум этой функции. Построить график функции и проинтерпретировать полученный результат.

8. Используя метод неопределенных множителей Лагранжа, показать, что для системы, которая может находиться в одном из N состояний с вероятностью , где , максимуму информационной энтропии соответствует равномерное распределение вероятностей .

9. Найти распределение вероятностей, соответствующее максимуму информационной энтропии (см. предыдущую задачу) в случае, когда для системы задано еще и среднее значение некоторого свойства G, принимающее значение в состоянии . Вычислить значение информационной энтропии, соответствующее полученному распределению и проинтерпретировать результат в случае, когда G – внутренняя энергия системы.

10. Показать, что для всех положительных x выполняется соотношение , где равенство достигается только в случае x =1.

11. С точки зрения субъективной теории информации получение сведений о системе можно интерпретировать как изменение субъективных вероятностей различных состояний системы. В этом случае изменение информированности наблюдателя оценивается количеством информации Рени , где p0i и pi – исходное и новое распределения вероятностей соответственно. Используя результат предыдущей задачи, доказать, что информация Рени положительно определена и интерпретировать приведенное выше соотношение при различных p0i и pi.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: