1. Сформулировать понятие ценности информации и привести примеры систем, в которых информация характеризуется ценностью.
2. Определить соотношение понятий информации о системе и модели системы.
3. Привести примеры систем, неопределенность которых не может быть полностью снята каким-либо испытанием.
Задачи
1. Доказать, что в случае равнораспределения вероятности по элементам множества количество информации по Щеннону сводится к количеству информации по Харди.
2. Предложить алгоритм задания вопросов, реализующий количество информации по Харди для множества студентов группы.
3. Какое количество информации получает школьник младших классов при работе в научной лаборатории в течении 10 минут, если ему поручено записывать показания восьмиразрядного цифрового вольтметра с интервалом в 10 секунд.
4. Как изменится количество информации, получаемой при некотором измерении, если используемый измерительный прибор заменить на более точный с ценой деления шкалы, в 100 раз меньшей цены деления исходной.
|
|
5. В партии 100 сенсоров, из них 5% бракованных. Из партии выбирают наугад 5 сенсоров для контроля. Какое количество информации содержится в сообщении о том, что в случайной выборке оказалось ровно 3 бракованных прибора?
6. Многоканальная сенсорная система состоит из 32 равнонадежных элементов и имеет устройство контроля их исправности. Определить минимальное число проб, которое необходимо выполнить этому устройству, чтобы установить любой неисправный элемент.
7. Для случая, когда в каждом испытании некоторой системы реализуется один из двух возможных исходов с заданной вероятностью p, записать количество получаемой в таком испытании информации по Шеннону и найти максимум этой функции. Построить график функции и проинтерпретировать полученный результат.
8. Используя метод неопределенных множителей Лагранжа, показать, что для системы, которая может находиться в одном из N состояний с вероятностью , где , максимуму информационной энтропии соответствует равномерное распределение вероятностей .
9. Найти распределение вероятностей, соответствующее максимуму информационной энтропии (см. предыдущую задачу) в случае, когда для системы задано еще и среднее значение некоторого свойства G, принимающее значение в состоянии . Вычислить значение информационной энтропии, соответствующее полученному распределению и проинтерпретировать результат в случае, когда G – внутренняя энергия системы.
10. Показать, что для всех положительных x выполняется соотношение , где равенство достигается только в случае x =1.
11. С точки зрения субъективной теории информации получение сведений о системе можно интерпретировать как изменение субъективных вероятностей различных состояний системы. В этом случае изменение информированности наблюдателя оценивается количеством информации Рени , где p0i и pi – исходное и новое распределения вероятностей соответственно. Используя результат предыдущей задачи, доказать, что информация Рени положительно определена и интерпретировать приведенное выше соотношение при различных p0i и pi.
|
|