Вопросы. 1.2. Дайте основные свойства энтропии для дискретных систем

1.1. Что такое энтропия?

1.2. Дайте основные свойства энтропии для дискретных систем.

1.3. Укажите, когда энтропия приобретает максимальное (минимальное) значение.

1.4. Выразите энтропию объединения двух систем в случае независимых и зависимых систем.

1.5. В чем отличия количества информации по Хартли и по Шеннону?

1.6. В чем разница между понятиями объем информации и количество информации?

1.7. Как зависит количество информации от сообщения об отдельном событии от вероятности этого события?

1.8. Приведите выражение взаимной информации.

1.9. Во что превращается полная взаимная информация в случаях полной независимости и полной зависимости систем.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: