Учебно-исследовательское задание

1. Устойчивость и равновесие фаз в термодинамических системах. Понятио критического состояния.

2. Поверхности раздела фаз в термодинамических системах.

Литература

1. В.И.Тихонов. Статистическая радиотехника. М.: Радио и Связь, 1982.

2. В.Т.Горяинов, А.Г.Журавлев, В.И.Тихонов. Статистическая радиотехника. Примеры и задачи. М.: Сов.Радио, 1980.

3. Д.Д.Кловский, В.А.Шилкин. Теория передачи сигналов в задачах. М.: Связь, 1978.

Практическое занятие 16.

Тема 14: Непрерывные системы передачи информации

Определения и глоссарий

Энтропия и производительность непрерывного источника, эпсилон-энтропия Колмогорова, Количество информации по Колмогорову, дифференциальная энтропия, отношение сигнал/шум, пропускная способность непрерывного канала.

Задачи

1. На вход приемного устройства воздействует колебание у(t)=х(t)+n(t), где сигнал х(t) и помеха n(t) - независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно Dx и Dy. Определить: 1) количество взаимной информации I(x;y), которое содержится в каком-либо значении принятого колебания у(t) о значении сигнала х(t); 2) полную среднюю взаимную информацию I(X;Y).

2. Вычислить полную среднюю взаимную информацию I(X;У) между случайными величинами X и Y, имеющими нормальные плотности вероятностей и коэффициент взаимной корреляции Rxy.

3. По линии связи передаются непрерывные амплитудно-модулированные сигналы x(t), распределенные по нормальному закону с математическим ожиданием mх=0 и дисперсией D=8 В2. Определить энтропию Н(X) сигнала при точности его измерения Dx=0,2 В.

4. Непрерывная случайная величина X имеет плотность вероятности р1(х). Величина Y есть однозначная функция Y=g(Х). Показать, что , где Н(X), Н(Y) соответственно - дифференциальные энтропии величин X и Y; D (x/y) — якобиан преобразования от х к у.

5. Средняя мощность передаваемых сигналов Dx. Найти распределение, которое при данном ограничении обладает максимальной энтропией, равной Н(X)=(1/2) ln(2pеD).

6. Определить полосу пропускания канала передачи телевизионного черно-белого изображения с 5•105 элементами, 25 кадрами в секунду и 8 равновероятными градациями яркости для отношения сигнал шум Ps/Pn=D/N0F=15 при условии, что изображение может принимать наиболее хаотичный вид - вид «белого шума». Здесь D – дисперсия сигнала х(t), представляющего собой стационарный гауссовский процесс с равномерной спектральной плотностью в полосе [0,F], N0 – постоянная спектральная плотность нормального стационарного шума n(t), причем х(t) и n(t) статистически независимы.

7. Найти спектральную плотность сигнала S(f), которая при заданных значениях его полной мощности и спектральной плотности гауссовской помехи N(f) обеспечит максимальную скорость передачи информации.

8. Информация передается посредством изменения амплитуды сигнала X, распределенной по нормальному закону с параметрами mх = 0 и Dх = 15. Величина X измеряется регистрирующим устройством с погрешностью Z, не зависящей от амплитуды сигнала и также распределенной по нормальному закону с математическим ожиданием mz = 0 и дисперсией Dz=9. Определить количество информации I(X;Y) о величине X, заключенное в случайных результатах измерений величины Y=X+Z.

9. Для контроля исправности блока периодически измеряют напряжение в контрольной точке схемы. При исправном блоке это напряжение равно 1 В, а при неисправном — 0 В. Ошибка вольтметра распределена равномерно с нулевым средним, но ширина этого распределения зависит от значения измеряемого напряжения: она равна 2 В, если напряжение на выходе составляет 1 В, и 1 В в противном случае. В среднем в 90% времени блок исправен. Вычислить количество информации I(X;Y), доставляемой прибором при одном измерении.

10. Информация передается с помощью частотно-модулированных синусоидальных сигналов, рабочая частота F которых принимает с равной вероятностью значения от f1= 10 МГц до f2 = 50 МГц. Определить энтропию Н(F), если точность измерения частоты Df=2 кГц.

11. Измерительное устройство вырабатывает временные интервалы, распределенные случайным образом в пределах от 100 до 500 мс. Как изменится энтропия случайной величины при изменении точности измерения с 1 мс до 1 мкс?

12. Вычислить дифференциальную энтропию нормального закона с дисперсией D и равномерного распределения с той же дисперсией.

13. В результате полной дезорганизации управления n самолетов летят с произвольными курсами. Управление восстановлено и все самолеты взяли общий курс со средней квадратической ошибкой sj = 3°. Определить изменение энтропии ΔH считая, что в первом состоянии имеет место равномерное распределение вероятности, а во втором — нормальное.

14. Плотность вероятности случайного процесса х(t) имеет вид , х > 0. Найти дифференциальную энтропию величины X.

15. Определить энтропию H(X) случайной величины X, функция распределения которой дается выражением .

16. Показать, что если система с нормальным распределением координаты переходит из состояния, при котором Dх = a в состояние, при котором Dх = b, то приращение энтропии ΔH=2log(b/a).

17. Найти дифференциальную энтропию случайной величины Y=Asin(ωt), где t равномерно распределено в интервале от –π/ω до π/ω; A и ω — положительные постоянные.

18. Определить условную дифференциальную энтропию H(Х|у) и среднюю условную дифференциальную энтропию H(X|Y) случайной величины X относительно Y, а также H(Y|x) и H(Y|X) случайной величины Y относительно X для системы (X,Y) гауссовских случайных величин.

19. Найти дифференциальную энтропию Н (X) равномерного распределения на отрезке (0, 2) и энтропию суммы двух независимых случайных величин X и Y, равномерно распределенных на указанном интервале.

20. Радиоприем осуществляется на две антенны, разнесенные в пространстве так, что сигналы х(t) и у(t) в ветвях статистически независимы. Определить энтропию H(Z) колебания z(t) на выходе суммирующего устройства, если х(t) и у(t) распределены по нормальному закону с нулевыми математическими ожиданиями и дисперсиями Dx=16 В2 и Dy=25 В2.

21. Показать, что если Y=X±с, где с - постоянная величина, или Y=-X, то Н(Y)=Н(X)

22. Измерительное устройство вырабатывает случайный сигнал х(t) с нормальной плотностью вероятности и корреляционной функцией вида Rx(t)=Dxe-a|T|. Определить энтропию сигнала и его изытбочность, вызванную наличием корреляции, если Dх=36 В2.

23. Ансамбль сигналов, проходящих через усилитель, имеет значения, ограниченные сверху величиной х=b и снизу - величиной х=а. Найти максимальную энтропию Hm(X) и энтропию H(X) на единицу времени, если ширина полосы пропускания усилителя равна F.

24. Передаваемые сигналы ограничены по пиковой мощности. Определить распределение, которое при данном ограничении обладает максимальной энтропией, а также вычислить энтропию при этом распределении.

25. Сигнал с математическим ожиданием mх может принимать только положительные значения (р1(х)=0 при х<0). Найти распределение, которое при данных ограничениях обладает максимальной энтропией.

26. Показать, что при заданной энтропии нормальное распределение вероятностей имеет наименьшую из всех одномерных распределений дисперсию.

27. Определить максимально возможную скорость передачи информации по радиотехническому каналу связи пункта управления с телеуправляемой ракетой, если полоса пропускания канала связи равна 3 МГц, а минимальное отношение сигнал/шум по мощности в процессе наведения ракеты на цель равно трем.

28. Вычислить пропускную способность канала связи с амплитудно-импульсной модуляцией, если число уровней сигнала 16, полоса частот исходного сигнала Fs, сигнал равномерно распределен на интервале (-Um, +Um), а вероятность искажения, выражающая возможность перехода в соседний уровень, 5%.

29. Сравнить пропускные способности двух каналов связи, если в первом действует белый гауссовский шум в полосе F с дисперсией D=1 В2, а во втором - белый шум, равномерно распределенный в интервале ±1,5 В с полосой 2F. Считать, что мощность передаваемого сигнала Ps велика по сравнению с мощностью шумов.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: