непрерывная функция, дискретного аргумента

1 этап развития информационных систем характеризуется: 1950-1960 гг., появлением информационных систем обработки расчетных документов

2 этап развития информационных систем характеризуется: 1960-1970, появлением управленческих систем обработки расчетных документов.

3 этап развития информационных систем характеризуется: 1970-1980, появлением систем поддержки принятия решений, систем для высшего звена управления.

H(α)=-∑pi Log2 pi основание логарифма определяет единицу измерения: е-нат; 2-бит; 10-дит.

Автор книги «Кибернетика как наука об управлении и связи в животном и машине»: Норберт

Аксиомы теории систем: Аксиома согласованности; Аксиома детерминизма; аксиома причинности.

Алгебраические фракталы: Фазовый портрет; Установившийся процесс; Аттрактор.

Амплитуда: максимальное значение периодически изменяющейся величины

Амплитудная модуляция: расширяет исходный спектр ввода входящего сигнала в два раза, амплитуда сигнала изменяется прямо пропорционально низкочастотному информационному сигналу; это процесс формирования амплитудно-моделированного сигнала

Амплитудно-частотный спектр: амплитуды и частоты спектральных составляющих сигналов

Амплитуды спектральных составляющих периодической последовательности:
частота первой гармоники, частота первой амплитуды

Аналоговыми называются сигналы, которые: Могут представлять бесчисленное количество значений некоторой величины в пределах ограниченного диапазона

Ансамблем называется: Полная группа событий с известным распределением вероятностей, составляющих в сумме единицу; Полная совокупность состояний с вероятностями их появления; Множество возможных сообщений с их вероятностными характеристиками.

Архивация: устранение из заданного текста избыточности

Аттракторы классифицируют по регулярности: Регулярные; Странные

АЦП: аналого-цифровой преобразователь - преобразует аналоговый сигнал в цифровой

База импульсов: произведение длительности импульса на ширину спектра.

База – это: ширина импульса, амплитуда импульса

Базисная функция – основа для представления: сложного сигнала совокупностью элементарных.

Безусловная энтропия – это: максимальная информация, потенциально содержащаяся в системе

Безызбыточное кодирование информации применяется- для согласования информационных характеристик источника и канала

Белый гауссов шум - выходная величина непрерывного источника: Теорема Котельникова

Белый шум - спектральная плотность шума постоянная и Sz (f) =N0 / 2 на всем диапазоне частот

Бит: единица измерения информации (статистическая мера) при основании логарифма 2

Бит – это термин, обозначающий наименьшую единицу информации, с которой может оперировать компьютер

Блоковые коды: сопоставляется блок из n символов; блок из n символов сопоставляется каждой букве сообщения; n остается постоянным для всех букв сообщения

В 30-е годы 20-го столетия философия явилась источником возникновения обобщающего направления,названного теорией систем. Основоположником этого направления считается: Берталафни

В Audio CD используется частота дискретизации 44,1 кГц: ½ частоты дискретизации воспроизведения; Запись 16-разрядного стереозвука; Позволяет воспроизводить звуковые частоты до 22,05 кГц.

В действительности “каналом связи” является любая естественная или искусственная система, в которой можно выделить: начальное состояние (входной сигнал) Х и конечное (выходной сигнал) У

В зависимости от длины кодовой комбинации, т.е. от количества образующих ее символов различают коды- равномерные, неравномерные

В зависимости от целей кодирования, различают следующие его виды: кодирование по образцу, эффективное, помехоустойчивое, криптографическое кодирование и шифрование используется, это нужно защитить информацию от несанкционированного доступа

В информационные системы входят следующие основные компоненты: Специалисты, обслуживающие и использующие программно-технические средства; Средства вычислительной техники, телекоммуникации и реализации функций АИС

В каких аспектах рассматриваются информационные меры: Статистическом и семантическом.

В комбинаторной мере количество информации определяется как: совпадающее с числом возможных сочетаний, перестановок и размещений элементов

В комбинаторной мере количество информации определяется как: Число комбинаций (элементов) совпадающее с числом возможных сочетаний; Число комбинаций (элементов) совпадающее с числом возможных перестановок; Число комбинаций (элементов) совпадающее с числом возможных размещений элементов.

В системной области жесткого диска находятся: Загрузочная запись; таблица разделов, Корневой каталог.

В случае блочных кодов, при кодировании, каждому дискретному сообщению ставится в соответствие: кодовая комбинация.

В случае равновероятных состояний источника формула Шеннона имеет вид (формула Хартли): .

В структурном подходе к измерению информации различаются … мера информации: геометрическая, комбинаторная и аддитивная

В студенческой группе 24 человека: 21 юноша и 3 девушки. Определить количество информации, содержащееся в сообщении, что староста группы – девушка: 3 бита.

В условиях отсутствия помех скорость передачи информации определяется по формуле: C=n*H

Важный вклад в становление системных представлений внёс в конце 19 века основоположник тектологии: Богданов.

Важный вклад в становление системных представлений внесли в 19 веке: Ампер, Богданов, Трентовский.

Введение какой величины позволило использовать формулу энтропии за пределами термодинамики молекулярных систем: значений вероятностей

Введение численной меры количества информации позволяет: сравнивать различные сообщения по их содержательности, оценивать скорость передачи информации, определять предельное количество информации, которое может быть передано в данных конкретных условиях

Величина кодового расстояния в помехоустойчивом коде зависит от числа … кодов проверочных разрядов

Вид иерархии при делении объекта на части по различным признакам во время анализа процесса управления: пространственная; функциональная; ситуационная.

Виды сигналов – непрерывные, случайные

Восприятие информации конечным потребителем может быть затруднено из-за наличия различных помех, называемых: информационным шумом.

Воспроизведение сигнала по выборкам можно производить на основе ортогональных так и неортогональных базисных функций, которые определяют тип аппроксимирующего полинома и принцип приближения: интерполяционный, комбинированный

Восстановление переданных сообщений на приемной стороне канала связи путем преобразования линейных сигналов - демодуляция

Вся информация, хранящаяся на дискете (жестком диске), состоит из: системной области; области данных.

Выберите правильное определение понятия глубины числа «q»: количество символов (элементов), принятых для представления информации.

Выражения, относящиеся к непрерывной модуляции: w=w0+∆w*x(t); ϕ=ϕ0+∆ϕ*x(t); U=U0+∆U*x(t);

Выходная величина дискретного источника информации- символ алфавита источника

Выходная величина непрерывного источника информации- белый гауссов шум

Гауссов канал- многомерный и шум имеет гауссово распределение

Где определено правильно количество информации, содержащиеся в принятом ансамбле сообщений относительно переданного ансамбля сообщений в условиях действия помех: I(B,A)=H(A)+H(B)-H(B,A); I(X,Y)=H(Y)+H(X)-H(X/Y); I(C,D)=H(D)+H(C)-H(C/D);

Генерация на выходе последовательности статистически зависимых символов дискретные источники с памятью

Генерация на выходе последовательности статистически зависимых сигналов после получения соответствующей команды от кодера канала- дискретные источники с управляемой скоростью

Генерация на выходе последовательности статистически не зависимых символов с заданным распределением вероятности - дискретные источники без памяти

Главная загрузочная запись – MBR диска – состоит из: выполняемого кода, таблицы разделов.

Двойная модуляция передача данных - беспроводная система

Декодирование - это: операция восстановлений сообщений по принятому сигналу

Декодирование информации- восстановление исходной дискретной последовательности сигналов

Декодирование информации с жесткими решениями- 1- передача; 2- принятие решения о каждом сигнале (0 или 1); 3- декодирование

Демодулятор: Устройство для выполнения обратных операций восстановления величин, вызвавших изменения параметров при модуляции.

Детерминированные колебания определены: в любые моменты времени

Динамические сигналы: изменения состояния электромагнитного поля; изменение состояния поля сил упругости в газе, жидкости, твердом теле; световые и радиосигналы

Дискретизатор – это устройство: Преобразующее аналоговый сигнал в цифоровой код; Преобразующее непрерывный сигнал в дискретный

Дискретизация - рациональный метод обработки для помехоустойчивой передачи

Дифференциальная энтропия это: условный аналог энтропии дискретной величины

Для того чтобы определить по виду синдрома, в каком разряде произошла ошибка: Выполняем транспонирование матрицы; Транспонированная матрица П строится, дополненная единичной матрицей Ink.

Для удобства исчисления энтропии сообщений, передаваемых двоичным кодом, Шеннон заменил используемый термодинамикой … двоичным логарифмом log2: натуральный логарифм

Для уменьшения избыточности сообщений: следует учитывать вероятности их сочетаний

Для чего служит помехозащищенное кодирование: для восстановления искаженной информации

Для чего служит эффективное кодирование: Для ускорения передачи информации по каналу связи

Достоинствами цифровых методов модуляции являются: Слабое влияние неидеальности, Возможности восстановления сигналов, Высокая помехоустойчивость

Единица измерения скорости передачи данных: Бит/с.

Единицей неопределенности служит: Единица с названием «бит».

Единственно возможными причинами потери информации в канале являются «дефицит алфавита» и шум

Если известна информационная часть кода, то значения проверочных символов определяются по формуле: Pj=P1ja1+ P2ja2+ P3ja3……+ Pnujanu; Pj=∑ Pijai.

Если система имеет m равновероятных состояний, то можно сказать, что энтропия системы: максимальна, равна log2m, максимальна и равна log2m

Задан код Хэмминга, предназначенный для исправления однократных ошибок. Определить правильность высказывания, если на приемной стороне получена следующая кодовая комбинация: kknknnn – 1001001 – a1a2a3a4a5a6a7 : во 2-ом разряде допущена ошибка, в 3-м разряде не допущена ошибка, в 5-м разряде не допущена ошибка.

Задача оптимального скалярного квантования - минимизация ошибок квантования при заданной скорости передачи информации

Значность: число символов в кодовой комбинации

Избыточность языка позволяет передавать - информацию без потерь

Избыточные коды – обнаруживающие коды

Изменение фазового угла несущей частоты колебаний 0 пропорционально амплитуде модулирующего сигнала s(t) - фазовая модуляция

Измерение качества квантования аналоговых источников информации- сигнал/шум в дБ

Измерение чего предполагает геометрическая мера информации: параметра геометрической модели информационного сообщения в дискретных единицах

Имеется источник и приемник, тогда потери в канале связи при передачи одного символа определяются с помощью: H(A|B) H(X|Y)

Информативные параметры модуляций: амплитуда, частота, фаза

Информационный процесс передает сообщения между средой и: Вычислительной системой; Информационной базой.

Использование последовательности прямоугольных импульсов в качестве модулированных сигналов - импульсная модуляция

Источник в обобщенной структурной схеме системы передачи сообщений - ) «Черный ящик»-

Источник информации, выдаёт сообщение, состоящее из: последовательности букв первичного алфавита.

Импульсно-кодовая модель используется для - аудио видео телеметрии; Оцифровки аналоговых сигналов; Всех видов аналоговых данных

К какому методу кодирования относятся коды Хаффмана: эффективное кодирование

К числу информационных систем, имеющих самостоятельное значение относятся: Информационно- справочные системы, информационно-поисковые системы

Каждая из разрешенных хк комбинаций в результате действия помех может трансформироваться в любую другую (n-число символов в последовательности на выходе кодирующего устройства). Указать, где определено количество безошибочной передачи: 2к(2n-2k), 3k(3n-3k), 4k(4n-4k).

Каждая из разрешенных ХК комбинаций в результате действия помех может трансформироваться в любую другую (n-число символов последовательности на выходе кодирующего устройства).Указать количество не обнаруживаемых переходов: &2k(2k-1), 3k(3k-1), 4k(4k-1).

Как изменяется спектр периодического сигнала прямоугольной формы при T=const и изменить длительности импульсаtu: увеличивается коэффициент искажения; уменьшается коэффициент искажения; изменяется коэффициент искажения.

Как изменяется спектр периодического сигнала прямоугольной формы при T=const и изменить длительности импульса t0:

Как иначе называется аддитивная мера информации: Мера Хартли.

Как может быть достигнуто уменьшение избыточности, обусловленной неравномерностью сообщений: применением неравномерных кодов

Как называется сигнал, если его параметр может принимать любое значение в пределах некоторого интервала: непрерывным, аналоговым.

Как называется способность обнаружения и исправления ошибки в кодовой комбинации: обнаруживающей или исправляющей.

Как называются кодовые комбинации, необходимые для передачи полезной информации: проверочные

Как называются неиспользуемые кодовые комбинации при построении помехоустойчивых блочных кодов: запрещенными.

Как определяется правильный прием информации: взаимной энтропией; апостериорная энтропия равна нулю; априорный энтропией источника.

Какая из записей идентична приведенной Сn=n*[H(A)-H(A/B)]: Сn=n*[H(B)-H(B/A)]

Какая из матриц полностью характеризует объединение двух статистически связанных ансамблей X и Y: P(X,Y)

Какая система счисления является наиболее эффективн.для ЭВМ: двоичная, d2, с основанием 2.

Какая теория оперирует понятием энтропии как меры неопределенности: Статистическая

Какая теория рассматривает дискретное строение массивов информации и измерение простым подсчетом информационных элементов (квантов): Структурная

Какая теория учитывает целесообразность, ценность, полезность и существенность информации: Семантическая.

Какие из свойств энтропии правильно определены: H(p) непрерывна на интервале 0<= pi <=1; Энтропия равно 0, когда вероятность одного из событий равно 1; Энтропия имеет наибольшее значение, когда все вероятности равны между собой.

Какие из следующих утверждений об условной энтропии правильно определены: условная энтропия является величиной неотрицательной; условная энтропия не превосходит безусловную.

Какие коды называются помехоустойчивым: коды способные исправлять и обнаруживать ошибки.

Какое из пяти свойств энтропии неправильно определено: Энтропия всегда отрицательна

Какое количество информации требуется, чтобы узнать исход броска монеты: 1 бит.

Какое количество информации, приходится на букву алфавита, состоящего из 16 букв: 4 бит; 2*2 бит; log216 бит.

Какое преобразование позволяет согласовать статистические характеристики сигнала и канала связи: Кодирование

Какой вид модуляций дает возможность автоматизировать передачу и обработку сигналов с помощью ЦВМ: Цифровые методы модуляций

Какой закон служит началом идеи применения физических законов в теории информационных процессов: Второе начало термодинамики.

Какой из перечисленных процессов описывается представленной на рисунке частотной диаграммой:

Какой канал мы представляем идеальным: канал, у которого вероятность возникновения ошибки близка к нулю, канал, у которого возможна передача информация без потерь, передача информации со скоростью равной пропускной способности канала.

Какой этап в ИС не относится к обращению информации: (1-Этап восприятия информации; 2-Этап подготовки информации; 3-Этап передачи и хранения информации; 4-Этап обработки информации; 5-Этап приема пищи): 5

Какой функцией описан сигнал, график которого приведён на рисунке - функция детерминированного сигнала

Какую «площадь» на плоскости «частота-время» занимает тот или иной сигнал: Меняя форму сигнала S(t), можно менять и занимаемую им площадь; Для большинства сигналов энергетический критерий позволит ограничить ее естественным образом; По теории Фурье преобразований, площадь для всех сигналов бесконечна.

Канал с аддитивным белым гауссовским шумом (АБГШ)- модель непрерывного по времени канала

Качественные методы описания систем: методы типа мозговой атаки; методы типа сценариев; методы экспертных оценок.

Квантование информации применяется: при оцифровки звука; при сжатии изображения; при преобразовании в цифровой формат.

Квантование информации: преобразование «естественной» информации в дискретную форму; диапазон возможных значений разбивается на несколько уровней; приводит к потере некоторой доли информации.

Квантование по уровню создает: Возмущающее воздействие; На выходе ошибку второго порядка малости по сравнению с эффектом от дискретизации во времени. ОШИБКУ КВАНТОВАНИЯ ПО ВЫХОДУ

Квантование сигнала – это преобразование: сигнала в последовательность импульсов; в сигнал со ступенчатым изменением амплитуды; в код в вычислительных устройствах.

Квантование: Сигналы с ограниченной полосой частот.

Кем была впервые введена функция энтропии: Р.Клаузиусом

Классификация методов дискретизации может быть проведена по следующим признакам: Критерий оценки точности дискретизации и восстановления; регулярность отчетов, В зависимости от способа получения координат сигнала

Классификация методов кодирования источника информации-, безызбыточное (экономное) и помехоустойчивое

Классы детерминированных сигналов- п роизволь ный по величине и дискретный по времени, квантованные по величине и непрерывные по времени

Кодер источника преобразует: исходную последовательность в последовательность символов

Кодирование позволяющее устранять избыточность источников сообщений называется: Эффективным, Статистическим.

Кодовое дерево, между висячими вершинами и сообщениями ансамбля с экономичным префиксным кодом- кодирование по методу Фано

Кодовый вектор: вектор ошибки; n-разрядная двойная последовательность ПОСЛЕДОВАТЕЛЬНОСТЬ НУЛЕЙ И ЕДИНИЦ, ПРИНАДЛЕЖАЩИХ ДАННОМУ КОДУ

Количественные методы описания систем: Теоретико-множественный подход; Кибернетический подход; Агрегативное описание.

Количественные характеристики источника сообщений: Избыточность; Экономичность; Производительность источника сообщений.

Количество информации можно определить: Как меру уменьшения неопределенности; В результате получения сигнала; Разностью энтропии до и после приема сигнала.

Количество информации, согласно теории информации до опубликования теории Шеннона предложил: Р.Хартли

Количество символов в алфавите 32. Сообщение передается комбинациями по n=3. Определить количество информации, содержащееся в сообщении, также удельную информацию: 15 бит, 5 бит/симв; 45/3 бит, 3+2бит/симв; 5*3 бит, 5 бит/симв.

Количество символов в алфавите 8. Сообщение передается комбинациями по n=3. Определить количество информации, содержащееся в сообщении, также удельную информацию: 9 бит, 0,003 Кбит/симв; 3 бит/симв, 0,009 Кбит; 9 бит, 3 бит/симв.

Коммутация каналов связи- совокупность операции, обеспечивающих последовательное соединение простых каналов для создания единого сквозного канала

Котельниковым доказана теорема: Если непрерывная функция x(t) удовлетворяет условиям Дирихле; Спектр ограничен некоторой частотой fm, то функция полностью определяется дискретным множеством своих значений; для функции с ограниченным спектром.

Кратностью ошибки, каналом с обратной связью, минимальным кодовым расстоянием называют- К оличество искаженных символов в кодовой комбинации, Минимальное расстояние, Прямой канал передачи

Линейные групповые коды: кодовая комбинация отождествляется линейным наименьшем кодовом расстоянии; минимальное расстояние, взятое по всем параметрам линейных разрешенных комбинаций

Логические дефекты на магнитных дисках: потерянные кластеры, пересекающиеся файлы.

Любая коммуникабельная система должна включать следующие компоненты: передатчик, приемник, средства передачи.

Любой объект, который одновременно рассматривается и как единое целое, и как совокупность разнородных объектов, объединенных для достижения определенного результата: Система

Методика Хаффмана гарантирует однозначное построение кода с: наименьшим для данного распределения вероятностей средним числом символов на букву.

Метод макромоделирования характеризуется следующими чертами: полученные модели могут претендовать на только на то, чтобы помочь сущности изучаемого явления; можно говорить только о частных моделях описывающих те или иные объекты; нельзя построить универсальную модель, описывающую всю систему языка во всем ее многообразии

Методы модуляций – амплитудная, фазовая, частотная

Множество существенных свойств, которыми система обладает в данный момент: состояние.

Модели, как и системы, могут быть: вероятностными, детерминированными.

Модуляция – это: Перенос полезной информации каким-нибудь одним параметром гармонического колебания; Процесс изменения параметра синусоиды; Изменение параметра переносчика в соответствии с изменением основного сигнала.

Модуляция в зависимости от того, на какой из параметров несущего колебания «накладывают» полезную информацию: Амплитудная, Частотная, Фазовая.

Модуляция- обеспечение возможности селекции линейных сигналов на приемной стороне

На вход кодирующего устройства поступает последовательность из x^k информационных символов. На выходе ей соответсвует последовательность из x^n символов (n>k). Указать соотношение, определяющее число запрещенных кодовых комбинаций: 2^n – 2^k; 3^n – 3^k; 4^n – 4^k;

На вход кодирующего устройства поступает последовательность из информационных двоичных символов. На выходе её соответствует последовательность из n двоичных символов, большее числу информационных элементов. Указать соотношение, определяющее число разрешенных кодовых комбинаций: 2k; 2j; 2m.

На какие классы можно подразделить помехоустойчивые коды: блочные и непрерывные

На чем основана методика эффективного кодирования Шеннона-Фено: На учете вероятностей появления букв первичного алфавита

На экране индикатора сигнала, представляющего реле с 15 вертикальными и 10 горизонтальными полосами, появляется изображение объекта в виде яркостной отметки. Определить количество информации, содержащейся в сообщении. Объект находится в 3-м горизонтальном столбце: I=Log210, I= Log2 Log21024, I=0,5*Log2100.

На экране индикатора сигнала, представляющего реле с 5 вертикальными и 5 горизонтальными полосами, появляется изображение объекта в виде яркостной отметки. Определить количество информации, содержащейся в сообщении. Объект находится в 3-м вертикальном столбце: I=Log25, I= Log2 Log232, I=0,5*Log225.

Надежность передачи информации зависит от- 1- физической среды распространения сигнала; 2- метода модуляции и демодуляции

Назвать формулу для вычисления j-го элемента синдрома: Sj=Pj+∑Pijaj; Sj= ∑Pijaj+Pj; Sj=Pj+∑ajPij.

Назначение декодера канала обнаружение и исправление ошибок

Назовите наиболее полное определение «длина числа n»: количество позиций, необходимых и достаточных для представления чисел заданной величины

Назовите причины обуславливающие избыточность дискретных источников: память источника; неравномерность сообщений.

Назовите способы модуляции сигналов: Амплитудная, частотная, фазовая модуляции

Назовите типы каналов связи (или режимов передач): симплексные, полудуплексные, дуплексные (Выделенные и коммутируемые)

Наиболее правильное определение понятия сигнал – проявление информации в материально-энергетической форме, материальный носитель информации для передачи сообщения в ИС; физический процесс, представляющий собой материальное воплощение информационного сообщения

Некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятность соответственно 0,5 и 0,5. Данный пример описывает: Случайное событие; Неопределенность исхода; Наступление события

Носителями информации являются: колебания

Обеспечить такое кодирование, при котором путём устранения избыточности снижается среднее число символов, требующихся на букву сообщения называют целью: кодирования информации.

Обратные связи: положительные и отрицательные, гибкие и жесткие.

Общая задача кодирования (декодирования) - согласование источника (получателя) сообщения с каналом связи

Одна из теорем Шеннона свидетельствует об …. информационной энтропии множества, образованного в результате взаимодействий двух исходных упорядоченных множеств уменьшении

Операция упорядочивания сообщений ансамбля ХI, при наличии равновероятных сообщений - неоднозначна

Описание системы в виде «черного ящика» опирается на следующие интуитивно понятные положения: система обособлена и целостна; среда воздействует на систему; система воздействует на среду.

Описание системы присущее только в виде «белого ящика»: состояния – некоторые внутренние объекты системы, которые связывают собой всю предысторию входов; связь между входом и состоянием называется переходным отображением; связь между состоянием и выходом называется отображением выхода или функцией наблюдения.

Определите правильное определение базы импульса: B= f

Определить информацию, содержащуюся в изображении, при условии, что оно разлагается на 300 строк по 300 элементов в каждой строке. Яркость каждого элемента передается 8 квантованными уровнями. Различные градации яркости равновероятны и яркости разных элементов статически независимы: I=9*104*Log28; I=(300)2Log223; I=27*104.

Определить кратность исправляемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 6 при d0=7; 4 при d0=5.

Определить кратность исправляемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 8 при d0=9; 4 при d0=5.

Определить кратность исправляемых ошибок помехоустойчивым кодом, миимальное кодовое расстояние которого d0: 10 при d0=11; 8 при d0=9

Определить кратность обнаруживаемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 2 при d0 =3; 3 при d0 = 4; 5 при d0 = 6.

Определить кратность обнаруживаемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 3 при d0=4, 4 при d0=5, 1 при d0=3.

Определить кратность обнаруживаемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 2 при d0=5, 4 при d0=9, 1 при d0= 3.

Определить кратность обнаруживаемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 1 при d0=2.

Определить кратность обнаруживаемых ошибок помехоустойчивым кодом, минимальное кодовое расстояние которого d0: 4 при d0=5.

Определить правильное определение префиксных кодов: Ни одна комбинация кода не совпадает с началом более длинной комбинации; Комбинация кода может совпадать с концом длинной комбинации; Комбинация кода может совпадать с концом менее длинной комбинации.

Основное назначение помехоустойчивого кодирования заключается: в обеспечении малой вероятности искажений передаваемой информации, несмотря на присутствие помех или сбоев в сети.

Основной вид знаний информационного ресурса: декларированные или фрактальные, понятийные или системные, процедурные или алгоритмические.

Основные принципы синергетического подхода в естествознании: Неравновесность является необходимым условием появления новой организации, нового порядка, новых систем, то есть – развития; Природа иерархически структурирована в несколько видов открытых нелинейных систем разных уровней организации; Когда нелинейные динамические системы объединяются, новое образование не равно сумме частей, а образует систему другой организации или систему иного уровня.

Основные причины возникновения ошибок при восстановлении сообщения – вынужденное нарушение требований теоремы отсчетов, Не прямоугольность частотных характеристик фильтров

Основные типы каналов связи - непрерывный, дискретный, полунепрерывный

Основные типы функций, применяемые в задачах дискретизации: ряд Фурье, ряд Котельникова; Функции Уолта, функции Хаара; полиномы Чебышева, полиномы Лежандра.

Особенность спектра периодического сигнала: дискретность

Отражает наиболее существенные взаимоотношения между элементами и их группами, которые мало меняются при изменениях в системе и обеспечивают существование системы и её основных свойств: структура.

Отражение характеристики скалярного квантования при скорости больше 1,5 Бит/сек - асимптотическая оценка избыточности (граница Кошелева

Ошибочные кодовые комбинации от общего числа возможных случав передачи составляет: (2n - 2k) / 2n; (2n - 2k *20) / 2n; p-(2k / 2n)

Параметр колебания, изменяющейся по закону модулирующего сигнала называется информативным

Передача двух сигналов одновременно- полярная модуляция

Передача закодированного номера кванта кодом Хаффмена или арифметическим кодом - равномерное квантование

Передача цифровой информации обеспечивается использованием следующих методов управления модуляции: амплитудной, частотной, фазовой

По какой формуле, предложил Р. Клаузиус исчислять превращение энтропии: S =Q / T; где S – энтропия, Q - количество тепла, Т- - абсолютная температура

По принципу приближения можно выделить группы методов: интерполяционные; комбинированные; приближенные

По теореме Шеннона вытекает,что для любого источника дискретных сообщении скорость передачи информация по идеальному каналу может быть сделана сколь угодно близкой к … при отсутствии потерь информации: пропускной способности канала

По теореме Шеннона основным свойством помехоустойчивых кодов является: наличие избыточности.

Погрешность восстановления исходного гармонического сигнала при малом числе уровней квантования - очень велика

Под гауссовым каналос связи понимают математическую модель канала связи, построенную при следующих допущениях: в канале действует аддитивный белый гауссовый шум который является случайным сигналом с равномерной спектральной; полоса пропускания канала ограниченной верхней чистотой Fmax

Под кодовым расстоянием понимают количество: неодинаковых разрядов в двух кодовых комбинациях.

Показатели качества корректирующего кода: Rn=((n-k)/n); Rk=((n-k)/k1)

Получение информации исходного сообщения без потерь в другой точке пространства- синтез

Пользователями ИС могут быть: ЭВМ или другие системы, а также люди; Посылающий команды и сообщения

Помехи бывают - фоновые и значимые

Помехоустойчивое кодирование: Введения при кодировании избыточности дает возможность обнаруживать и исправлять ошибки; Позволяет обеспечить передачу всей информации, создаваемой источником сообщений, со сколь угодно малой вероятностью ошибки.

Помехоустойчивые методы модуляции цифровых сигналов – квадратурно-амплитудная, амплитудно-фазовая, многочастотный способ модуляции

Порядок построения кодового дерева хаффмана - символ исходного алфавита признаков сообщений образуют список свободных узлов, каждого из которых равен вероятности появления символов в сообщении

Правило декодирование с минимальной вероятностью ошибки- минимизация вероятности ошибочного декодирования для заданного ансамбля сообщений

Правило декодирования по максимуму правдоподобия предполагает, что известны: множество сообщений, множество кодовых слов, вероятности

Правильное определение префиксного кода: каждая комбинация префиксного кода не является префиксом другой комбинации; Каждая комбинация префиксного кода не является частью другой комбинацией

Преобразование последовательности символов первичного алфавита источника информации в последовательность символов вторичного алфавита - кодирование в дискретном канале

При выборе шага дискретизации рассматриваются различные модели сигналов и вводятся соответствующие критерии отбора отсчетов - частотный, корреляционный

При выборе дискретизации рассматриваются различные модели сигналов и вводятся соответствующие критерии отбора отсчетов: Корреляционный; Частотный

При декодировании информации с мягкими решениями-учитывается надежность полученных символов от демодулятора при выборе оптимального кодового слова

При дискретизации промежуток времени между передними фронтами соседних импульсов: Такт дискретизации; Постоянный такт; Период.

При каких преобразованиях по теореме Шеннона в замкнутой системе энтропия не увеличивается (выберите полный ответ): при любых преобразованиях

Признаки системности: структурированность, взаимосвязь отдельных частей, интегративность.

Применение амплитудной модуляции: расширяет исходный спектр модулирующего сигнала в два раза

Применение помехоустойчивого кодирования- обнаружение и исправление ошибок, возникающих при передаче по дискретному каналу

Примеры дискретных сигналов: показания электронных часов; показания механических часов; книги.

Примеры непрерывных сигналов: речь, музыка, изображение.

Примеры самоорганизации: лазер, ячейки Рэлея-Бенара, реакция Белоусова-Жобатинского.

Примеры странных аттракторов: соленоид Смейла-Вильямса, аттрактор Рёсслера, аттрактор Лоренца.

Примеры хаотических динамических систем: Подкова Смейла, преобразование пекаря.

Причины избыточности в непрерывном случае: неэкстремальность распределений

Пропуская способность линии связи определяется следующими параметрами: типом передающей среды, уровнем шумов, параметрами аппаратуры, обслуживающей линии, нагрузкой на линии связи.

Пропускная способность – максимальная скорость передачи информации, определяется по формуле: Cmax=Hmax/ф, ф-время

Пропускная способность канала иначе называется: информационной емкостью

Пропускная способность линии связи определяется следующими параметрами: уровнем шума; параметрами аппаратуры; нагрузкой на линии связи.

Пропускные способности канала связи человека имеют порядок 50 бит/с: Слухового; Зрительного; Тактильного.

Простейшая неделимая часть саистемы: Элемент.

Пусть А-источник, В-приемник, тогда количество информации в В относительно А определяется как: Н(А,В); I(А,В)

Разделы диска могут быть: Primary; Extended.

Различают коды: Равномерные и неравномерные

Различают коды: Смешанные, неопределенные.

Различают следующие методы защиты от ошибок в сетях: групповые методы, помехоустойчивое кодирование, методы защиты от ошибок в системах передачи с обратной связью.

Различают следующие типы каналов связи: Выделенные и коммутируемые (симплексные, полудуплексные, дуплексные)

Различные виды модуляций – амплитудная, фазовая

Разрешенные кодовые комбинации: Из общего числа 2n выходных последовательностей только 2k последовательностей соответствует входным; Всего может быть 2k различных входных.

Рациональный способ представления стационарных без памяти каналов- использование графов

Реальные сигналы, являющиеся носителями информации, имеют: Конечную длительность; Ограничен по спектру; ограничены по времени.

Результат выполнения операции восстановления (синтеза) - обратный переход от дискретной формы представления сигнала к непрерывной

Результат выполнения операции дискретизации- переход от непрерывной формы представления сигнала к дискретной

Результаты теории сигналов: частотно-временная неопределенность сигналов; дискретный набор отсчетов данной реализации

Сведения, рассматриваемые в момент передачи информации от источника к приемнику: передаваемой.

Свойства энтропии: субаддитивность, неопределенность, симметричность.

Свойства целого не сводятся простой сумме свойств составляющих его частей, а при объединении частей в целое образуется новое качество, не присущее остальным частям: Принцип Эмерджентности.

Свойства энтропии: неопределенность, субаддитивность, симметричность, энтропия всегда неотрицательна

Связи между отдельными частями сообщения отражаются: синтаксическими отношениями, синтаксическими конструкциями, отношениями синтаксиса Связи по силе можно разделить на: слабые, сильные.

Связи по характеру можно разделить на: генетические, равноправные, подчинения.

Связь системы характеризует: направлением.

Сигнал – это материальный носитель информации: средство переноса информации в пространстве и времени.

Сигнал - это: материальный носитель информации, специально создаваемый для передачи сообщения в ИС

Сигнал представляет собой: случайное колебание

Сигнал, спектр которого равен 0, на частотах выше W, может быть точно восстановлен по значениям его отсчетов… Теорема Котельникова-Шеннона

Символы алфавита обладают двумя качественными признаками. Какое количество информации приходится на одно сообщение, если оно образуется из комбинаций по 5 элементов из алфавита: I=Log225, I=Log232, I=5.

Символы алфавита обладают двумя качественными признаками. Какое количество информации приходится на одно сообщение, если оно образуется из комбинации по 3 элемента из алфавита: I=Log223, I=3, I=Log28.

Символы алфавита обладают тремя качественными признаками. Какое количество информации приходится на одно сообщение, если оно образуется из комбинации по 4 элемента из алфавита: I=Log234, I=Log2Nm=Log234, I=Log281.

Символы алфавита обладают шестью качественными признаками. Какое количество информации приходится на одно сообщение, если оно образуется из комбинации по 3 элемента из алфавита: I=Log263, I=Log2216, I=Log2(35-33).

Синдром: проверочный вектор; контрольная последовательность символов

Система – это: единое целое, состоящее из взаимодействующих частей, часто разнокачественных, но одновременно совместимых; сложные технические комплексы

Системы по виду формализованного аппарата представления системы классифицируются на: стохастические и детерминированные.

Системы по сложности структуры и поведения классифицируются на: простые; сложные.

Сколько видов шумов бывает по виду воздействия: 2.

Сколько чисел (и какие) мы используем в двоичной системе счисления: 2(0,1)

Слово "Модем" произошло от понятий: модулятор – демодулятор.

Случайные колебания: предсказать невозможно

Смысл спектральной эффективности кодирования- отражение платы за использование кодов -увеличение полосы частот

Согласно Шеннону, средняя энтропия одной буквы текста вычисляется по формуле: H = – pi ln pi = - (p0 log p0 + p1 log p1 +…+ pn log pn).

Согласно Шеннону, средняя энтропия одной буквы текста вычисляется по формуле: H = - pi ln pi = - (p0 log p0 + p1 log p1 +…+ pn log pn)

Согласование физических свойств сообщений и канала связи может быть достигнуто с помощью: времени передачи по каналу; мощности передаваемого сигнала; расширения спектра сигнала.

Состав дискретного канала- дискретный канал, модулятор, демодулятор

Спектральное представление сигналов – это: Составляющая со своими амплитудами; Разложение в ряд Фурье; Совокупность гармонических составляющих.

Способность системы переходить из одного состояния в другое: Поведение.

Способы модуляции отдельных импульсов, входящих в последовательность отличаются допустимыми значениями - ширина импульсов, амплитуд, модулирующей частотой

Способы устранения шумов в источнике – подавление шумов в источнике, минимизация шумов через канал связи

Среднее количество информации, содержащейся в принятом ансамбле сообщений В относительно переданного ансамбля сообщений А в условиях помех определяется с использованием: энтропии объединения и условной энтропии

Среднее количество информации, содержащиеся в принятом ансамбле сообщений А в условиях помех определяется с использованием: Энтропия объединения; Условная энтропия.

Статистические сигналы: Положение триангуляционной вышки; Стабильное состояние физических объектов.

Степень отличия любых двух кодовых комбинации характеризуется: количеством единиц в сумме этих комбинаций по модулю 2; кодовым расстоянием d

Степень ценности информации для потребителя устанавливает: прагматический фильтр

Структура информационной системы может быть представлена совокупностью обеспечивающих подсистем: Математическая; Информационная; Правовая.

Существуют различные подходы к построению математических моделей сигналов- сигнал принимают квазидетерминированным

Существуют три основных теории в измерении информации: Структурная, статистическая, семантическая

Сущность дифференциальной импульсно-кодовой модуляции заключается в том, что: Передается ошибка предсказания; Число уровней квантования не изменяются; Не упрощается аппаратура.

Сущность дифференциальной импульсно-кодовой модуляции заключается в том, что: Число уровней квантования сигнала ошибки уменьшено до двух; Не упрощается аппаратура

Теорема кодирования: надежная передача информации возможна только тогда, когда отношение сигнал /шум на бит - <1, 59 дБ

Теория помехоустойчивого кодирования базируется на: Не существует способа кодирования, позволяюещго вести передачи информации; При производительности источника сообщений, чем пропускная способность канала.. Существует хотя бы один способ кодирования информации, для которого…

Термодинамическая мера информации (негэнтропия) определяется формулой: Н(Н01)=Н0 - Н1

Техническая скорость передачи: V=1/t симв/сек

Техническая скорость передачи: V=1/T*1; V=1/T; V=1*1/T

Техническая скорость передачи: число элементарных сигналов, передаваемых по каналу в единицу времени; имеет единицу измерения - бод

Типы обеспечивающих подсистем информационной системы: Организационное, Математическое

Типы пропускных способностей канала: Конечная; Шэнноновская.

Увеличение энтропии - неравномерное квантование

Угловая модуляция (angle modulation)- частотная и фазовая модуляции

Удаление одной из групп боковых частот перед подачей сигнала в канал связи- однополосная амплитудная модуляция

Укажите вид, не относящийся к непрерывным видам модуляции: Амплитудно-импульсная модуляция; Импульсная; Кодовая.

Укажите выражение относящиеся к непрерывной модуляции: U=U0+▲U *x(t); w=w0+▲w *x(t); φ = φ 0+▲ φ *x(t).

Укажите выражение относящиеся к широко-импульсной модуляции: тау.

Укажите выражение, относящееся к фазово-импульсной модуляции: V0= V0+x(t)* ▲V; n=▲n *x(t)+ n0; n=n0+▲n *x(t).

Укажите правильное высказывание для симметричного канала связи: H(A)=H(B); H(B)=(A); H(X)=H(Y).

Укажите правильное высказывание: база импульса определенной формы есть величина постоянная; база импульса определенной формы не уменьшается с уменьшением его ширины спектра; база импульса определенной формы не увеличивается с увеличением его длительности.

Укажите правильное высказывание: при уменьшении длительности импульса в а раз в а раз расширяется его спектр; при уменьшении длительности импульса в 2 раза в 2 раза расширяется его спектр; при увеличении длительности импульса в а раз его спектр уменьшается в а раз.

Укажите правильное определение префиксного кода: Каждая комбинация которого не является началом другой Каждая комбинация которого является началом другой

Укажите правильное определение скорости передачи информации: Скорость передачи информации определяется средним количеством информации, которое передается каналом в единицу времени; Скорость передачи информации зависит от статических свойств помех в линии; Скорость передачи информации зависит от объема алфавита.

Укажите правильную формулу для расчёта полной условной энтропии H(V/U)=-

Укажите правильную формулу для расчёта энтропии объединения: H (U,V)= -

Укажите пункт, в котором допущен ошибка описания общей схемы передачи информации: Цель КИ (Кодер источника) – обеспечить заданную достоверность при передачи информации или хранении информации;Кодер источника не преобразует последовательность букв первичного алфавита в последоватльность символов; Не каждой букве соответствует некоторая последовательность символов которая называется кодовой комбинацией

Укажите пункт, в котором допущена ошибка описания общей схемы передачи информации: КК – кодер канала обеспечивает такое кодирование, при котором путём устранения избыточности снижается среднее число; Выбор кодирующих и декодирующих устройств не зависит от статических свойств и источника сообщений; Кодер источника не преобразует последовательность букв первичного алфавита в последовательность символов.

Укажите формулу, которая определяет скорость передачи информации в бит/се для случая неравновероятных взаимонезависимых символов равной длительности: С=-1/t * ∑Ni=1 pilogpi; С=-∑Ni=1 pi/t * logpi; C=-1/t (pilogpi + p2logp2 + … + pnlogpn).

Указать правильную формулировку основной теоремы Шеннона для каналов без шума: Сообщения z, составленные из букв некоторого алфавита можно закодировать так, что среднее число на букву: Icp H(z), но Icp H(z)

Указать правильный вариант построения оптимального кода по методике Шеннона-Фэно: Буквы АВС, вероятность 0,6,0,3,0,1, кодовое слово 1,01,00; Буквы АВС, вероятность 0,7,0,2,0,1, кодовое слово 1,01,00; Буквы АВС, вероятность 0,5,0,3,0,2, кодовое слово 1,01,00.

Указать соотношение, которое не относится ни к необходимым, ни к достаточным условиям неискаженной передачи сигнала по каналу связи: Vc>Vk

Указать формулу для вычисления j-го корректирующего разряда: pj =nu∑ i=1PijAi = P1jA1+P2jA2+…+PnujAnu

Указать формулу полной информационной избыточности: D=Ds+Dp-Ds*Dp; D= Dp +Ds -Ds*Dp; D=Ds+Dp- Dp * Ds;

Указать формулу Шеннона для оценки энтропии в битах: Н=-∑ pi log2 pi

Улучшение качества системы передачи оценивается по трём основным показателям: достоверности, средней скорости передачи, сложности технической реализации системы.

Упорядоченность компонентов по степени важности: Иерархия.

Ученный фундаментальные работы, которого связаны с теорией информации: Шеннон К., Хартли Р., Колмогоров А.Н.

Файловые системы: FAT, NTFS.

Физические дефекты на магнитных дисках: низкое качество; механическое повреждение.

Физический белый шум - мощность бесконечна

Формула I=-logP вычисляет: количество информации

Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла и записывается как: H=-∑pi Log2 pi.

Функция x(t) содержит гармоническую составляющую наивысшей частоты Fn=100Гц. Определить, через какие промежутки следует брать отсчеты и количество отсчетов, если сигнал длится 500мсек: n=100

Характеристика ансамбля последовательностей символов, порождаемых источником - условное распределение вероятности

Цифровые методы модуляции – дифференциальная, импульсно-кодовая

Цифровыми называются сигналы, которые: Могут иметь одно значений или конечный набор значений

Частотная модуляция обеспечивает помехоустойчивость передачи: Большую, чем при амплитудной модуляции, но требует более сложной и дорогостоящей аппаратуры.

Частотная модуляция: w=w0+▲w*x(t); w=1*w0+▲w*x(t); S= {x:x(t)=S0cos(w(t)*t+ϕ0)}.

Чем измеряется пропускная способность канала связи: бит/сек

Чем характеризуется симметричный канал связи: Равенством условной энтропией источника информаций относительно получателя информации и условной энтропией получателя информации относительно источника информации; Условной энтропией получателя информации относительно источника информации;

Число символов кодовой комбинации называется: ее значностью.

Числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы образует: количество информации

Что означает символ в формуле энтропии: символ может обозначать вероятность не только тех или иных состояний молекул, но и различных состояний элементов, вероятность появления букв текста предаваемых сообщений, вероятность появления символов предаваемых сообщений

Что означает термин «энтропия»: оно образовалось от корня греческого слова «тропе», означающего «превращение» с добавлением заимствованной из слова «энергия» приставки «эн»

Что относится к бифуркации: скачкообразная качественная перестройка системы при плавном изменении параметров; катастрофический скачок, конфликтный срыв, узел взаимодействия между случаем и внешним ограничением, между колебаниями и необратимостью; приобретение нового качества в движениях динамической системы при малом изменении её параметров.

Что относится к структуре диска: дорожка, цилиндр, сектор.

Что представляет собой модель: Отображение определенной системы, с помощью которой воспроизводятся ее характерные, существенные признаки

Что такое информация: сведения о ком-то или о чём-то, передаваемые в форме знаков и сигналов; мера измерения неопределенности.

Что такое информация с точки зрения теории информации: Сведения о ком-то или о чем-то, предаваемые в форме знаков и сигналов

Что такое кодирование информации Процесс преобразования информации, представленной буквами одного алфавита, средствами другого алфавита

Что такое кодирование: цифровые и буквенные обозначения, используемые для наименований в ИС

Что характеризует состояние физической системы: давление, скорость, ускорение.

Что характеризует состояние экономических систем: себестоимость, прибыль, производительность.

Чтобы уменьшить избыточность сообщений - учитывают вероятности совпадений

Энтропия в теории информации означает: Степень разнообразия состояний информационной системы, неопределенности информации, мера внутренней неупорядоченности информационной системы.

Энтропия источника А обозначается как: Н(А); Н(А)=I(А); I(А)= Н(А).

Энтропия -это мера … в некоторой ситуации неопределенности

Эпсилон- энтропия – это энтропия: случайной величины.

Эффективностью кода называется величина: характеризующая степень близости неравномерного статистического кода к оптимальному.

Является ли система сложной или простой определяется связями между элементами. Малая и сложная система: Неисправный бытовой прибор для пользователя.

Является ли система сложной или простой определяется связями между элементами. Большая и сложная система: Мозг, Экономика.

Является система сложной или простой определяется связями между элементами. Малая и простая система: Исправный бытовой прибор; Шифрзамок для хозяина.

 

Верные формулы дифференцирования: arcctgx = -1/(1+x^2); a^x = a^x lna

Верные формулы дифференцирования: arccosx=-1/(sqrt(1-x^2)); arcsinx=-/(sqrt(1-x^2)); cosx=-sinx; cosx=-sinx

Верные формулы дифференцирования: ;

Для функции y=(3x)/(x+2) точка x=-2: точка разрыва IIрода; не являются точкой непрерывности; в этой точке функция не существует

Для функции f(x)=x^2+2x-3 верные высказывания: (-∞; -1) – интервал убывания

Для функции y=(x-1)/(x(x+1)) точки x=0 и x=-1: точки разрыва II-го рода; являются точками разрыва; в этих точках функция не определена

Для функции z=xy^2 +ylnxсправедливы соотношения: dz/dy= 2xy+lnx

Для функции справедливы отношения:

частная производная второго порядка функции f=4x^3 -9xy+3 в точке M0(1;1)

- частная производная второго порядка функции f=2x^2y^3-9xy+y^2+5 в точке лежит в промежутке: (-30,30)(-25,25)

Замечательными пределами являются: ; ;

Если пределы и существуют и конечны, то имеют место равенства: ; ; ; ,

Если u=u(x) и v=v(x) дифференцируемые функции и С - постоянная, то: (C)’=0; (Cu)’=Cu’, (u-v)’=u’-v’

Если u=u(x) и v=v(x) дифференцируемые функции, то справедливо: (u*v)’=u’v+uv’; (u+v)’=u’+v’

: ; 2


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: