Часть 2. 65. Что является базовым элементом иммунокомпьютинга

65. Что является базовым элементом иммунокомпьютинга:

a) формальный протеин;

b) формальный нейрон;

c) хромосомная модель;

d) ген;

е) персептрон.

66. Механизмы молекулярного узнавания реализуют связи:

a) между пространственной формой и функциями протеина;

b) между кодом и формой белка;

c) между персептронной моделью;

d) между фитнес-функциями (функциями пригодности);

е) между картами Кохонена.

67. Механизмы самосборки реализуют связи:

а) между кодом и формой белка;

b) между картами Кохонена;

c) между слоями нейронной сети;

d) между реккурентными нейронными сетями;

е) между интеллектуальным интерфейсом.

68. Что понимается под механизмом молекулярного узнавания:

а) выборочное взаимодействие между определенными участками

биомолекул;

b) синаптические взаимосвязи;

c) генетический оператор селекции;

d) селекция с помощью пропорциональной рулетки;

е) турнирная селекция.

69. Что понимается под механизмом самосборки:

а) способность цепочки молекул принимать единственную пространственную форму;

b) вариабельность биомолекул;

c) гипотеза «ключа и замка»;

d) правила многомерной логики;

е) дефазификация выходной координаты.

70. Задачаклассификации образов заключается:

а) в указании принадлежности входного образа, представленного вектором индикаторов, одному или нескольким предварительно определенным классам;

b) в построении принадлежности;

c) в построении фитнес-функции;

d) фазификации временных рядов;

е) формировании базы правил.

71. Алгоритм кластеризации (категоризации) основан на:

а) подобии образов и размещает близкие образы в один кластер;

b) реализации нечеткого правила;

c) логическом выводе в многозначной логике;

d) анализе синаптических связей нейронной сети;

е) идентификации входных индикаторов.

72. Задачааппроксимации функцийзаключаетсяв:

а) нахождении оценки неизвестной функции;

b) построении отделяющей поверхности;

c) формировании индекса вторжений;

d) формировании тестовой и обучающей выборок;

е) анализе и преобразовании данных.

73. Матрицы левых и правых сингулярных векторов обладают свойством:

а) ортонормированности;

b) выпуклости;

c) вогнутости;

d) кососимметричности;

е) непрерывности.

74. Сингулярные числа являются:

а) ранжированными и неотрицательными;

b) комплексными и сопряженными;

c) плохо обусловленными;

d) итеративными и несимметричными;

е) вещественными и конечными.

75. Базовый алгоритм иммунокомпьютинга включает блоки:

а) обучения и распознавания;

b) нечетких правил и базы знаний;

c) скрещивания, мутации и селекции;

d) сумматора и активационной функции;

е) логистического отображения.

76. Наиболее употребительными расстояниями между классами объектов

являются:

а) расстояние, измеряемое по принципу «ближнего соседа»;

b) расстояние, измеряемое по принципу «центра тяжести»;

c) расстояние, измеряемое по принципу «ключа и замка»;

d) корреляционная размерность;

е) характеристика множества странного аттрактора.

77. Индексом сложной многомерной системы является:

а) общая величина, объединяющая набор индикаторов исследуемого объекта;

b) функция принадлежности;

c) норма вектора;

d) энергия связи в формальной иммунной сети;

е) характеристика множества странного аттрактора.

78.Базовый алгоритм вычисления индекса включает модули:

а) обучения, распознавания, оптимизации коэффициентов;

b) базы нечетких правил, логического вывода и фаззификации;

c) сумматора, активационной функции синаптических весовых коэффициентов;

d) формирования эталонных классов;

е) оценивания кредитоспособности заемщика.

79. Нейроинформатика – это:

а) современная теория о принципах и новых математических моделях информационных процессов, которые базируются на биологических прототипах и механизмах активности мозга человека;

b) современная теория о фракталах и хаотическом поведении;

c) современная теория о ДНК-компьютерах;

d) современная теория о роботике;

е) современная теория о путях хаотического поведения сложных систем.

80. Традиционные подходы теории искусственного интеллекта это:

а) система символьной технологии: символьные парадигмы, исчисление предикатов и т.д.;

b) синтезирование обучающей системы;

c) парадигмы нейронных сетей;

d) эволюционные и генетические алгоритмы;

е) клеточные автоматы.

81. Современные подходы теории искусственного интеллекта это:

а) парадигмы нейронных сетей;

b) эволюционные и генетические алгоритмы;

c) детерминированные и статистические методы;

d) факторный анализ;

е) походы хемометрики.

82. Базовый принцип обучения заключается:

а) в самоорганизации (структурной перестройке);

b) в использовании методов хемометрики;

c) в использовании детерминированных и статистических методов;

d) в использовании дефазификационной композиции нечетких правил;

е) в формировании базы нечетких правил.

83. Где необходимо применять парадигмы нейровычислений:

а) при решении плохо формализуемых задач;

b) при исследовании устойчивости исследуемых объектов;

c) при сингулярном разложении произвольных матриц;

d) при вычислении энергии связи;

е) при решении задачи реконструкции динамической системы.

84. Какие новые принципы обработки данных реализует нейрокомпьютер:

а) массовый параллелизм, распределенную память, робастность;

b) показатели Ляпунова;

c) метод скользящего окна;

d) метод нормированного размаха;

е) самоподобные фракталы.

85. Компьютер подобный мозгу человека – это:

а) математическая модель механизмов активности мозга;

b) математическая модель эволюционных вычислений;

c) математическая модель механизмов генетики;

d) математическая модель механизмов иммунной системы;

е) математическая модель логистического отображения.

86. Принципы нейрокомпьютинга заключаются в использовании:

а) высоко взаимосвязанной структуры, обучения и адаптации;

b) путей перехода в хаос;

c) периода удвоения;

d) странного аттрактора Лоренца;

е) динамические модели в пространстве состояний.

87. Биологический нейрон – это:

а) простой арифметический вычисляющий элемент;

b) хромосомная модель;

c) модель странного аттрактора Лоренца;

d) модель бифуркации;

е) модель логистического отображения.

88. Сома – это:

а) центральное тело, в котором реализуются почти все функции нейрона;

b) нить нерва, которая может служить выходом нейрона;

c) разветвленное дерево нервных окончаний;

d) специальные контактные точки для входа аксона;

е) модель кватерниона.

89. Аксон – это:

а) нить нервного окончания;

b) разветвленное дерево нервных окончаний;

c) модель кватерниона;

d) центральное тело, в котором реализуются почти все функции нейрона;

е) специальные контактные точки для входа аксона.

90. Дендриты – это:

а) разветвленное дерево нервных окончаний;

b) центральное тело, в котором реализуются почти все функции нейрона;

c) нить нервного окончания;

е) диссипативная структура.

91. Каждый нейрон искусственной нейронной сети – это:

а) вычислительная единица с многомерным входом и нелинейным

преобразованием сигнала возбуждения;

b) одномерный вычислительный элемент;

c) логическое устройство;

d) симметричный релейный элемент;

е) элемент формальной иммунной сети.

92. Персептрон – это:

а) простейшая нейронная сеть;

b) адаптивная сеть с обратными связями;

c) многослойная сеть с прямым распространением активации;

d) адаптивная резонансная нейронная сеть;

е) клеточная топология нейронной сети.

93. Модель однослойного персептрона обладает:

а) способностью обучения и распознавания представленных образов;

b) возможностью реализовывать вычислительные процедуры скользящего среднего;

c) выявлять латентные структуры в исходных данных;

d) возможностью выявлять диссипативные структуры;

е) возможностью реализации генетического алгоритма.

94. В чем сущность задачи отделимости (Минский и Паперт):

а) с помощью линейной разграничивающей поверхности задача классификации

не может быть решена;

b) в нахождении единственной переменной дающей наибольшее изменение в доходе;

c) в выборе критериальной функции;

d) в выявлении диссипативных структур;

е) сравнительном анализе результатов сингулярного разложения.

95. Какая структура искусственной нейронной сети позволяет решить задачу отделимости:

а) персептрон с двумя и тремя слоями;

b) генетический алгоритм с выбранной функцией пригодности;

c) нечеткая система с продукционными правилами в базе знаний;

d) модуль дефаззификации и принятия решения;

е) модуль формирования индекса риска.

96. Цель решения задачи обучения для нейронной сети:

а) минимизация выбранного критерия качества по синаптическим коэффициентам;

b) оптимальное распределение ресурсов;

c) нахождение скользящего среднего для обучающей выборки;

d) нахождение расстояния по методу «ближнего соседа»;

е) нахождение расстояния по методу «дальнего соседа».

97. Какая критериальная функция использована в обучающем правиле Розенблатта:

а) линейная функция по значению величины ошибки функция;

b) квадратичная функция по значению величины ошибки;

c) в виде кососимметричной матрицы;

d) в виде кватерниона;

е) в виде нечеткого продукционного правила.

98. Какая критериальная функция использована в модифицированном обучающем правиле Розенблатта:

а) квадратичная функция по значению величины ошибки функция;

b) линейная функция по значению величины ошибки функция;

c) в виде нечеткого продукционного правила;

d) в виде кватерниона;

е) в виде кососимметричной матрицы.

99. Решение задачи оптимизации процедуры обучения обеспечивается:

а) итеративной процедурой определения оптимальной матрицы синаптических связей;

b) нечетким продукционным правилом;

c) итеративной процедурой сингулярного разложения матрицы;

d) процедурой многокритериального выбора;

е) кодированием общей структуры данных.

100. В модифицированном обучающем правиле Розенблатта использована функция:

а) логистическая функция;

b) релейная функция;

c) дельта-функция;

d) линейная функция;

е) кусочно-линейная функция.

101. Глобальные стратегии решения оптимизационных задач следующие:

а) исчерпывающего поиска и сортировки простых вариантов без изменения

алгоритмов;

b) оценки выбора лучших решений и их воспроизведение;

c) формирование базы правил;

d) определение лингвистических правил;

е) активизация нечеткой ассоциативной памяти.

102. Цель генетических алгоритмов заключается в:

а) абстрагировании и объяснении механизмов естественного отбора;

b) адаптации механизмов естественного отбора;

c) деффазификации выходной переменной;

d) фазификации входных переменных;

е) нечетком выборе.

103. Генетические алгоритмы являются:

а) стохастическим методом оптимизации;

b) методом случайного поиска;

c) детерминированными алгоритмами;

d) алгоритмами обновления трафика для выбора маршрута;

е) обучающими системами интерактивного аудиовизуального взаимодействия.

104. Генотип – это:

а) полная генетическая модель индивидуумов, которая представляет особенности структуры;

b) математический код, с помощью которого формализуются особенности структуры

индивидуумов;

c) элемент хромосомы, который кодирует некоторую особенность;

d) критерий, с помощью которого оценивается эффективность нового решения;

е) набор общих действующих моделей.

105. Хромосомная модель – это:

а) математический код, с помощью которого формализуются особенности структуры

индивидуумов;

b) полная генетическая модель индивидуумов, которая представляет особенности структуры;

c) элемент хромосомы, который кодирует некоторую особенность;

d) набор общих действующих моделей;

е) критерий, с помощью которого оценивается эффективность нового решения.

106. Фитнесс-функция – это:

а) критерий, с помощью которого оценивается эффективность нового решения:

b) полная генетическая модель индивидуумов, которая представляет особенности структуры;

c) элемент хромосомы, который кодирует некоторую особенность;

d) набор общих действующих моделей;

е) математический код, с помощью которого формализуются особенности структуры

индивидуумов.

107. Клеточная нейронная сеть содержит:

а) регулярно расположенные пространственные клетки, которые взаимодействуют

непосредственно с ближайшими соседними клетками;

b) последовательно соединенные нейронные блоки;

с) параллельно соединенные нейронные блоки;

d) соединение с обратной связью;

е) многослойную нейронную сеть.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: