Архитектура и основные составные части систем ИИ

Подходы к построению систем ИИ (логический, структурный, эволюционный, имитационный).

Логический подход

Основой для логического подхода служит булева алгебра. Каждый программист знаком с нею и с логическими операторами с тех пор, когда он осваивал оператор IF. Свое дальнейшее развитие булева алгебра получила в виде исчисления предикатов, в котором она расширена за счет введения предметных символов, отношений между ними, кванторов существования и всеобщности.

Практически каждая система ИИ, построенная на логическом принципе, представляет собой машину доказательства теорем. При этом исходные данные хранятся в базе данных в виде аксиом, правила логического вывода - в виде отношений между данными. Кроме того, каждая такая машина имеет блок генерации цели, и система вывода пытается доказать данную цель как теорему. Если цель доказана, то трассировка примененных правил позволяет получить цепочку действий, необходимых для реализации поставленной цели. Мощность такой системы определяется возможностями генератора целей и машиной доказательства теорем.

Добиться большей выразительности логическому подходу позволяет такое сравнительно новое направление, как нечеткая логика. Основным ее отличием является то, что правдивость высказывания может принимать в ней, кроме "да/нет" (1/0), еще и промежуточные значения: не знаю (0.5), пациент скорее жив, чем мертв (0.75), пациент скорее мертв, чем жив (0.25). Такой подход больше похож на мышление человека, поскольку он редко отвечает на вопросы только "да" или "нет". Для большинства логических методов характерна большая трудоемкость, поскольку во время поиска доказательства возможен полный перебор вариантов. Поэтому данный подход требует эффективной реализации вычислительного процесса, и хорошая работа обычно гарантируется при сравнительно небольшом размере базы данных. Современная реализация этого подхода – экспертные системы.

 

Структурным подходом называются попытки построения ИИ путем моделирования структуры человеческого мозга. Одной из первых среди них был перцептрон Ф.Розенблатта. Основной моделируемой структурной единицей в перцептронах (как и в большинстве других вариантов этого подхода) является нейрон.

Позднее возникли и другие модели, которые обычно именуют термином "нейронные сети" (НС). Эти модели различаются по строению отдельных нейронов, по топологии связей между ними и по алгоритмам обучения. Среди наиболее известных сейчас вариантов НС можно назвать НС с обратным распространением ошибки, сети Хопфилда, стохастические нейронные сети. НС наиболее успешно применяются в задачах распознавания образов, в том числе сильно зашумленных, однако имеются и примеры их успешного применения для построения собственно систем ИИ.

Для моделей, имитирующих человеческий мозг, характерна не слишком большая выразительность, легкое распараллеливание алгоритмов и связанная с этим высокая производительность параллельно реализованных НС. У таких сетей есть одно свойство, которое очень сближает их с человеческим мозгом: они работают даже при условии неполной информации об окружающей среде, то есть, как и человек, они на вопросы могут отвечать не только "да" и "нет", но и "не знаю точно, но скорее да".

эволюционный подход В нем при создании систем ИИ основное внимание уделяется построению начальной модели и правил, по которым она может изменяться (эволюционировать). Причем модель может быть составлена по самым различным методам, это может быть и НС, и набор логических правил, и любая другая модель. После этого компьютер на основании проверки моделей отбирает самые лучшие из них, на базе которых по заданным правилам генерируются новые модели, из которых опять выбираются самые лучшие, и т.д. В принципе можно сказать, что эволюционных моделей как таковых не существует, есть только эволюционные алгоритмы обучения, но модели, полученные при эволюционном подходе, имеют некоторые характерные особенности, что позволяет выделить их в отдельный класс.

Такими особенностями являются перенесение основного объема разработки с построения модели на алгоритм ее модификации и то, что полученные модели практически не содействуют извлечению новых знаний о среде, окружающей систему ИИ, то есть она становится как бы вещью в себе.

 

имитационный подход. Он является классическим для кибернетики с одним из ее базовых понятий - "черным ящиком" (ЧЯ). ЧЯ - устройство, программный модуль или набор данных, информация о внутренней структуре и содержании которых отсутствуют полностью, но известны спецификации входных и выходных данных. Объект, поведение которого имитируется, как раз и представляет собой такой "черный ящик". Нам не важно ни что у него или модели внутри, ни как он функционирует, главное, чтобы модель в аналогичных ситуациях вела себя точно так же.

Таким образом здесь моделируется другое свойство человека - способность копировать то, что делают другие, не вдаваясь в подробности, зачем это нужно. Зачастую эта способность экономит ему массу времени, особенно в начале его жизни.

Основным недостатком имитационного подхода также является низкая информационная способность большинства моделей, построенных с его помощью.

Заканчивая беглое ознакомление с различными методами и подходами к построению систем ИИ, хотелось бы отметить, что на практике очень четкой границы между ними нет. Нередко встречаются смешанные системы, где часть работы выполняется по одному типу, а часть - по другому.

Архитектура и основные составные части систем ИИ.

 

В зависимости от целей, для достижения которых строится СИИ, используемых подходов к построению системы структура каждой конкретной прикладной системы может существенно отличаться от других, но все они, так или иначе, имеют общие функциональные блоки. На рис. изображена обобщенная структура интеллектуальной системы и взаимодействие ее компонентов.

В общем случае система получает задание от оператора, однако возможны варианты автономно работающих систем, обеспечивающих управление без вмешательства оператора по заложенному при настройке критерию цели.

При работе с оператором задание в естественной форме (речь, текст, графика) в интерактивном режиме вводится и предварительно обрабатывается подсистемой диалогового обобщения. Интерактивный режим предполагает не только ввод задания, но и обратную выдачу подтверждений о понимании задания или запросов на уточнение непонятных моментов. Оператор, как правило, может также изначально формировать или корректировать основную и вспомогательные БЗ системы, изменяя их содержимое. Подсистема диалогового обобщения для своей работы использует собственную БЗ, содержащую правила анализа и синтеза естественно-языковой или графической информации в ограниченной проблемной области, а также интерпретатор, использующий эту БЗ для преобразования неформализованного знания в формализованное в рамках внутреннего языка системы.

Анализ возможности выполнения задания при существующих на данный момент ресурсах системы и состоянии ее компонентов выполняется подсистемой формирования цели, имеющей свою БЗ и интерпретатор.

Основная БЗ должна содержать формализованное в рамках метода и языка представления знаний системы описание среды, которую должна изменить система, чтобы выполнить задание. Знания о среде формируются подсистемой извлечения знаний. Дополнительные знания о проблеме формируются подсистемой обучения и самообучения. Эти подсистемы имеют собственные БЗ и интерпретаторы.

Обработка цели и знаний о среде ведется подсистемой вывода на знаниях для прогнозирования и формирования управлений. Эта подсистема (называемая также машиной вывода) осуществляет поиск действия для достижения цели, для чего использует собственную БЗ, содержащую правила интерпретации знаний, то есть унификации и поиска.

Подсистемы обработки внешней и внутренней информации производят выявление текущих изменений видов информации с помощью собственных БЗ и интерпретаторов. Получаемая интегрированная информация используется в подсистемах извлечения знаний и контроля и диагностики. Для получения внешней и внутренней информации могут быть использованы различные устройства, связывающие систему со средой (внешние источники информации), а также определяющие ее состояние (датчики состояний). Их набор определяется проблемной ориентацией системы.

 
 

 

 


Рис. Обобщенная структура интеллектуальной системы.

 

Вопрос 2. Понятие образа. Геометрический и структурный подходы к решению задачи обучения распознаванию образов. Гипотеза компактности.

 

Образ, класс - классификационная группировка в системе классификации, объединяющая (выделяющая) определенную группу объектов по некоторому признаку.

Образы обладают характерным свойством, проявляющимся в том, что ознакомление с конечным числом явлений из одного и того же множества дает возможность узнавать сколь угодно большое число его представителей. Примерами образов могут быть: река, море, жидкость, музыка Чайковского, стихи Маяковского и т.д. В качестве образа можно рассматривать и некоторую совокупность состояний объекта управления, причем вся эта совокупность состояний характеризуется тем, что для достижения заданной цели требуется одинаковое воздействие на объект. Образы обладают характерными объективными свойствами в том смысле, что разные люди, обучающиеся на различном материале наблюдений, большей частью одинаково и независимо друг от друга классифицируют одни и те же объекты. Именно эта объективность образов позволяет людям всего мира понимать друг друга.

Способность восприятия внешнего мира в форме образов позволяет с определенной достоверностью узнавать бесконечное число объектов на основании ознакомления с конечным их числом, а объективный характер основного свойства образов позволяет моделировать процесс их распознавания. Будучи отражением объективной реальности, понятие образа столь же объективно, как и сама реальность, а поэтому это понятие может быть само по себе объектом специального исследования. В литературе, посвященной проблеме обучения распознавания образов (ОРО), часто вместо понятия образа вводится понятие класса.

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: