Методы, основанные на фреймах

В области искусственного интеллекта термином фрейм обозначается специальный метод представления общих концепций и ситуаций.

Предложивший идею фрейма Марвин Минский, описывает его так:

«Фрейм – это структура данных, представляющая стереотипную си­туацию, вроде нахождения внутри некоторого рода жилой комнаты, или сбора на вечеринку по поводу дня рождения ребенка. К каждому фрейму присоединяется несколько видов информации. Часть этой ин­формации – о том, как использовать фрейм. Часть – о том, чего можно ожидать далее. Часть – о том, что следует делать, если эти ожидания не подтвердятся»

Фрейм является сетью узлов и отношений, организованных иерархически, где верхние узлы представляют общие понятия, а нижние узлы более частные случаи этих понятий или их свойства. Фрейм по своей организации во многом похож на семан­тическую сеть. Не случайно в ряде работ фреймы и семантические сети рассматриваются как методы представления знаний, основанных на фреймах. Они обеспечивают естественный и эффективный путь классифика­ции и систематизации знаний.

Основные характеристики экспертных систем

Специалисты в области ИИ имеют несколько более сложное представление о том, что такое экспертные системы.

Рис. 5. Особенности экспертной системы, отличающие ее от обычных про­грамм.

Компетентность

Умелая ЭС применяет знания эффективно и быстро, избегая громоздких или ненужных вычислений. Чтобы по-настоящему подра­жать поведению эксперта-человека, ЭС дол­жна обладать робастностью, т.е. уметь лишь постепенно сни­жать качество работы по мере приближения к грани­цам диапазона компетентности или допустимой на­дежности данных.

Символьные рассуждения

Эксперты, решая какие-то задачи (особенно такого типа, для решения которых применяются экспертные системы), об­ходятся без решения систем уравнений или других трудоемких математических вычислений. Вместо этого они с помощью сим­волов представляют понятия предметной области и применяют различные стратегии и эвристики в процессе манипулирования этими понятиями.

При решении задачи экспертная система способна выполнять определенные математические расчеты, но в основном она манипулирует сим­волами, которые соответ­ствуют понятиям предметной области. На жаргоне ИИ сим­вол – это строка знаков, соответствующая содержанию неко­торого понятия реального мира. Ниже приведены примеры символов,

продукт

ответчик

0.8

Эти символы можно объединить, чтобы выразить отноше­ния между ними. Когда эти отношения представлены в про­грамме ИИ, они называются символьными структурами. Да­лее приведены примеры символьных структур:

(ДЕФЕКТНЫЙ продукт)

(ВЫПУЩЕННЫЙ ответчиком продукт)

(РАВНО (ОТВЕТСТВЕННОСТЬ ответчик) 0.8)

Эти структуры можно интерпретировать следующим обра­зом: «продукт является дефектным», «продукт был выпущен в продажу ответчиком» и «ответственность ответчика ра­вна 0.8».

Кроме того, эксперты могут получить задачу, сформулированную неким произвольным об­разом, и преобразовать ее к тому виду, который в наибольшей степени соответствует быстрому получению решения или га­рантирует его максимальную эффективность. Эта способность переформулирования задачи — как раз то свойство, которое должно быть присуще экспертным системам для того, чтобы приблизить их мастерство к уровню экспертов-людей. К сожа­лению, большинство существующих в настоящее время экс­пертных систем не обладают этим свойством.

Глубина

ЭС должна работать эффективно в узкой пред­метной области, содержащей трудные, нетривиальные задачи. Поэтому правила в ЭС дол­жны быть сложными, либо в смысле сложности каждого пра­вила, либо в смысле их обилия.

Если же по отношению к сложной задаче или данным о ней сделаны существенные упрощения, полученное решение может оказаться неприменимым в масштабах, кото­рые характерны для реальной проблемы.

Самосознание

У большинства существующих экспертных систем есть так называемый механизм объяснения. Это знания, необ­ходимые для объяснения того, как система пришла к данным решениям. Большинство объяснений включают демонстрацию цепочек выводов и доводов, объясняющих, на каком основании было применено каждое правило в цепочке. Возможность проверять собственные процессы рассуждения и объяснять свои действия – одно из самых важных свойств экспертных систем.

«Самосознание» важно для экспертной системы, поскольку:

§ пользователи больше доверяют результатам системы.

§ систему легче от­лаживать и усовершенствовать.

§ предположения, положенные в основу работы системы, становятся явными, а не подразумеваемыми.

§ Легче предсказывать и выявлять влияние изменений на работу системы.

Умение объяснить — это всего лишь один из аспектов само­сознания. В будущем самосознание позволит экспертным си­стемам делать даже больше. Они сами смогут создавать обос­нования отдельных правил путем рассуждения, исходящего из основных принципов. Они будут приспосабливать свои объяс­нения к требованиям пользователя. Они смогут изменять соб­ственную внутреннюю структуру путем коррекции правил, ре­организации базы знаний и реконфигурации системы.




Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: