В области искусственного интеллекта термином фрейм обозначается специальный метод представления общих концепций и ситуаций.
Предложивший идею фрейма Марвин Минский, описывает его так:
«Фрейм – это структура данных, представляющая стереотипную ситуацию, вроде нахождения внутри некоторого рода жилой комнаты, или сбора на вечеринку по поводу дня рождения ребенка. К каждому фрейму присоединяется несколько видов информации. Часть этой информации – о том, как использовать фрейм. Часть – о том, чего можно ожидать далее. Часть – о том, что следует делать, если эти ожидания не подтвердятся»
Фрейм является сетью узлов и отношений, организованных иерархически, где верхние узлы представляют общие понятия, а нижние узлы более частные случаи этих понятий или их свойства. Фрейм по своей организации во многом похож на семантическую сеть. Не случайно в ряде работ фреймы и семантические сети рассматриваются как методы представления знаний, основанных на фреймах. Они обеспечивают естественный и эффективный путь классификации и систематизации знаний.
|
|
Основные характеристики экспертных систем
Специалисты в области ИИ имеют несколько более сложное представление о том, что такое экспертные системы.
Рис. 5. Особенности экспертной системы, отличающие ее от обычных программ.
Компетентность
Умелая ЭС применяет знания эффективно и быстро, избегая громоздких или ненужных вычислений. Чтобы по-настоящему подражать поведению эксперта-человека, ЭС должна обладать робастностью, т.е. уметь лишь постепенно снижать качество работы по мере приближения к границам диапазона компетентности или допустимой надежности данных.
Символьные рассуждения
Эксперты, решая какие-то задачи (особенно такого типа, для решения которых применяются экспертные системы), обходятся без решения систем уравнений или других трудоемких математических вычислений. Вместо этого они с помощью символов представляют понятия предметной области и применяют различные стратегии и эвристики в процессе манипулирования этими понятиями.
При решении задачи экспертная система способна выполнять определенные математические расчеты, но в основном она манипулирует символами, которые соответствуют понятиям предметной области. На жаргоне ИИ символ – это строка знаков, соответствующая содержанию некоторого понятия реального мира. Ниже приведены примеры символов,
продукт
ответчик
0.8
Эти символы можно объединить, чтобы выразить отношения между ними. Когда эти отношения представлены в программе ИИ, они называются символьными структурами. Далее приведены примеры символьных структур:
|
|
(ДЕФЕКТНЫЙ продукт)
(ВЫПУЩЕННЫЙ ответчиком продукт)
(РАВНО (ОТВЕТСТВЕННОСТЬ ответчик) 0.8)
Эти структуры можно интерпретировать следующим образом: «продукт является дефектным», «продукт был выпущен в продажу ответчиком» и «ответственность ответчика равна 0.8».
Кроме того, эксперты могут получить задачу, сформулированную неким произвольным образом, и преобразовать ее к тому виду, который в наибольшей степени соответствует быстрому получению решения или гарантирует его максимальную эффективность. Эта способность переформулирования задачи — как раз то свойство, которое должно быть присуще экспертным системам для того, чтобы приблизить их мастерство к уровню экспертов-людей. К сожалению, большинство существующих в настоящее время экспертных систем не обладают этим свойством.
Глубина
ЭС должна работать эффективно в узкой предметной области, содержащей трудные, нетривиальные задачи. Поэтому правила в ЭС должны быть сложными, либо в смысле сложности каждого правила, либо в смысле их обилия.
Если же по отношению к сложной задаче или данным о ней сделаны существенные упрощения, полученное решение может оказаться неприменимым в масштабах, которые характерны для реальной проблемы.
Самосознание
У большинства существующих экспертных систем есть так называемый механизм объяснения. Это знания, необходимые для объяснения того, как система пришла к данным решениям. Большинство объяснений включают демонстрацию цепочек выводов и доводов, объясняющих, на каком основании было применено каждое правило в цепочке. Возможность проверять собственные процессы рассуждения и объяснять свои действия – одно из самых важных свойств экспертных систем.
«Самосознание» важно для экспертной системы, поскольку:
§ пользователи больше доверяют результатам системы.
§ систему легче отлаживать и усовершенствовать.
§ предположения, положенные в основу работы системы, становятся явными, а не подразумеваемыми.
§ Легче предсказывать и выявлять влияние изменений на работу системы.
Умение объяснить — это всего лишь один из аспектов самосознания. В будущем самосознание позволит экспертным системам делать даже больше. Они сами смогут создавать обоснования отдельных правил путем рассуждения, исходящего из основных принципов. Они будут приспосабливать свои объяснения к требованиям пользователя. Они смогут изменять собственную внутреннюю структуру путем коррекции правил, реорганизации базы знаний и реконфигурации системы.