Объяснение и обоснование решений

Система объяснений (СО) функционально предназначена для формирования ответов на вопросы пользователя относительно по­ведения интеллектуальной системы в процессе получения ею за­ключения или решения. Способность объяснять свои действия — одно из главных отличительных свойств интеллектуальных сис­тем. Она повышает доверие пользователя к системе, к представ­ляемым ею рекомендациям и решениям. Кроме того, СО возмож­но использовать в процессе модификации и развития интеллек­туальной системы, выявлении противоречивых знаний, а также при обучении менее подготовленных пользователей.

Системы искусственного интеллекта различных типов, ориен­тированные на разные проблемные области, должны иметь спе­цифичные для них СО (некоторые типы ИС могут вообще не иметь СО). Однако в настоящее время на практике все СО реа­лизуются на одних и тех же принципах в основном двумя спосо­бами [82]:

- фиксацией событий и состояний с помощью заготовленных текстов на естественном языке;

- трассировкой рассуждений, обратным развертыванием дерева целей с указанием подцелей.

При реализации каждого из этих способов предварительно выделяются ситуации, факты и узлы перехода в новые состояния, требующие объяснений. Им ставится в соответствие некоторый текст объяснения.

При способе фиксации событий объяснения составляются из кратких текстов на естественном языке, которые хранятся вместе с правилами и фактами. Эти тексты предварительно помещаются в программу и инициируются в том случае, когда задан вопрос по соответствующей ситуации и необходимо их представление. Не­смотря на некоторые преимущества, связанные с возможностью, формирования удобных и простых для восприятия объяснений, этот способ имеет два важных ограничения, препятствующих ши­рокому применению:

- объяснения должны исправляться каждый раз, когда меняется БЗ или соответствующие эвристики;

- объяснение может быть адаптировано к индивидуальному пользователю только с большим трудом. Кроме того, очень часто пользователя интересует именно ход рассуждения, цепочка логи­ческих выводов, приведших к заключению.

Способ трассировки рассуждений при объяснении предусмат­ривает пересечение дерева целей для ответа на вопросы. Основы­ваясь на дереве целей, СО может объяснять, как было получено заключение. Это достигается путем прохождения подцелей, кото­рые были удовлетворены при движении к цели. Если требуется более детальное объяснение, то СО может повторить каждое из задействованных правил, представив их в краткой формулировке на естественном языке.

Система объяснения отвечает преимущественно на два типа вопросов: «Почему?» и «Как?» Оба вопроса должны интерпрети­роваться на различных уровнях, которые образуются при обосно­вании поведения программы исходя из действующего уровня, приоритета и компетентности пользователя. Здесь возникает проб­лема предоставления объяснений различной глубины и сложности в зависимости от уровня пользователя и целей использования СО, т. е. проблема адаптации к уровню пользователя ИС. В нас­тоящее время на практике такую адаптацию пока реализовать в полной мере не удалось.

Так как механизм получения решений ИС часто реализу­ется путем обхода пространства состояний в виде графа И/ИЛИ, то и формирование объяснений чаще связывается с обработкой вершин этого графа. При ответе на вопрос «Почему?» вероятнее движение вверх по графу состояний к ближайшей подцели, кото­рая объясняет причину достижения текущей подцели. При ответе на вопрос «Как?» возможно движение вниз по графу с объясне­нием способа достижения текущей подцели. Поскольку дерево целей является И/ИЛИ графом, то при движении вниз обычно образуется несколько подцелей.

В большинстве интеллектуальных систем объяснения даются в терминах целей и правил. Однако простое прослеживание экспертных правил, ко­торые были использованы при конкретном выводе, является не­достаточно удовлетворительным объяснением, которое может дать ИС. Более убедительным объяснением, удовлетворяющим ин­туиции человека относительно правильности решения задачи, яви­лось бы объяснение, основанное на фундаментальных принципах организации знаний о проблемной области. Система объяснений должна быть способна перефразировать правила на естественном языке и описывать мотивации их активизации, которые базируют­ся на знаниях системы о себе (на уровне метазнаний). Важна аргументация, основанная на глубинных причинно-следственных закономерностях проблемной области. Реализация этих перспек­тивных возможностей является одной из главных задач при соз­дании ИС новых поколений.

Одна из основных характеристик ИС состоит в том, что они моделируют в определенной мере человеческие рассуждения. В них каждый из сделанных по определенной программе выводов должен соответствовать основным этапам, которые бы сделал экс­перт. При этом он может проверить программу и при необходи­мости подкорректировать ее. По аналогии с черным ящиком ИС можно рассматривать как прозрачный ящик: будучи проз­рачным, они могут дать описание способа получения результатов. С этой точки зрения некоторые информационные системы являются диагностически­ми, т. е. полученные с их помощью результаты представляют со­бой не решение задачи, а только некоторую гипотезу. При этом предлагаемые объяснения — это лишь совокупность рассуждений, которые неясно как скомбинированы.

Получил распространение вид объ­яснения, называемый обоснованием выводов, которое, не учитывая способа комбинации выводов, дает описание системы путем вы­явления причин сделанных выводов. Одним из способов обоснования решений и выводов является проверка или оценка их правильности и реализуемости на основе прогнозирования пос­ледствий и развития ситуаций в случае использования этих ре­шений, а также выявление возможных узких мест. Во многих предметных областях, основой для принятия управляющих решений и выработки обоснованных рекомендаций является оценка ситуаций, складываю­щихся во внешней среде, определение и прогнозирование ее наи­более важных свойств на основе интерпретации имеющихся дан­ных.

Объективной основой для оценки ситуаций на базе имеющихся данных, количественных и качественных характеристик является знание закономерностей, связывающих данные с типами возмож­ных ситуаций, причем это знание может быть формально выраже­но, в частности, с помощью некоторых «жестких» моделей. При интерпретации текущих данных с целью оценки ситуации ИС придает данным более широкий смысл, извлекает из них информацию о ситуации в целом, которая непосредственно в них не содержится. В итоге они преобразуются в форму, приемлемую для восприятия человеком, принимающим решения. Эту операцию называют часто понятийным анализом данных. Результаты ана­лиза могут быть выражены и представлены также в виде чисел, таблиц, формализованных текстов, графических представлений.

Прогнозирующие системы логически выводят вероятные след­ствия из заданных ситуаций и при текущих данных. При обос­новании решений и прогнозировании в этих системах часто ис­пользуется либо имитационная, либо параметрическая динамиче­ская модель, в которой значения параметров подгоняются под данную ситуацию. Выводимые из этой модели следствия состав­ляют основу для прогноза. Если не делать вероятностных оценок, то прогнозирующие системы могут порождать большое число воз­можных сценариев будущих событий.

В настоящее вре­мя активно ведутся работы по созданию информационных систем, органически объединяющих и использующих средства искусственного интеллек­та и имитационного моделирования, ведь в какой-то мере это разные инструменты оперирования одной проблемой в разных ее проявлениях [117, 121, 89].


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: