Проблема понимания

Основным содержанием функции обще­ния является процедура понимания ЭВМ вводимых в нее текстов, К сожалению, ни в лингвистике, ни в психологии, ни в философии термин «понимание» не получил точной интерпретации.

Поэтому ниже дадим его интерпретацию, удобную для разработчиков интеллектуальных систем. Эта интерпретация является развитием той, которая бы­ла опубликована в [1], Введем семь уровней понимания, харак­терных для интеллектуальных интерфейсов, точно поясняя на каждом уровне его содержание.




Рис.1. Структура интеллекту-

ального интерфейса


Рис.2. Интерфейс «нулевого» уровня


0. На нулевом уровне понимания система способна отвечать на сообщения пользователя безо всякого анализа их сути. На этом уровне понимание как таковое у системы отсутствует. В общении людей между собой нулевому уровню понимания соот­ветствует так называемый фатическия диалог, когда разговор поддерживается без анализа сути высказываний собеседника за счет чисто внешних форм поддержки диалога. Например, разгова­ривая с кем-то по телефону, когда содержание самого разговора вас абсолютно не интересует, можно, не слушая того, что говорит собеседник, встав­лять периодически ничего не значащие реплики типа: «Очень интересно», «я слушаю» и т. п. Можно «зацеплять?» свои реплики чисто формально за те или иные слова в сообщениях собеседни­ка. Если собеседник сказал о чем-то, что это важно, то можно синтезировать реплику: «Это, действительно, очень важно», даже не давая себе труда понять, о чем идет речь. Интересно, что по­добный способ общения внешне опознается далеко не сразу. Пер­вые программы общения для ЭВМ (например, знаменитая про­грамма ЭЛИЗА [2]) неоднократно приводили собеседника в изумление. Казалось, что эти программы ведут с партнерами насто­ящий интеллектуальный разговор. Тем не менее, организация системы общения с таким уровнем понимания весьма проста. Она показана на рис.2. На вход лингвистического блока поступает входной текст. В этом тексте выделяются заранее заданные маркеры, которыми могут быть конкретные слова или выражения, или стандартные компоненты, в синтаксической структуре предложения. На каж­дый такой маркер в памяти ЭВМ хранится конструкция ответно­го сообщения. Оно может быть стандартным или иметь «пустые» места, заполняемые стандартным образом выделенными в тексте маркерами. При вводе в ЭВМ фразы: «Мне нравится хорошая по­года», ответная реплика может звучать: «А почему?» И эта же самая реплика будет ответной для введенной в ЭВМ фразы: «Мне не нравится, когда я болею», ибо маркером, вызывающим подоб­ную реплику со стороны ЭВМ, может быть слово «нравится» С функциональной точки зрения нулевой уровень понимания харак­теризуется двумя процедурами: П 1– выделение маркеров по вход­ном сообщении и П 2 – формирование стандартных ответных реп­лик.

1. На первом уровне понимания система становится способной отвечать на все вопросы, ответы на которые есть во введенном в нее тексте Если система способна давать любые такие ответы, то она «овладела» первым уровнем понимания. Например, если в ЭВМ введен текст: «В аэропорту Внуково в 20 часов приземлил­ся самолет ИЛ-62, прилетевший из Баку. В 21 час пассажиры этого рейса получили свой багаж, а в 22 часа этот же самолет улетел в Баку», то на первом уровне понимания ЭВМ обязана отвечать правильно на вопросы типа: «Откуда прилетел самолет, приземлившийся в 20 часов в аэропорту Внуково?» или «В каком аэропорту приземлился в 20 часов ИЛ-62, прилетевший из Баку?».

Для того чтобы в системе общения была реализована возмож­ность подобной работы с текстом, необходима структура, показан­ная на рис.3. На этом рисунке приведены лингвистический процес­сор, блок вывода ответа и база данных. В базу данных вводится входной текст, преобразованный в лингвистическом процессоре в некоторое внутреннее представление. Это внутреннее представле­ние может быть любым, но важно, чтобы в лингвистическом про­цессоре были реализованы процедуры, позволяющие выявить глу­бинную синтаксическую структуру вводимых в ЭВМ предложе­ний, а также структуру межфразовых связей в тексте [3, 4]. На современном уровне наших знаний об анализе предложений н тек­ста эти процедуры достаточно хорошо известны и реализованы в ряде практически действующих систем [б]. Знание глубинной син­таксической структуры позволяет блоку вывода ответа соотнести внутреннее представление вопроса RQ с внутренним представле­нием текста и найти то предложение, в котором содержится ответ на введенный вопрос, либо убедиться, что такого предложе­ния нет. Во втором случае пользователь получает отказ, а в пер­вом случае за счет трансформации найденного предложения (или без нее) формируется ответ, нужный пользователю. Три процеду­ры, характерные для первого уровня понимания текста, – это про­цедура П3, реализуемая в лингвистическом процессоре и осущест­вляющая перевод текста и вопросов во внутренние представления, передаваемый в базу данных и блок формирования ответа; проце­дура П4, характеризующая поиск того фрагмента текста, который соответствует вопросу, и процедура П5, которая переводит внут­реннее представление ответа во внешнее представление. Две по­следние процедуры характеризуют работу блока вывода ответа.




Рис.3. Интерфейс «первого» уровня Рис. 4. Интерфейс «второго» уровня


2. На втором уровне понимания используется структура, пока­занная не рис.4. Новым в этой структуре является блок пополне­ния текста. В его функции входит автоматическое пополнение текста за счет хранящихся в памяти ЭВМ процедур пополнения. При­мерами подобных процедур могут служить правила вывода псевдофизических логик [б], к которым относятся логики времени, пространства, причинно-следственных связей и т.п. Если в па­мять ЭВМ введен тот же текст, который мы использовали для ил­люстрации функционирования системы с первым уровнем пони­мания, то на втором уровне система может отвечать на вопросы типа; «Получили ли пассажиры багаж, когда в 22 часа самолет ИЛ-62, прилетевший из Баку, улетел обратно?». Для формирова­ния ответа на такой вопрос необходимо, используя правила логи­ки времени, спроецировать события, упомянутые в исходном тек­сте, на порядковую (в данном случае, метрическую) школу време­ни и тем самым упорядочить их, а используя правила логики про­странства, отождествить «обратно» с «Баку»,

3. Третий уровень понимания реализуется структурой системы, похожей на структуру, показанную на рис. 4. Отличие состоит в процедурах, реализуемых блоком вывода ответа. Формируя отве­ты, этот блок использует теперь не только информацию, храня­щуюся в базе данных, куда введено расширенное внутреннее пред­ставление исходного текста, но и некоторую дополнительную ин­формацию, хранящуюся в базе знаний (рис.5). Эта априорно хра­нимая в памяти системы дополнительная информация есть знание системы о типовых сценариях ситуаций и процессов, характерных для той предметной области, с которой работает система.

Используя все тот же иллюстративный пример, введем в базу знаний типовой сценарий процесса прилета пассажирского самолета и процесса его отлета. Сценарий прилета такого самолета может выглядеть, например, так, как это показано на рис.6. Вершины сценарий соответствуют определенным событиям, а ду­ги характеризуют последовательность событий во времени, зада­вая на них частичный порядок. Наличие сценария позволяет пользователю получить, например, ответ на вопрос: «Когда пассажиры покинули самолет?». Об этом факте в исходном тексте нет никакой информации. И система, уровень понимания которой ниже третьего, оказывается не в состоянии понять подобный вопрос. В системе с третьим уровнем понимания блок вывода ответа по внутренне­му представлению вопроса RQ производит поиск нужного для формирования ответа фрагмента текста. При ненахождении тако­го фрагмента блок вывода ответа обращается к содержимому ба­зы знаний. Если там ответ также не найден, то пользователю выдается отказ, а если нужная информация имеется, то с помощью процедур, хранимых в блоке вывода ответа, эта информа­ция извлекается из сценария и участвует в формировании ответа.

В нашем примере обнаруживается, что событие «Выход пас­сажиров» (в описании этого событии, хранящемся также в базе знаний, имеется информация о перефразах, характерных для дан­ного события, так что «покинули самолет» будет отождествлено с «выходом пассажиров из самолета») расположено по времени между событиями «Посадка» и «Получение багажа». Используя правила псевдофизической логики, система расширила исходный текст. Поэтому здесь возможно формирований ответа: «Пассажиры по­кинули самолет между 20 и 21 часами».

На третьем уровне понимания сохраняются процедуры П3, П5 и П6. Процедура П4, которая ранее реализовалась в блоке вывода ответа, усложняется и заменяется на процедуру П7, учиты­вающую необходимость работы с базой знаний.




Рис.5. Интерфейс «третьего» уровня Рис. 6. Пример сценария

Сценарии могут иметь самую разную форму. Дуги, входящие в них, могут интерпретироваться не только как маркеры времен­ных упорядочений, но и как причинно-следственные связи. Конечно, могут браться и связи, характеризующие такие отношения, как «род–вид», «часть–целое», аргумент–функция» и т.п. [6]. В искусственном интел­лекте сценариям отводится центральная роль в процессах понима­ния текстов на естественном языке[7, 8],

4. Для четвертого уровня понимания общая структура системы остается такой же, как и на рис.5. Меняется только процедура, реализуемая блоком вывода ответа. Эта процедура обогащается за счет введения в нее эффективных средств дедуктивного вывода. В базе знаний, кроме сценариев хранится и иная информа­ция, отражающая свойства отдельных объектов, фактов и явлений, характерных для предметной области, с которой рабо­тает система, а также совокупность различных закономерностей, характерных для процессов, протекающих в ней. Вся эта инфор­мация априорно закладывается в виде некоторых внутренних формализованных представлений в базу знаний. Специалисты, кото­рые этим занимаются, в последнее время все чаще называют­ся инженерами знаний или инженерами по знаниям.

Сейчас используется несколько форм представления знаний в базах знаний [9]. Наиболее популярны продукционные системы и фреймы. Продукционные системы особенно удобны для дедук­тивного вывода, так как каждая продукция по сути представляет собой некоторое правило вывода вместе с условиями его приме­нения, Общий вид продукции:

S; Р; Ecли Н, то L, W.

Здесь «Ecли Н, то L» определяет собственно продукцию, или, как часто говорят, ядро продукции. Ее интерпретация может быть различной. В логических системах вывода эта интерпретация та­кова: «Если Н является выведенным, то выводимо L»- Элемент продукции Р описывает условия применимости ядра. Это, как правило, совокупность некоторых предикатов, которые должны быть истинными для возможности применения правила, описывае­мого ядром продукции. Проблемная область естественным обра­зом разбивается на отдельные сферы, внутри каждой из которых существуют свои продукции. Например, проблемная область, отно­сящаяся к функционированию аэропорта, в качестве такой сферы может содержать сведения об обслуживании пассажиров, об об­служивании самолетов, об аэродромной службе и т.п. Поэтому при поиске в базе знаний нужных продукций, чтобы не затрачи­вать на этот поиск лишнего времени, желательно воспользоваться естественной структуризацией проблемной области. Элемент S представляет собой имя некоторой определенной сферы проблем­ной области. Наконец, W описывает последействие применения продукций, те изменения, которые необходимо внести в базу знаний после реализации продукции.

Организовывать дедуктивный вывод на продукциях достаточно естественно и просто. Шаги вывода могут идти от исходных дан­ных к целям, выраженным в правых частях ядер некоторых про­дукций, или от целей к наличным исходным данным. Эти два ме­тода соответствуют методам прямой и обратной волны [10] (вто­рой метод реализуется, например, средствами языка Пролог). Именно поэтому продукционные представления столь широко распростра­нены в экспертных системах [11, 12].

Фреймовые представления – это записи вида:

(Имя фрейма <Имя слота 1; Значение слота 1> <Имя слота 2; Значение слота 2>:...; <Имя слота N; Значение слота N». В качестве значений слота могут выступать имена других фреймов, что обеспечивает рекурсивное вложение фреймов; имена других фреймов с указанием имени связывающего их отношения, что обеспечивает организацию семантической сети из фреймов; кон­стантные (терминальные) значения; имена присоединенных про­цедур, специальные метки и сообщения и т. п.

Таким образом, фреймовые представления намного богаче про­дукционных. Но за это богатство приходится платить менее эф­фективными процедурами вывода, хотя в последнее время эта не­эффективность начинает преодолеваться [9, 13]. Все большее чис­ло интеллектуальных систем использует фреймовые представле­ния [14].

Между этими двумя основными формами представления зна­ний существует немало переходных смешанных форм, которые многим исследователям кажутся наиболее удобными[11, 14, 15].

Если вернуться к нашему иллюстративному примеру, то четвер­тый уровень понимания может, например, обеспечить ответ на во­прос: «Когда доставляют пассажиров к месту выдачи багажа?». Ответ на него требует не только обращения к сценарию, пока­занному на рис. 6, как на третьем уровне понимания, но и вывода по этому сценарию (в данном случае методом обратной волны). В результате этого вывода возникает ответ: «Пассажиров достав­ляют к месту выдачи багажа после посадки самолета, подачи к нему трапа и выхода пассажиров».

На четвертом уровне понимания процедура П7 усложняется, так как в ней появляются средства дедуктивного вывода. Эта но­вая процедура может быть обозначена как П8.

5. На пятом уровне понимания процедура П8 еще более рас­ширяется. К дедуктивному выводу добавляются средства правдо­подобного вывода. Среди них вывод по нечетким схемам, вероят­ностный вывод, вывод по аналогии и вывод по ассоциации. Эти «экзотические» схемы вывода в последнее время активно изучаются в работах по ИИ [16-19]. Сейчас уже можно говорить о том, что подобные методы, модели­рующие особенности человеческих рассуждений и, прежде всего, рассуждений специалистов в данной проблемной области [20], начинают внедряться в практику построения интеллектуальных систем.

Для иллюстрации правдоподобного вывода используем все тот же иллюстративный пример. Пусть текст его введен в базу дан­ных, а в базе знаний хранится сценарий, показанный на рис.6, Однако пользователь интересуется проблемой, близкой к той, которая обсуждается во введенном тексте, а не самим этим текстом. Он задает вопрос: «Улетел ли самолет, прибывший из Еревана в 12 часов?». Система, не находя информации в сноси памяти по этому поводу, вольна ответить пользователю отказом. Но на пя­том уровне понимания она может обратиться к механизмам прав­доподобных рассуждений. Если считать, что общие закономерно­сти прилета и отлета самолетов существуют, то она может вос­пользоваться текстом в базе данных для рассуждений по анало­гии. Общая схема таких рассуждений приведена на рис.7. На этой схеме G 1 и G2 означают некоторые гомоморфизмы. Предпо­лагая, что гомоморфизм G3 есть G 1, можно «вычислить» вид ут­верждения F 4. Для нашего иллюстративного примера F 4(технику вывода мы опускаем) будет звучать примерно так: «Самолет, прибывший из Еревана в 12 часов, улетел обратно приблизитель­но в 14 часов»,

Процедура, реализуемая на пятом уровне понимания в блоке вывода ответа, содержит в качестве своей составляющей П8 и но­вую составляющую П9 – совокупность разнообразных процедур правдоподобного вывода.

6. На шестом уровне понимания схема несколько видоизме­няется. Она показана на рис. 8. В нее добавляется блок пополне­ния базы знаний. До сих пор считалось, что заполнение базы зна­ний происходит до начала работы системы. В течение ее функционирования содержимое базы знаний самой системой изменено быть не может. Всякое изменение этого содержимого связано с деятельностью инженера знаний.

На шестом уровне понимания это условие снимается. Здесь база знаний становится открытой. Система становится способной по­полнять ее, извлекая новые закономерности и знания из наблю­дений за содержимым базы данных и обработки этих наблюдений. Другими словами, система становится способной к индуктивному выводу, Сейчас разработаны мощные практические процедуры индуктивного вывода [21-23], которые с успехом могут быть ис­пользованы при пополнении базы знаний новыми закономерностями. Так, наблюдая во вводимых о базу данных текстах разницу между временем посадки самолета и временем получения багажа, система индуктивного вывода сможет установить закономерность, согласно которой эта разница в большинстве случаев (понятие «большинство» в системе индуктивного вывода формализуется) составляет около 1 часа. В результате система становится способной ответить на вопрос, ответ на который ранее в базе данных и базе знаний отсутствовал: «Какое время проходит между посадкой самолета и получением багажа?» На подобный вопрос система мо­жет дать ответ типа «В большинстве случаев между этими собы­тиями проходит один час». Процедура индуктивного пополнения базы знаний на рис. 8 обозначена как П10.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: