CA с использованием комбинации KD и MD

Только очень немногие исследования существуют там, где исследователи использовали комбинацию KD и MD для CA [5,15,22,38,49] в мультимодальной архитектуре [40]. В [5, 38] мы можем найти, что взаимодействие с графическим интерфейсом также использовалось как дополнительная модальность. Все эти исследования проводились в контролируемой среде с некоторыми предопределенными задачами. В таблице 3 приведены сводные данные этих исследований с их прикладных методов и достигнутых производительности.

Целевая модель

Основная идея заключается в том, что доверие (или уверенность) системы в подлинности текущего пользователя зависит от отклонений от того, как этот пользователь выполняет различные действия в системе. Если конкретное действие выполняется в соответствии с тем, как настоящий пользователь выполнит задачу (то есть, поскольку он хранится в профиле / шаблоне подлинного пользователя), тогда доверие системы к подлинности этого пользователя увеличится (так называемое вознаграждение). Если существует большое отклонение между поведением подлинного пользователя и текущего пользователя, тогда доверие системы к этому пользователю уменьшится (называется «Штраф»). Сумма изменения уровня доверия может быть фиксированной или переменной. Небольшое отклонение от поведения пользователя по сравнению с шаблоном может привести к небольшому снижению доверия, в то время как большое отклонение может привести к большему снижению.

Ни один человек не сможет вести себя одинаково[6]. Для настоящего пользователя это означает, что он также иногда отклоняется от своего обычного поведения, что приведет к снижению доверия. Тем не менее, большинство действий, которые будет выполнять настоящий пользователь, будет близко к его / ее нормальному поведению, т. Е. Приведет к увеличению доверия. В целом это привело бы к высокому доверию. Однако для самозванца имеет место противоположное. В некоторых случаях он будет вести себя как подлинный пользователь, повышая свой уровень доверия, но большинство действий приведет к снижению доверия из-за большого отклонения от поведения подлинного пользователя. Это затем приведет к общему снижению доверия со временем к самозванцу. Очевидно, что идеальная система должна работать таким образом, чтобы доверие к кому-либо другому, кроме подлинного пользователя, быстро уменьшалось до значения ниже предопределенного порога Tlockout, тогда система блокирует себя и потребует статической аутентификации пользователя для продолжения работы. В такой идеальной системе подлинный пользователь никогда не достигнет уровня доверия, который мог бы привести к блокировке, то есть подлинный пользователь не заметил бы присутствие системы СА в своей повседневной деятельности.

На рис. 1 и 2 мы более подробно излагаем концепцию модели доверия. На рисунке 1 мы видим, как изменяется уровень доверия, когда мы сравниваем профиль подлинного пользователя с тестовыми данными этого же пользователя. На этом рисунке мы видим, что уровень доверия иногда уменьшается из-за штрафов, но он никогда не опускается ниже порога блокировки (в этом случае блокировка T = 90, отмеченная красной линией). На рисунке 2 показано, что если один и тот же профиль пользователя сравнивается с тестовыми данными самозванца, доверие будет уменьшаться (в этом примере) в 5 раз ниже порога блокировки в пределах 500 пользовательских действий.1 Во время анализа, когда доверие к системе падает ниже порог блокировки мы вернули системное доверие обратно на 100, поэтому для анализа это похоже на начало нового сеанса. После сброса мы снова подсчитываем количество действий, которые самозванец может выполнить перед обнаружением. В развертываемой системе такие характеристики, конечно, не будут присутствовать, и после блокировки система вернется к механизму SA, чтобы снова разблокировать систему. Мы устанавливаем верхний предел системы доверия 100, чтобы предотвратить ситуацию, когда пользователь-самозванец извлекает выгоду из высокого доверия системы, полученного подлинным пользователем, прежде чем он захватит систему.

Bours [7] описал концепцию модели доверия для CA с использованием динамики нажатия клавиш. Он продемонстрировал, что уровень доверия будет увеличиваться или уменьшаться в соответствии с абсолютным расстоянием (т. Е. Масштабированным расстоянием Манхэттена) между шаблоном подлинного пользователя и текущим типом. Мы можем также использовать оценки классификатора (т. Е. Вероятность подлинности этого события или действия) для увеличения или уменьшения значения доверия. Мы должны решить две основные проблемы, связанные с моделью доверия:

Порог для наказания или вознаграждения: оценка классификатора (т.е. sci=P(xi|H1), где xi - это признак вектора i-го выполненного действия, а H1 - гипотеза для подлинного пользователя) находится в диапазоне от 0 до 1. Мы должны установить порог (Tr), где sci ≥ Tr приводит к вознаграждению, а штраф применяется в противном случае.

Сумма штрафа или вознаграждения системы соответствует значению классификатора: сумма штрафа или вознаграждения может быть зафиксирована, например, если sci ≥ Tr увеличивает значение доверия на 1, в противном случае уменьшите значение доверия на 1. Нас другой стороны, сумма штрафа или вознаграждения может быть переменной в зависимости от фактического значения sci.

На основе вышеупомянутых критериев в Целевой модели могут быть реализованы различные вычислительные алгоритмы. В этом исследовании мы внедрили модели доверия, которые поясняются ниже.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: