Кроме того, в классической регрессионной модели предполагалось, что ошибки имеют стандартное нормальное распределение. В то же время часто бывает, что зависимая переменная является дискретной.
Примеры:
o Покупать ли автомобиль;
o Идти ли на выборы;
o Способ попадания из дома на работу (пешком, на метро, наземным общественным транспортом или на личном автомобиле);
o Выбрать ли для отдыха авиа – или автобусный тур;
o Переехать ли на постоянное место жительства в другой регион и т.п.
Если есть только два возможных значения зависимой переменной, то такие модели будут называться моделями бинарного выбора. Для таких моделей зависимая переменная, которая может иметь нечисловую переменную, принимает значения 0 или 1. Формально применение МНК для таких моделей возможно, но есть несколько «подводных камней». Рассмотрим линейную вероятностную модель и те проблемы, которые возникают при ее интерпретации.
Линейная вероятностная модель.
В рамках этой модели:
1 - если событие произошло;
|
|
0 - если не произошло Yt Yi 1b= 2b+ Xi ui+ ui(, E = 0)
Yi = E Yi= Xi
Таким образом, мы представляем Y как сумму детерминированной части и случайного возмущения. Пока формально все как и прежде. Но: Y может принимать только два значения 0 и 1.
Значит, выражение 1b = 2b+ Xi имеет смысл вероятности, и, следовательно, значения выражения должны лежать в пределах [0; 1]
Основные недостатки линейной вероятностной модели: Остатки распределены не нормально: их распределение и вовсе является дискретным
В силу перечисленных недостатков, линейная вероятностная модель редко находит применение на практике.