Рассмотрим на примере модели парной регрессии (однофакторной):
,и
, условия ГМ соблюдены
1. Если значение
известно (так в жизни не бывает).
Тогда
, а 
Вычтем из первого второе, помноженное на
, получим:
, t=2,3,4,....,n.
В данной регрессии ошибки подчинены условиям Г-М, значит все статистические выводы применимы, как к стандартной регрессии c константой. Здесь теряется одно наблюдение (первое), однако при больших объёмах выборки такая модель (названная Cochrane-Orcutt) несильно искажает оценки и предпочтительна (так как в ней есть константа).
Если не хочется терять первое наблюдение, то:
Умножим уравнение при t=1 на
, получим:
,
Проведём замену, введём новые факторы:



Получим новую регрессию:

Это будет регрессия без автокорреляции ошибок, оценки OLS коэффициентов будут наилучшими (BLUE оценки), для неё будут верны стандартные статистические выводы для модели без константы, но из-за того, что это модель без константы, такое преобразование (преобразование Prais-Winsten,1954) не столь предпочтительно, сколь Cochrane-Orcutt.






