Методы факторного анализа

Алгоритмы факторного анализа обеспечивают максимально возможное приближение восстановленных коэффициентов корреляции к исходным. Это достигается варьированием числа факторов и диагональных элементов корреляционной матрицы, на которой располагаются общности. Методы факторного анализа – это различные способы получения факторной структуры при заданном числе факторов. Все методы предполагают использование итеративных расчетов, а различаются начальной оценкой общностей, критериями оценки расхождения восстановленной и исходной корреляционных матриц, способами определения момента выхода из итерационной процедуры.

Метод Описание
Факторный анализ образов Метод главных компонент применяется к редуцированной корреляционной матрице, у которой на главной диагонали в качестве оценок общности расположены квадраты коэффициентов множественной корреляции.
Метод главных осей Итеративный пересчет собственных значений и факторных нагрузок исходя из предыдущих значений общностей. Окончание расчета – по числу итераций или по достижению заданного изменения значений общностей.
Метод невзвешенных наименьших квадратов Итеративная процедура пересчета факторной структуры и восстановленных корреляций с целью минимизации квадратов разностей исходной и воспроизведенной корреляционной матриц. На первом шаге общности рассчитываются как квадраты коэффициентов множественной корреляции.
Обобщенный метод наименьших квадратов Отличается от предыдущего тем, что для каждой переменной вводят веса тем большие, чем больше общность переменной.
Метод максимального правдоподобия Расхождения исходной и воспроизведенной корреляций проверяются при помощи критерия , и если отклонение значимо, то число факторов увеличивается на 1.

В литературных источниках метод главных компонент выделен из факторного анализа в самостоятельный метод. Их принципиальное различие состоит в следующем: метод главных компонент (МГК) – классический метод снижения размерности исходных данных путем определения небольшого числа линейных комбинаций исходных признаков, объясняющих большую часть дисперсии, дающий однозначное решение. В отличие от метода главных компонент, факторный анализ основан не на дисперсионном критерии, а ориентирован на объяснение корреляций, имеющихся между признаками по правилу – коэффициент корреляции любых двух признаков можно выразить суммой произведений нагрузок некоррелированных факторов.

Первый существенный момент - это определение метода выделения компонентов. Наиболее часто используется метод главных компонент, который позволяет преобразовывать данную последовательность наблюдаемых переменных в другую последовательность переменных. Например, в двумерном случае при коррелированности данных переменные можно расположить по двум взаимно перпендикулярным осям, повернутым относительно первоначальных (также перпендикулярных). Главная ось Р1 проходит по линии, вдоль которой располагается основная часть данных; вторая ось Р2., напротив, по линии с меньшей частью данных. Теперь предположим, что нужно представить точки в терминах только одной размерности (оси). В этом случае естественно выбрать ось P1, потому что в целом она ближе описывает данные наблюдений. Тогда первая главная компонента не что иное, как представление точек вдоль выбранной главной оси. Точка же с единичными значениями Х и У будет иметь координату, большую 1 по оси Р1 и меньшую 1 по оси Р2. Если мы описываем каждую точку в терминах Р1 и Р2 в новой системе координат, потери информации не происходит. Тем не менее, мы можем сказать, что первая ось (и первая компонента) является более информативной в описании точек, так как связь между X и У становится сильнее. Если Х иУ связаны линейной зависимостью, первая главная компонента будет содержать всю информацию, необходимую для описания каждой точки. Если Х и У независимы, то главная ось отсутствует, и анализ главных компонент не способствует даже минимальному сохранению (сжатию) результатов наблюдений. Если же Х и У коррелируют между собой, то вокруг главной оси P1 сосредоточивается большая часть дисперсии.

Следующий метод выделения факторов - метод наименьших квадратов, который сводится к минимизации остаточной корреляции после выделения определенного числа факторов и к оцениванию степени соответствия вычисленных и наблюдаемых коэффициентов корреляции (берется сумма квадратов отклонений).

Если взять количество факторов равное числу наблюдений, то вычисленные и наблюдаемые коэффициенты корреляции совпадут. Расхождение между этими коэффициентами уменьшается при увеличении числа предполагаемых факторов. Поэтому алгоритм решения по методу наименьших квадратов состоит в том, что на первом шаге задается минимальное число факторов, а затем, с увеличением числа факторов, устанавливается приемлемое решение.

На втором шаге производится оценка общностей с применением квадрата множественного коэффициента корреляции между данной переменной и остальными. На следующем шаге выделяется большее количество факторов, для которых вычисленные коэффициенты корреляции наилучшим образом приближают наблюдаемые корреляции (в смысле минимальной суммы квадратов отклонений), и так далее, пока дальнейшее уменьшение разности вычисленных и наблюдаемых коэффициентов корреляции станет невозможным.

Алгоритм по методу максимального правдоподобия можно представить следующим образом. Допустим, что наблюдаемые данные - это выборка из генеральной совокупности, которая точно соответствует k-факторной модели. Совместное распределение переменных, включая факторы, предполагается многомерным нормальным. Задача сводится к оцениванию значений скрытых переменных (факторных нагрузок[1]) генеральной совокупности, при которых в заданных допущениях функция правдоподобия для распределения элементов корреляционной матрицы максимальна.

Метод главных факторов - наиболее ранний метод факторного анализа. В нем методика анализа главных компонент используется применительно к редуцированной корреляционной матрице, в которой элементы главной диагонали соответствуют общностям. Для оценки этих общностей обычно используется квадрат множественного коэффициента корреляции между соответствующей переменной и совокупностью остальных переменных. После выделения оценок общностей на главной диагонали редуцированной корреляционной матрицы сами факторы выделяются таким же образом, что и в анализе главных компонент.

Альфа-факторный анализ был разработан для упорядочения данных в области психологии. В частности, объектом исследования являются индивидуумы. В этом анализе переменные получены в первоначальном факторном решении, где они считаются выборкой из генеральной совокупности переменных, о которой можно судить на основании наблюдаемой совокупности объектов. Другими словами, в альфа-факторном анализе выводы носят не статистический, а психометрический характер. Поскольку при этом подходе совокупность объектов предполагается известной (те же индивидуумы), обычные критерии значимости здесь не используются.

В анализе образов определение общей и характерной части переменной отличается от принятого в обычном факторном анализе. Под общей частью переменной (ее образом) подразумевается та ее составляющая, которая выражается через линейную комбинацию других переменных. Вторая составляющая переменной, независимая от остальных, называется антиобразом. При этом считается, что мы имеем дело с генеральными совокупностями (вопросы, связанные с выборкой, не рассматриваются).

В анализе образов предполагается, что потенциальное множество переменных бесконечно. Например, некоторой двухфакторной модели соответствует некоторое конкретное (и, естественно, конечное) количество переменных. Но в анализе образов последние считаются выбранными из бесконечного множества переменных, удовлетворяющего двухфакторной модели. Если бы у нас была возможность наблюдать все переменные этого пространства, средний квадрат образа был бы равен общности переменной, определяемой в факторной анализе, а средний квадрат антиобраза - характерности'. Иначе говоря, квадрат множественного коэффициента корреляции между одной переменной и остальными переменными совокупности равен общности данной переменной.

Ниже, из большого количества методов факторного анализа, которые представлены в пакете SPSS, рассмотрим методы: главных компонент и максимального правдоподобия с косоугольным вращением.

Основной результат факторного анализа – выявление факторной структуры, элементами которой являются факторные нагрузки. Факторные нагрузки вычисляются таким образом, чтобы восстановленные коэффициенты корреляции минимально отличались от исходных корреляций.

Анализ главных компонент дает наиболее грубое решение, однако он позволяет определиться с числом факторов и первоначально оценить факторную структуру. Метод максимального правдоподобия позволяет статистически оценить минимально возможное число факторов. При этом наиболее предпочтительно, чтобы каждая переменная после вращения находилась вблизи оси фактора, то есть имела бы максимальную нагрузку по одному фактору и минимальные по остальным. В этом случае каждая переменная будет соотнесена только с одним фактором.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: