Форма взаимосвязи социально-экономических явлений

Различают два вида связей, существующих между явлениями, – функциональные и стохастические.

Функциональной называется зависимость, при которой одному значению факторного признака строго соответствует единственное значение результативного признака.

Стохастическая зависимост ь характеризуется тем, что результативный признак неполностью определяется факторным признаком, его влияние проявляется в среднем при достаточно большом числе наблюдений.

Наиболее часто для исследования стохастических зависимостей используют метод корреляции.

Термин корреляция происходит от английского слова correlation – соотношение, соответствие.

К изучению связи методом корреляции обращаются в том случае, когда нельзя изолировать влияние посторонних факторов. При этом число наблюдений должно быть достаточно велико, так как малое число наблюдений не позволяет обнаружить закономерность связи.

Первая задача корреляции заключается в математическом выражении изменения результативного признака в связи с изменением одного или несколько факторных признаков. Данная задача решается определением уравнения регрессии и носит название регрессионного анализа. Вторая задача состоит в определении степени влияния искажающих факторов –различных показателей тесноты связи и называется корреляционным анализом.

Регрессионный анализ включает в себя этапы:

1. Логический анализ – разделение коррелирующих признаков на факторные и результативный.

2. Определение типа зависимости. Корреляционная зависимость называется парной, если она имеет место между двумя признаками (факторным и результативным) и множественной (многофакторной) – между тремя и более связанными между собой признаками.

16. Методы оценки тесноты связи в кореляционных зависимостях.

Для оценки тесноты связи в статистическом анализе используют показатели:

эмпирического корреляционного отношения (ηэ)

,

где - межгрупповая вариация результативного признака; - общая вариация результативного признака.

Наличие взаимосвязей между результативным и факторным признаком имеет при η ≤ 0,5.

Универсальным показателем тесноты связи является показатель теоретического корреляционного отношения или индекс корреляции (ηm)

,

где - рассчитанные (теоретические) значения результативного признака.

Показатель теоретического корреляционного отношения может использоваться для оценки тесноты связи не только в парных, но и многофакторных зависимостей.

Для оценки тесноты связи прямолинейной зависимости используется линейный коэффициент корреляции (r)

или

.

Линейный коэффициент корреляции может изменяться от -1 до +1. Чем ближе значение r по абсолютной величине к единице, тем теснее связь. Если r>0, то связь между факторным и результативным признаками прямо пропорциональная, если r<0, то обратно пропорциональная.

Для предварительной оценки тесноты связи корреляции может использоваться коэффициент корреляции знаков (коэффициент Г. Фехнера).

Для определения коэффициента знаков Г. Фехнера вычисляются средние значения факторного и результативного признаков, затем определяются знаки отклонений от средней всех значений взаимосвязанных признаков. Приняв число совпадений знаков отклонений индивидуальных значений от средней за «С», а число несовпадений за «Н», коэффициент определяется следующим образом:

.

Коэффициент Г. Фехнера может принимать значения от -1 до +1; если он положительный, то связь между признаками признается прямой, если отрицательный, то обратной.

Рассмотренные выше показатели корреляции приемлемы лишь для условий нормального или близкого к нормальному распределения и только для количественных признаков. Если эти условия отсутствуют и к тому же исследуются атрибутивные признаки, то приходится пользоваться непараметрическими методами корреляционного анализа, в частности корреляцией рангов или ранговой корреляцией. Ранг признака (Ri) указывает то место, которое занимает i-й признак среди других n-признаков в ранжированном ряду распределения.

Если одно и то же значение признака в ранжированном ряду распределения занимает разные порядковые номера, то ранг признака определяется по сопряженному рангу (), рассчитанному как среднее арифметическое порядковых номеров, занимаемых данным признаком.

Для такого рода ранжированных признаков показателями тесноты связи служат коэффициенты корреляции рангов К. Спирмэна (ρ) и М. Кендэла (τ).

,

где n – число сопоставимых пар; d – разность между рангами коррелирующих признаков ().

Этот коэффициент интерпретируется также, как и линейный коэффициент корреляции, имеет те же свойства и пределы значений (от -1 до +1)

,

где Z – алгебраическая сумма числа высших (P) и низших (Q) рангов по отношению к каждому последующему рангу y, сопоставленному в строгом соответствии с рядом значений х в восходящем или нисходящем порядках, т.е. Z=P-Q.

Расчет данного коэффициента выполняется в следующем порядке:

1. Значения признака х выстраиваются в строчной последовательности возрастания или убывания.

2. Значения у располагаются в порядке, соответствующем значениям х.

3. Для каждого ранга у определяется число следующих за ним значений рангов, превышающих его величину. Суммируя эти числа определяется величина Р как мера соответствия последовательностей рангов х и у.

4. Для каждого ранга у определяется число следующих за ним значений рангов, меньших его величины. Суммарная величина этих чисел обозначается Q.

Как правило, коэффициент М. Кендэла меньше коэффициента Спирмэна

.

Для определения тесноты связи между произвольным числом ранжированных признаков применяется множественный коэффициент ранговой корреляции (коэффициент конкордации) , который вычисляется по формуле

,

где m – количество факторов; S – отклонение суммы квадратов рангов от средней квадратов рангов

.

Связь между признаками признается значимой, если значение коэффициентов корреляции рангов больше 0,5.

Теснота связей между атрибутивными признаками с большим числом вариантов измеряется с помощью коэффициентов сопряженности К. Пирсона (Кn) или А. Чупрова (Кr)

,

,

где n1 – число вариантов признака по горизонтали; n2 – число вариантов признака по вертикали; φ2 – показатель взаимной сопряженности

,

где - частота внутри клетки таблицы; - итоговая частота по строке; - итоговая частота по графе.

Коэффициент сопряженности А. Чупрова считается более точным показателем по сравнению с показателем К. Пирсона, так как учитывает число образованных по признакам групп.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: