[МУЗЫКА] [МУЗЫКА] [МУЗЫКА] Уважаемые слушатели! Данный урок посвящен расчету парного коэффициента корреляции Пирсона в пакете SPSS. Для начала импортируем данные, с которыми мы уже работали в пакете Statistica, это три переменные x1, x2 и x3, каждая из которых подчиняется нормальному закону. Откроем данные. Они сейчас содержатся в таблице Excel в файле «Корреляция Пирсона». [БЕЗ_ЗВУКА] Импортируем данные с первого листа, считываем имена переменных и получаем нашу таблицу. Для начала приведем ее немножко в порядок. Во-первых, мы видим, у нас слишком много лишних знаков после запятой, то есть здесь в основном всего три значимых разряда, поэтому эти хвосты можно немножко сократить. Как видим, здесь для каждой переменной у нас числовой тип и 16 знаков после запятой. Давайте сократим количество знаков до трех, чтобы таблица смотрелась аккуратнее, и проверим, в каких шкалах измеряются наши переменные, в данном случае у нас все в порядке, это количественная шкала. Переходим к исходной таблице и теперь для трех вот этих переменных мы рассчитаем матрицу парных коэффициентов корреляции Пирсона. Для этого мы заходим в раздел «Анализ», «Корреляция», «Парные». Выберем все три переменные, это можно сделать сначала комбинацией клавиш ctrl+A, выделяя все и перенося этот список в список анализируемых переменных. Далее смотрим, что предлагает нам данный раздел. В этом раздел у нас предлагается расчет трех коэффициентов корреляции: коэффициента корреляции Пирсона и двухранговых коэффициентов корреляции, Кендалла и Спирмена соответственно. Мы сейчас работаем с вами с количественными переменными, причем в пакете Statistica мы проверяли гипотезы о их нормальности, то есть мы получили вывод о том, что все эти переменные подчиняются нормальному закону, поэтому в данном случае совершенно корректно применение парного коэффициента корреляции Пирсона, хотя, конечно, мы также имеем право рассчитывать и ранговые коэффициенты корреляции, только они могут быть чуть менее информативны, так как они не учитывают интервальность между нашими значениями. Давайте для сравнения добавим еще в таблицу ранговый коэффициент корреляции Спирмена, хотя, конечно, в большей степени нас сейчас интересует именно количественный коэффициент корреляции Пирсона. Посмотрим, какие параметры мы можем настроить дополнительно. Во-первых, поскольку мы работаем с количественными переменными и будем рассчитывать количественный коэффициент корреляции, нам также предлагается расчет статистик. Это среднее значение и также оценки стандартных отклонений. Далее следует окно анализа пропущенных значений, мы можем исключать наблюдение попарно, а можем исключать строку целиком, если она содержит пропуск какой-то позиции. Поскольку в нашем случае все переменные не содержат пропусков, нам неважно, какой выбор здесь делать, у нас пройдут полностью все парные сравнения. Продолжаем анализ. Далее также можно определить критерий значимости, односторонний или двусторонний. В нашем случае мы будем проверять нулевую гипотезу о незначимости корреляционного коэффициента, то есть о равенстве его нулю, и нам не важно, в какую сторону, в большую или меньшую, это значение будет отклоняться от нуля. То есть мы выбираем двусторонний критерий. Также можно поставить галку в окне «Помечать значимые корреляции», то есть если значение корреляционного коэффициента будет превосходить критическое, мы будем отклонять нулевую гипотезу о незначимости коэффициента и выносить решение о том, что корреляция статистически значима. Нажимаем кнопку ОК и переходим к таблице. У нас сейчас появилось несколько таблиц. Первая таблица — с описательными статистиками, потому что мы указали галочкой расчет средних значений и среднеквадратических отклонений, то есть по каждой переменной в первом столбце у нас указано среднее значение, во втором столбце указано среднеквадратическое отклонение. Изначально переменные х1, х2 и х3 моделировались как выборки, подчиняющиеся стандартному нормальному распределению. Соответственно, как вы видите, здесь у нас все значения средних близки к нулю, а значение среднеквадратических отклонений близки к единице. Далее следует матрица парных коэффициентов корелляции Пирсона для всех трех переменных, x1, x2 и x3. Естественно, на диагонали этой матрицы стоят единичные значения. А на недиагональных элементах стоят парные коэффициенты соответствующих переменных x1 с x2, x1 с x3 и x2 с x3. Матрица, естественно, у нас симметрична относительно главной диагонали, то есть коэффициент является симметричным. Коэффициент корреляции xi и xj равно коэффициенту корреляции xj с xi. Также мы попросили помечать значимые корреляции, и, как видим, все коллекционные коэффициенты у нас сейчас помечены двумя звездочками то есть они являются статистически значимыми на уровне 0.01 при двусторонней альтернативе. И еще мы указали расчет рангового коэффициента корреляции Спирмена. Как видите, значения рангового коэффициента корреляции Спирмена несколько отличаются от парного коэффициента корреляции Пирсона для количественных переменных, но тем не менее, значения их довольно близки друг к другу, и степень значимости по обоим коэффициентам оказывается примерно одинаковой в данном случае. Парный коэффициент ранговой корреляции Спирмена является не параметрическим аналогом парного коэффициента корреляции Пирсона, и его можно применять также в том числе к количественным данным, в случае, например, если закон распределения выборок отличается от нормального, либо объемы выборок недостаточно велики. Для того чтобы визуально оценить степень тесноты статистической связи между двумя переменными, можно построить график, который называется корреляционное поле, или диаграмма размаха. В частности, в пакете SPSS это можно сделать следующим образом: мы заходим в раздел «Графика», устаревшие диалоговые окна, рассеяние точки. Здесь выбираем простую диаграмму рассеяния и задаем, соответственно, переменные по осям, например, x1 по первой оси, x2 по второй оси. И выводим соответствующий график. На графике появляется появляется диаграмма размаха. Как видите, у нас точки формируют некоторое вытянутое облако, направленное вот таким вот образом. Это может свидетельствовать о наличии определенной связи между соответствующими переменными. [МУЗЫКА] [МУЗЫКА]