[МУЗЫКА] [МУЗЫКА] [МУЗЫКА] Здравствуйте, уважаемые слушатели. Тема нашего сегодняшнего занятия — корреляционный анализ. В рамках этой темы мы рассмотрим с вами основные коэффициенты корреляции. Коэффициент корреляции — это мера вероятностной связи двух количественных переменных. История разработки и применения коэффициентов корреляции для исследования взаимосвязей фактически началась одновременно с возникновением измерительного подхода к исследованию индивидуальных различий в 70-х‒80-х годах XIX столетия. Пионером в измерении способностей человека, как и автором самого термина «коэффициент корреляции» был Фрэнсис Гальтон, двоюродный брат Чарльза Дарвина. Для разработки коэффициентов корреляции он привлек молодого математика Карла Пирсона, который и разработал основные коэффициенты корреляции. С тех пор изучение взаимосвязей с использованием коэффициентов корреляции является одним из наиболее популярных в психологии занятий. К настоящему времени разработано великое множество различных коэффициентов корреляции. Поэтому, не претендуя на полноту изложения, мы с вами рассмотрим самые популярные, самые известные и совершенно незаменимые для исследований меры связи: r-Пирсона, r-Спирмена и τ-Кендалла. Их общей особенностью является то, что они отражают взаимосвязь двух количественных переменных, которые измерены в ранговой или метрической шкале. Вообще говоря, любое исследование сосредоточено на изучении взаимосвязи двух или более переменных. Мы будем различать два класса задач: исследование корреляций, когда две или более переменных представлены в числовой шкале, и исследование различий, когда по крайней мере одна переменная, между которыми изучается связь, представлена в номинативной шкале. Такое деление соответствует и логике построения популярных компьютерных статистических программ, в которых в меню корреляции предлагаются три коэффициента: r-Пирсона, r-Спирмена и τ-Кендалла, а для решения других исследовательских задач предлагаются методы сравнения выборок или частот. Начнем с того, что такое вероятностная связь. И прежде всего рассмотрим связи, известные уже вам — функциональные, которые вы изучали в школе. Функциональная связь может быть изображена графически. На экране вы видите графики различных функциональных связей. Будем различать связь линейную положительную (примером является связь длины и веса тела: чем больше длина, тем больше вес), связь линейную отрицательную (примером является время в пути и расстояние до цели: чем больше время в пути, тем меньше расстояние до цели). Также будем выделять связи нелинейные, монотонные. Раз они монотонные, значит, можно говорить о знаке: положительном или отрицательном. И нелинейные, немонотонные, которые меняют свой знак при увеличении или уменьшении значений одной из переменных. При всем многообразии функциональных связей у них есть одна общая особенность. Какая именно? То, что одному значению одной переменной соответствует строго фиксированное значение другой переменной. А теперь рассмотрим вероятностные связи. Чем они отличаются от функциональных? Представим себе, что мы решили проверить эмпирически связь длины и веса тела. Возьмем колбасу, будем резать ее на куски разной толщины и для каждого кусочка измерять его толщину, откладывая на оси x, и взвешивать его, откладывая вес на оси y. Повторяя многократно этот опыт, мы получим множество точек. Каждая точка будет обозначать один кусочек. Как видите, на графике, на диаграмме рассеивания, чем больше толщина кусочка, тем больше вес, однако точки не лежат на одной прямой. Почему? Потому что вес зависит не только от толщины кусочка. Ну, во-первых, влияет также на вес то, как мы отрезали или точность измерения толщины. Также влияет на вес колебание плотности по длине, также колебание диаметра, ну и наконец, ошибки измерения веса. Таким образом функциональная связь длины и веса тела на практике проявляется вероятностно, и вероятностный характер обусловлен тем, что вес тела зависит не только от длины, но и от влияния других причин, которые мы не контролируем. И проявляется вероятностная связь в том, что одному значению одной переменной соответствует не одно строго фиксированное значение другой переменной, а целое распределение значений другой переменной. Вообще говоря, в природе связь двух явлений всегда носит вероятностный характер. А функциональная связь — это идеализация этой вероятностной связи. Теперь обратимся к коэффициенту корреляции. Коэффициент корреляции r — это количественная мера силы (абсолютное значение) и направления (знак) вероятностной взаимосвязи двух переменных. Коэффициент корреляции устроен таким образом, что его значения находятся в диапазоне от −1 до +1, и крайние значения соответствуют функциональной взаимнооднозначной связи. На диаграммах рассеяния вы видите иллюстрации различных величин коэффициентов корреляции. На первой диаграмме рассеивания корреляция соответствует 0,87, положительная. Большим значениям переменной x, как правило, соответствуют большие значения переменной y. На второй диаграмме все точки лежат на одной прямой, и это соответствует корреляции −1. На третьей диаграмме корреляция приблизительно равна 0, а на четвертой, несмотря на то, что мы видим достаточно ярко выраженную немонотонную связь, корреляция будет равна 0, поскольку положительная связь компенсируется отрицательной связью.