Если значение корреляции равно 1. Статистика и обработка данных в психологии(продолжение)
КУРСОВАЯ РАБОТА
Тема: Корреляционный анализ
Введение
1. Корреляционный анализ
1.1 Понятие корреляционной связи
1.2 Общая классификация корреляционных связей
1.3 Корреляционные поля и цель их построения
1.4 Этапы корреляционного анализа
1.5 Коэффициенты корреляции
1.6 Нормированный коэффициент корреляции Браве-Пирсона
1.7 Коэффициент ранговой корреляции Спирмена
1.8 Основные свойства коэффициентов корреляции
1.9 Проверка значимости коэффициентов корреляции
1.10 Критические значения коэффициента парной корреляции
2. Планирование многофакторного эксперимента
2.1 Условие задачи
2.2 Определение центр плана (основной уровень) и уровня варьирования факторов
2.3 Построение матрицы планирования
2.4 Проверка однородности дисперсии и равноточности измерения в разных сериях
2.5 Коэффициенты уравнения регрессии
2.6 Дисперсия воспроизводимости
2.7 Проверка значимости коэффициентов уравнения регрессии
2.8 Проверка адекватности уравнения регрессии
Заключение
Список литературы
ВВЕДЕНИЕ
Планирование эксперимента -математико-статистическая дисциплина, изучающая методы рациональной организации экспериментальных исследований - от оптимального выбора исследуемых факторов и определения собственно плана эксперимента в соответствии с его целью до методов анализа результатов. Начало планирования эксперимента положили труды английского статистика Р.Фишера (1935), подчеркнувшего, что рациональное планирование экспериментадаёт не менее существенный выигрыш в точности оценок, чем оптимальная обработка результатов измерений. В 60-х годах 20 века сложилась современная теория планирования эксперимента. Её методы тесно связаны с теорией приближения функций и математическим программированием. Построены оптимальные планы и исследованы их свойства для широкого класса моделей.
Планирование эксперимента – выбор плана эксперимента, удовлетворяющего заданным требованиям, совокупность действий направленных на разработку стратегии экспериментирования (от получения априорной информации до получения работоспособной математической модели или определения оптимальных условий). Это целенаправленное управление экспериментом, реализуемое в условиях неполного знания механизма изучаемого явления.
В процессе измерений, последующей обработки данных, а также формализации результатов в виде математической модели, возникают погрешности и теряется часть информации, содержащейся в исходных данных. Применение методов планирования эксперимента позволяет определить погрешность математической модели и судить о ее адекватности. Если точность модели оказывается недостаточной, то применение методов планирования эксперимента позволяет модернизировать математическую модель с проведением дополнительных опытов без потери предыдущей информации и с минимальными затратами.
Цель планирования эксперимента – нахождение таких условий и правил проведения опытов при которых удается получить надежную и достоверную информацию об объекте с наименьшей затратой труда, а также представить эту информацию в компактной и удобной форме с количественной оценкой точности.
Среди основных методов планирования, применяемых на разных этапах исследования, используют:
Планирование отсеивающего эксперимента, основное значение которого выделение из всей совокупности факторов группы существенных факторов, подлежащих дальнейшему детальному изучению;
Планирование эксперимента для дисперсионного анализа, т.е. составление планов для объектов с качественными факторами;
Планирование регрессионного эксперимента, позволяющего получать регрессионные модели (полиномиальные и иные);
Планирование экстремального эксперимента, в котором главная задача – экспериментальная оптимизация объекта исследования;
Планирование при изучении динамических процессов и т.д.
Целью изучения дисциплины является подготовка студентов к производственно-технической деятельности по специальности с применением методов теории планирования и современных информационных технологий.
Задачи дисциплины: изучение современных методов планирования, организации и оптимизации научного и промышленного эксперимента, проведения экспериментов и обработки полученных результатов.
1. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ
1.1 Понятие корреляционной связи
Исследователя нередко интересует, как связаны между собой две или большее количество переменных в одной или нескольких изучаемых выборках. Например, может ли рост влиять на вес человека или может ли давление влиять на качество продукции?
Такого рода зависимость между переменными величинами называется корреляционной, или корреляцией. Корреляционная связь - это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого.
Известно, например, что в среднем между ростом людей и их весом наблюдается положительная связь, и такая, что чем больше рост, тем больше вес человека. Однако из этого правила имеются исключения, когда относительно низкие люди имеют избыточный вес, и, наоборот, астеники, при высоком росте имеют малый вес. Причиной подобных исключений является то, что каждый биологический, физиологический или психологический признак определяется воздействием многих факторов: средовых, генетических, социальных, экологических и т.д.
Корреляционные связи - это вероятностные изменения, которые можно изучать только на представительных выборках методами математической статистики. Оба термина - корреляционная связь и корреляционная зависимость - часто используются как синонимы. Зависимость подразумевает влияние, связь - любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной зависимости, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого.
Корреляционная зависимость - это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака.
Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.
Корреляционные связи различаютсяпо форме, направлению и степени (силе).
По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи (рисунок 1). При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности.
Рисунок 1 - Связь между эффективностью решения задачи и силой мотивационной тенденции
По направлению корреляционная связь может быть положительной ("прямой") и отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значениям одного признака - низкие значения другого (рисунок 2). При отрицательной корреляции соотношения обратные (рисунок 3). При положительной корреляции коэффициент корреляции имеет положительный знак, при отрицательной корреляции - отрицательный знак.
Рисунок 2 – Прямая корреляция
Рисунок 3 – Обратная корреляция
Рисунок 4 – Отсутствие корреляции
Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции. Сила связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции.
1.2 Общая классификация корреляционных связей
В зависимости от коэффициента корреляции различают следующие корреляционные связи:
Сильная, или тесная при коэффициенте корреляции r>0,70;
Средняя (при 0,50 Умеренная (при 0,30 Слабая (при 0,20 Очень слабая (при r<0,19). 1.3 Корреляционные поля и цель их построения
Корреляция изучается на основании экспериментальных данных, представляющих собой измеренные значения (x i , y i) двух признаков. Если экспериментальных данных немного, то двумерное эмпирическое распределение представляется в виде двойного ряда значений x i и y i . При этом корреляционную зависимость между признаками можно описывать разными способами. Соответствие между аргументом и функцией может быть задано таблицей, формулой, графиком и т. д. Корреляционный анализ, как и другие статистические методы, основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения x i и y i . Когда исследуется корреляция между количественными признаками, значения которых можно точно измерить в единицах метрических шкал (метры, секунды, килограммы и т.д.), то очень часто принимается модель двумерной нормально распределенной генеральной совокупности. Такая модель отображает зависимость между переменными величинами x i и y i графически в виде геометрического места точек в системе прямоугольных координат. Эту графическую зависимость называются также диаграммой рассеивания или корреляционным полем. Коэффициент корреляции
– это величина, которая может варьировать в пределах от +1 до –1. В случае полной положительной корреляции этот коэффициент равен плюс 1 (говорят о том, что при увеличении значения одной переменной увеличивается значение другой переменной), а при полной отрицательной – минус 1 (свидетельствуют об обратной связи, т.е. При увеличении значений одной переменной, значения другой уменьшаются). Пр1.: График зависимости застенчивости и дипресивности. Как видим, точки (испытуемые) расположены не хаотично, а выстраиваются вокруг одной линии, причём, глядя на эту линию можно сказать, что чем выше у человека выражена застенчивость, тем больше депрессивность, т. е. эти явления взаимосвязаны. Пр2.: График для Застенчивости и Общительности. Мы видим, что с увеличением застенчивости общительность уменьшается. Их коэффициент корреляции -0,43. Таким образом, коэффициент корреляции больший от 0 до 1 говорит о прямопропорциональной связи (чем больше… тем больше…), а коэффициент от -1 до 0 о обратнопропорциональной (чем больше… тем меньше…) В случае если коэффициент корреляции равен 0, обе переменные полностью независимы друг от друга. Корреляционная связь
- это связь, где воздействие отдельных факторов проявляется только как тенденция (в среднем) при массовом наблюдении фактических данных. Примерами корреляционной зависимости могут быть зависимости между размерами активов банка и суммой прибыли банка, ростом производительности труда и стажем работы сотрудников. Используется две системы классификации корреляционных связей по их силе: общая и частная.
В следующей таблице написаны названия коэффициентов корреляции для различных типов шкал. При r
=0
линейная корреляционная связь отсутствует. При этом групповые средние переменных совпадают с их общими средними, а линии регрессии параллельны осям координат. Равенство r
=0
говорит лишь об отсутствии линейной корреляционной зависимости (некоррелированности переменных), но не вообще об отсутствии корреляционной, а тем более, статистической зависимости. Иногда вывод об отсутствии корреляции важнее наличия сильной корреляции. Нулевая корреляция двух переменных может свидетельствовать о том, что никакого влияния одной переменной на другую не существует, при условии, что мы доверяем результатам измерений. В SPSS:
11.3.2 Коэффициенты корреляции До сих пор мы выясняли лишь сам факт существования статистической зависимости между двумя признаками. Далее мы попробуем выяснить, какие заключения можно сделать о силе или слабости этой зависимости, а также о ее виде и направленности. Критерии количественной оценки зависимости между переменными называются коэффициентами корреляции или мерами связанности. Две переменные коррелируют между собой положительно, если между ними существует прямое, однонаправленное соотношение. При однонаправленном соотношении малые значения одной переменной соответствуют малым значениям другой переменной, большие значения - большим. Две переменные коррелируют между собой отрицательно, если между ними существует обратное, разнонаправленное соотношение. При разнонаправленном соотношении малые значения одной переменной соответствуют большим значениям другой переменной и наоборот. Значения коэффициентов корреляции всегда лежат в диапазоне от -1 до +1. В качестве коэффициента корреляции между переменными, принадлежащими порядковой шкале применяется коэффициент Спирмена, а для переменных, принадлежащих к интервальной шкале - коэффициент корреляции Пирсона (момент произведений). При этом следует учесть, что каждую дихотомическую переменную, то есть переменную, принадлежащую к номинальной шкале и имеющую две категории, можно рассматривать как порядковую. Для начала мы проверим существует ли корреляция между переменными sex и psyche из файла studium.sav. При этом мы учтем, что дихотомическую переменную sex можно считать порядковой. Выполните следующие действия: · Выберите в меню команды Analyze (Анализ) Descriptive Statistics (Дескриптивные статистики) Crosstabs... (Таблицы сопряженности) · Перенесите переменную sex в список строк, а переменную psyche - в список столбцов. · Щелкните на кнопке Statistics... (Статистика). В диалоге Crosstabs: Statistics установите флажок Correlations (Корреляции). Подтвердите выбор кнопкой Continue. · В диалоге Crosstabs откажитесь от вывода таблиц, установив флажок Supress tables (Подавлять таблицы). Щелкните на кнопке ОК. Будут вычислены коэффициенты корреляции Спирмена и Пирсона, а также проведена проверка их значимости: Задание № 10 Корреляционный анализ
Понятие корреляции
Корреляция или коэффициент корреляции – это статистический показательвероятностной
связи между двумя переменными, измеренными по количественным шкалам. В отличие от функциональной связи, при которой каждому значению одной переменной соответствуетстрого определенное
значение другой переменной,вероятностная связь
характеризуется тем, что каждому значению одной переменной соответствуетмножество значений
другой переменной, Примером вероятностной связи является связь между ростом и весом людей. Ясно, что один и тот же рост может быть у людей разного веса и наоборот. Корреляция представляет собой величину, заключенную в пределах от -1 до + 1, и обозначается буквой r. Причем, если значение находится ближе к 1, то это означает наличие сильной связи, а если ближе к 0, то слабой. Значение корреляции менее 0,2 рассматривается как слабая корреляция, свыше 0,5 – высокая. Если коэффициент корреляции отрицательный, это означает наличие обратной связи: чем выше значение одной переменной, тем ниже значение другой. В зависимости от принимаемых значений коэффициента rможно выделить различные виды корреляции: Строгая положительная корреляция
определяется значениемr=1. Термин «строгая» означает, что значение одной переменной однозначно определяются значениями другой переменной, а термин «положительная» -
что с возрастанием значений одной переменной значения другой переменной также возрастают. Строгая корреляция является математической абстракцией и практически не встречается в реальных исследованиях. Положительная корреляция
соответствует значениям 0 Отсутствие корреляции
определяется значениемr=0. Нулевой коэффициент корреляции говорит о том, что значения переменных никак не связаны между собой. Отсутствие корреляции
H
o
: 0
r
xy
=0
формулируется как отражениенулевой
гипотезы в корреляционном анализе. Отрицательная корреляция
: -1 Строгая отрицательная корреляция
определяется значениемr= -1. Она также, как и строгая положительная корреляция, является абстракцией и не находит выражение в практических исследованиях. Таблица 1 Виды корреляции и их определения Метод вычисления коэффициента корреляции зависит от вида шкалы, по которой измерены значения переменной. Коэффициент корреляции r
Пирсона
является основным и может использоваться для переменных с номинальной и частично упорядоченными, интервальными шкалами, распределение значений по которым соответствует нормальному (корреляция моментов произведения). Коэффициент корреляции Пирсона дает достаточно точные результаты и в случаях анормальных распределений. Для распределений, не являющихся нормальными, предпочтительнее пользоваться коэффициентами ранговой корреляции Спирмена и Кендалла. Ранговыми они являются потому, что программа предварительно ранжирует коррелируемые переменные. Корреляцию rСпирмена программаSPSSвычисляет следующим образом: сначала переменные переводятся в ранги, а затем к рангам применяется формулаrПирсона. В основе корреляции, предложенной М. Кендаллом, лежит идея о том, что о направлении связи можно судить, попарно сравнивая между собой испытуемых. Если у пары испытываемых изменение по Х совпадают по направлению с изменением по Yсовпадает, то это свидетельствует о положительной связи. Если не совпадает – то об отрицательной связи. Данный коэффициент применяется преимущественно психологами, работающими с малыми выборками. Так как социологи работают с большими массивами данных, то перебор пар, выявление разности относительных частот и инверсий всех пар испытуемых в выборке затруднителен. Наиболее распространенным является коэф. Пирсона. Поскольку коэффициент корреляции rПирсона является основным и может использоваться (с некоторой погрешностью в зависимости от типа шкалы и уровня анормальности в распределении) для всех переменных, измеренных по количественным шкалам, рассмотрим примеры его использования и сравним полученные результаты с результатами измерений по другим коэффициентам корреляции. Формула вычисления коэффициента
r
- Пирсона:
r xy = ∑ (Xi-Xср)∙(Yi-Yср) / (N-1)∙σ x ∙σ y ∙ Где: Xi, Yi- Значения двух переменных; Xср, Yср- средние значения двух переменных; σ x , σ y – стандартные отклонения, N- количество наблюдений. Парные корреляции
Например, мы хотели бы выяснить, как соотносятся ответы между различными видами традиционных ценностей в представлениях студентов об идеальном месте работы (переменные: а9.1, а9.3, а9.5, а9.7), а затем о соотношении либеральных ценностях (а9.2, а9.4. а9.6, а9.8) . Данные переменные измерены по 5 – членным упорядоченным шкалам. Используем процедуру: «Анализ», «Корреляции»,«Парные». По умолчанию коэф. Пирсона установлен в диалоговом окне. Используем коэф. Пирсона В окно отбора переносятся тестируемые переменные: а9.1, а9.3, а9.5, а9.7 Путем нажатия ОК получаем расчет: Корреляции
а9.1.т. Насколько важно иметь достаточно времени для семьи и личной жизни? Корреляция Пирсона Знч.(2-сторон) а9.3.т. Насколько важно не бояться потерять свою работу? Корреляция Пирсона Знч.(2-сторон) а9.5.т. Насколько важно иметь такого начальника, который будет советоваться с Вами, принимая то или иное решение? Корреляция Пирсона Знч.(2-сторон) а9.7.т. Насколько важно работать в слаженном коллективе, ощущать себя его частью? Корреляция Пирсона Знч.(2-сторон) ** Корреляция значима на уровне 0.01 (2-сторон.). Таблица количественных значений построенной корреляционной матрицы Частные корреляции:
Для начала построим парную корреляцию между указанными двумя переменными: Корреляции
с8. Ощущают близость с теми, кто живет рядом с вами, соседями Корреляция Пирсона Знч.(2-сторон) с12. Ощущают близость со своей семьей Корреляция Пирсона Знч.(2-сторон) **. Корреляция значима на уровне 0.01 (2-сторон.). Затем используем процедуру построения частной корреляции: «Анализ», «Корреляции»,«Частные». Предположим, что ценность «Важно самостоятельно определять и изменять порядок своей работы» во взаимосвязи с указанными переменными окажется тем решающим фактором, под влияние которого ранее выявленная связь исчезнет, либо окажется малозначимой. Корреляции
Исключенные переменные с8. Ощущают близость с теми, кто живет рядом с вами, соседями с12. Ощущают близость со своей семьей с16. Ощущают близость с людьми, котрые имеют тот же достаток, что и вы с8. Ощущают близость с теми, кто живет рядом с вами, соседями Корреляция Значимость (2-сторон.) с12. Ощущают близость со своей семьей Корреляция Значимость (2-сторон.) Как видно из таблицы под влиянием контрольной переменной связь несколько снизилась: с 0, 120 до 0, 102. Однако, это незначительно снижение не позволяет утверждать, что ране выявленная связь является отражением ложной корреляции, т.к. она остается достаточно высокой и позволяет с нулевой погрешностью опровергать нулевую гипотезу. Наиболее точный способ определения тесноты и характера корреляционной связи - нахождение коэффициента корреляции. Коэффициент корреляции есть число определяемое по формуле: где r ху - коэффициент корреляции; x i -значения первого признака; у i -значения второго признака; Средняя арифметическая значений первого признака Средняя арифметическая значений второго признака Для пользования формулой (32) построим таблицу, которая обеспечит необходимую последовательность в подготовке чисел для нахождения числителя и знаменателя коэффициента корреляции. Как видно из формулы (32), последовательность действий такая: находим средние арифметические обоих признаков х и у, находим разность между значениями признака и его средней (х і - ) и у і - ), затем находим их произведение (х і - ) (у і - ) – суммa пocлeдних дает числитель коэффициента корреляции. Для нахождения его знаменателя следует разности (x i - )и (у і - ) возвести в квадрат, найти их суммы и извлечь корень квадратный из их произведения. Так для примера 31 нахождение коэффициента корреляции в соответствии с формулой (32) можно представить следующим образом (табл. 50). Полученное число коэффициента корреляции дает возможность установить наличие, тесноту и характер связи. 1. Если коэффициент корреляции равен нулю, связь между признаками отсутствует. 2. Если коэффициент корреляции равен единице, связь между признаками столь велика, что превращается в функциональную. 3. Абсолютная величина коэффициента корреляции не выходит за пределы интервала от нуля до единицы: Это дает возможность ориентироваться на тесноту связи: чем величина коэффициента ближе к нулю, тем связь слабее, а чем ближе к единице, тем связь теснее. 4. Знак коэффициента корреляции «плюс» означает прямую корреляцию, знак «минус»-обратную. Таблица50
Таким образом, вычисленный в примере 31 коэффициент корреляции r xy = +0,9. позволяет сделать такие выводы: существует корреляционная связь между величиной мышечной силы правой и левой кистей у исследуемых школьников (коэффициент r xy =+0,9 отличен от нуля), связь очень тесная (коэффициент r xy =+0,9 близок к единице), корреляция прямая (коэффициент r xy = +0,9 положителен), т. е. с увеличением мышечной силы одной из кистей увеличивается сила другой кисти.
При вычислении коэффициента корреляции и пользовании его свойствами следует учесть, что выводы дают корректные результаты в том случае, когда признаки распределены нормально и когда рассматривается взаимосвязь между большим количеством значений обоих признаков.
В рассмотренном примере 31 анализированы только 7 значений обоих признаков, что, конечно, недостаточно для подобных исследований. Напоминаем здесь еще раз, что примеры, в данной книге вообще и в этой главе в частности, носят характер иллюстрации методов, а не подробного изложения каких-либо научных экспериментов. Вследствие этого рассмотрено небольшое число значений признаков, измерения округлены - все это делается для того, чтобы громоздкими вычислениями не затемнять идею метода. Особое внимание следует обратить на существо рассматриваемой взаимосвязи. Коэффициент корреляции не может привести к верным результатам исследования, если анализ взаимосвязи между признаками проводится формально. Возвратимся еще раз к примеру 31. Оба рассмотренных признака представляли собой значения мышечной силы правой и левой кистей. Представим себе, что под признаком x i в примере 31 (14,0; 14,2; 14,9... ...18,1) мы понимает длину случайно пойманных рыб в сантиметрах, а под признаком у і (12,1; 13,8; 14,2... ...17,4) -вес приборов в лаборатории в килограммах. Формально воспользовавшись аппаратом вычислений для нахождения коэффициента корреляции и получив в этом случае также r xy =+0>9, мы должны были заключить, что между длиной рыб и весом приборов существует тесная связь прямого характера. Бессмысленность такого вывода очевидна. Чтобы избежать формального подхода к пользованию коэффициентом корреляции, следует любым другим методом - математическим, логическим, экспериментальным, теоретическим - выявить возможность существования корреляционной связи между признаками, то есть обнаружить органическое единство признаков. Только после этого можно приступать к пользованию корреляционным анализом и устанавливать величину и характер взаимосвязи. В математической статистике существует еще понятие множественной корреляции
- взаимосвязи между тремя и более признаками. В этих случаях пользуются коэффициентом множественной корреляции, состоящим из парных коэффициентов корреляции, описанных выше. Например, коэффициент корреляции трех признаков-х і , у і , z і - есть: где R xyz -коэффициент множественной корреляции, выражающий, как признак х i зависит от признаков у і и z i ; r xy -коэффициент корреляции между признаками x i и y i ; r xz -коэффициент корреляции между признаками Xi и Zi; r yz -
коэффициент корреляции между признаками y i , z i Корреля́ция
- статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции. Корреляция может быть положительной и отрицательной (возможна также ситуация отсутствия статистической взаимосвязи - например, для независимых случайных величин). Отрицательная корреляция
- корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции отрицателен. Положительная корреляция
- корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции положителен. Автокорреляция
- статистическая взаимосвязь между случайными величинами из одного ряда, но взятых со сдвигом, например, для случайного процесса - со сдвигом по времени. Метод обработки статистических данных, заключающийся в изучении коэффициентов (корреляции) между переменными, называется корреляционным анализом
. Коэффицие́нт корреля́ции
или парный коэффицие́нт корреля́ции
в теории вероятностей и статистике - это показатель характера изменения двух случайных величин. Коэффициент корреляции обозначается латинской буквой R и может принимать значения между -1 и +1. Если значение по модулю находится ближе к 1, то это означает наличие сильной связи (при коэффициенте корреляции равном единице говорят о функциональной связи), а если ближе к 0, то слабой. Для метрических величин применяется коэффициент корреляции Пирсона, точная формула которого была введена Фрэнсисом Гальтоном: Пусть X
,Y
- две случайные величины, определённые на одном вероятностном пространстве. Тогда их коэффициент корреляции задаётся формулой: где cov обозначает ковариацию, а D - дисперсию, или, что то же самое, где символ обозначает математическое ожидание. Для графического представления подобной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определенного символа. Такой график называется «диаграммой рассеяния». Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные. Так, для измерения переменных с интервальной и количественной шкалами необходимо использовать коэффициент корреляции Пирсона (корреляция моментов произведений). Если по меньшей мере одна из двух переменных имеет порядковую шкалу, либо не является нормально распределённой, необходимо использовать ранговую корреляцию Спирмена или τ (тау) Кендала. В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими: четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, кода связь между ними линейна (однонаправлена). Используется для измерения взаимной неупорядоченности. Корреляционный анализ
- метод обработки статистических данных, заключающийся в изучении коэффициентов (корреляции
) между переменными. При этом сравниваются коэффициенты корреляции между одной парой или множеством пар признаков для установления между ними статистических взаимосвязей. Цель корреляционного анализа
- обеспечить получение некоторой информации об одной переменной с помощью другой переменной. В случаях, когда возможно достижение цели, говорят, что переменные коррелируют
. В самом общем виде принятие гипотезы о наличии корреляции означает что изменение значения переменной А, произойдет одновременно с пропорциональным изменением значения Б: если обе переменные растут то корреляция положительная
, если одна переменная растёт, а вторая уменьшается, корреляция отрицательная
. Корреляция отражает лишь линейную зависимость величин, но не отражает их функциональной связности. Например, если вычислить коэффициент корреляции между величинами A
= s
i
n
(x
) и B
= c
o
s
(x
), то он будет близок к нулю, т. е. зависимость между величинами отсутствует. Между тем, величины A и B очевидно связаны функционально по закону s
i
n
2(x
) + c
o
s
2(x
) = 1. Данный метод обработки статистических данных весьма популярен в экономике и социальных науках (в частности в психологии и социологии), хотя сфера применения коэффициентов корреляции обширна: контроль качества промышленной продукции, металловедение, агрохимия, гидробиология, биометрия и прочие. Популярность метода обусловлена двумя моментами: коэффициенты корреляции относительно просты в подсчете, их применение не требует специальной математической подготовки. В сочетании с простотой интерпретации, простота применения коэффициента привела к его широкому распространению в сфере анализа статистических данных. Часто заманчивая простота корреляционного исследования подталкивает исследователя делать ложные интуитивные выводы о наличии причинно-следственной связи между парами признаков, в то время как коэффициенты корреляции устанавливают лишь статистические взаимосвязи. В современной количественной методологии социальных наук, фактически, произошел отказ от попыток установить причинно-следственные связи между наблюдаемыми переменными эмпирическими методами. Поэтому, когда исследователи в социальных науках говорят об установлении взаимосвязей между изучаемыми переменными, подразумевается либо общетеоретическое допущение, либо статистическая зависимость. Wikimedia Foundation. 2010.
Коэффициент корреляции - это степень связи между двумя переменными. Его расчет дает представление о том, есть ли зависимость между двумя массивами данных. В отличие от регрессии, корреляция не позволяет предсказывать значения величин. Однако расчет коэффициента является важным этапом предварительного статистического анализа. Например, мы установили, что коэффициент корреляции между уровнем прямых иностранных инвестиций и темпом роста ВВП является высоким. Это дает нам представление о том, что для обеспечения благосостояния нужно создать благоприятный климат именно для зарубежных предпринимателей. Не такой уж и очевидный вывод на первый взгляд! Пожалуй, нет ни одной сферы статистики, которая бы так прочно вошла в нашу жизнь. Коэффициент корреляции используется во всех областях общественных знаний. Основная его опасность заключается в том, что зачастую его высокими значениями спекулируют для того, чтобы убедить людей и заставить их поверить в какие-то выводы. Однако на самом деле сильная корреляция отнюдь не свидетельствует о причинно-следственной зависимости между величинами. Существует несколько основных показателей, которые характеризуют связь между двумя переменными. Исторически первым является коэффициент линейной корреляции Пирсона. Его проходят еще в школе. Он был разработан К. Пирсоном и Дж. Юлом на основе работ Фр. Гальтона. Этот коэффициент позволяет увидеть взаимосвязь между рациональными числами, которые изменяются рационально. Он всегда больше -1 и меньше 1. Отрицательно число свидетельствует об обратно пропорциональной зависимости. Если коэффициент равен нулю, то связи между переменными нет. Равен положительному числу - имеет место прямо пропорциональная зависимость между исследуемыми величинами. Коэффициент ранговой корреляции Спирмана позволяет упростить расчеты за счет построения иерархии значений переменных. Корреляция помогает найти ответ на два вопроса. Во-первых, является ли связь между переменными положительной или отрицательной. Во-вторых, насколько сильна зависимость. Корреляционный анализ является мощным инструментом, с помощью которого можно получить эту важную информацию. Легко увидеть, что семейные доходы и расходы падают и растут пропорционально. Такая связь считается положительной. Напротив, при росте цены на товар, спрос на него падает. Такую связь называют отрицательной. Значения коэффициента корреляции находятся в пределах между -1 и 1. Нуль означает, что зависимости между исследуемыми величинами нет. Чем ближе полученный показатель к крайним значениям, тем сильнее связь (отрицательная или положительная). Об отсутствии зависимости свидетельствует коэффициент от -0,1 до 0,1. Нужно понимать, что такое значение свидетельствует только об отсутствии линейной связи. Использование обоих показателей сопряжено с определенными допущениями. Во-первых, наличие сильной связи, не обуславливает того факта, что одна величина определяет другую. Вполне может существовать третья величина, которая определяет каждую из них. Во-вторых, высокий коэффициент корреляции Пирсона не свидетельствует о причинно-следственной связи между исследуемыми переменными. В-третьих, он показывает исключительно линейную зависимость. Корреляция может использоваться для оценки значимых количественных данных (например, атмосферного давления, температуры воздуха), а не таких категорий, как пол или любимый цвет. Пирсон и Спирман исследовали связь между двумя переменными. Но как действовать в том случае, если их три или даже больше. Здесь на помощь приходит множественный коэффициент корреляции. Например, на валовый национальный продукт влияют не только прямые иностранные инвестиции, но и монетарная и фискальная политика государства, а также уровень экспорта. Темп роста и объем ВВП - это результат взаимодействия целого ряда факторов. Однако нужно понимать, что модель множественной корреляции основывается на целом ряде упрощений и допущений. Во-первых, исключается мультиколлинеарность между величинами. Во-вторых, связь между зависимой и оказывающими на нее влияние переменными считается линейной. Данный метод нахождения взаимосвязи между величинами широко применяется в статистике. К нему чаще всего прибегают в трех основных случаях: Сознание устроено таким образом, что нам обязательно нужно объяснить события, которые происходят вокруг. Человек всегда ищет связь между картиной мира, в котором он живет, и получаемой информацией. Часто мозг создает порядок из хаоса. Он запросто может увидеть причинно-следственную связь там, где ее нет. Ученым приходится специально учиться преодолевать эту тенденцию. Способность оценивать связи между данными объективно необходима в академической карьере. Рассмотрим, как наличие корреляционной связи может быть неправильно истолковано. Группу британских студентов, отличающихся плохим поведением, опросили относительно того, курят ли их родители. Потом тест опубликовали в газете. Результат показал сильную корреляцию между курением родителей и правонарушениями их детей. Профессор, который проводил это исследование, даже предложил поместить на пачки сигарет предупреждение об этом. Однако существует целый ряд проблем с таким выводом. Во-первых, корреляция не показывает, какая из величин является независимой. Поэтому вполне можно предположить, что пагубная привычка родителей вызвана непослушанием детей. Во-вторых, нельзя с уверенностью сказать, что обе проблемы не появились из-за какого-то третьего фактора. Например, низкого дохода семей. Следует отметить эмоциональный аспект первоначальных выводов профессора, который проводил исследование. Он был ярым противником курения. Поэтому нет ничего удивительного в том, что он интерпретировал результаты своего исследования именно так. Неправильное толкование корреляции как причинно-следственной связи между двумя переменными может стать причиной позорных ошибок в исследованиях. Проблема состоит в том, что оно лежит в самой основе человеческого сознания. Многие маркетинговые трюки построены именно на этой особенности. Понимание различия между причинно-следственной связью и корреляцией позволяет рационально анализировать информацию как в повседневной жизни, так и в профессиональной карьере. При изучении общественного здоровья и здравоохранения в научных и практических целях исследователю часто приходится проводить
статистический анализ связей между факторными и результативными признаками статистический совокупности (причинно-следственная связь)
или определение зависимости параллельных изменений нескольких признаков этой совокупности от какой либо третьей величины (от общей
их причины). Необходимо уметь изучать особенности этой связи, определять ее размеры и направление, а также оценивать ее
достоверность. Для этого используются методы корреляции. Функциональная связь
- такой вид соотношения между двумя признаками, когда каждому значению одного из них соответствует
строго определенное значение другого (площадь круга зависит от радиуса круга и т.д.). Функциональная связь характерна для
физико-математических процессов. Корреляционная связь
- такая связь, при которой каждому определенному значению одного признака соответствует несколько
значений другого взаимосвязанного с ним признака (связь между ростом и массой тела человека; связь между температурой тела и
частотой пульса и др.). Корреляционная связь характерна для медико-биологических процессов. Зависимость параллельных изменений нескольких признаков от какой-то третьей величины. Например, под воздействием высокой
температуры в цехе происходят изменения кровяного давления, вязкости крови, частоты пульса и др. 1) Метод квадратов
2) Ранговый метод
Способ 1
Критерий t оценивается по таблице значений t с учетом числа степеней свободы (n - 2), где n - число парных вариант. Критерий t
должен быть равен или больше табличного, соответствующего вероятности р ≥99%. Способ 2
Задание:
вычислить коэффициент корреляции, определить направление и силу связи между количеством кальция в воде и
жесткостью воды, если известны следующие данные (табл. 1). Оценить достоверность связи. Сделать вывод. Таблица 1 Обоснование выбора метода.
Для решения задачи выбран метод квадратов (Пирсона), т.к. каждый из признаков (жесткость воды
и количество кальция) имеет числовое выражение; нет открытых вариант. Решение
.
Критерий t = 14,1, что соответствует вероятности безошибочного прогноза р > 99,9%. 2-й способ. Достоверность коэффициента корреляции оценивается по таблице "Стандартные коэффициенты корреляции" (см.
приложение 1). При числе степеней свободы (n - 2)=6 - 2=4, наш расчетный коэффициент корреляции r xу = + 0,99 больше
табличного (r табл = + 0,917 при р = 99%). Вывод.
Чем больше кальция в воде, тем она более жесткая (связь прямая, сильная и достоверная
:
r ху = + 0,99, р > 99,9%). Задание:
методом рангов установить направление и силу связи между стажем работы в годах и частотой травм, если получены
следующие данные: Обоснование выбора метода:
для решения задачи может быть выбран только метод ранговой корреляции, т.к. первый ряд
признака "стаж работы в годах" имеет открытые варианты (стаж работы до 1 года и 7 и более лет), что не позволяет использовать для
установления связи между сопоставляемыми признаками более точный метод - метод квадратов. Решение
. Последовательность расчетов изложена в тексте, результаты представлены в табл. 2. Таблица 2 Стандартные коэффициенты корреляции, которые считаются достоверными (по Л.С. Каминскому)
Коэффициенты корреляции
До сих пор мы выясняли лишь сам факт существования статистической зависимости между двумя признаками. Далее мы попробуем выяснить, какие заключения можно сделать о силе или слабости этой зависимости,
а также о ее виде и направленности. Критерии количественной оценки зависимости между переменными называются коэффициентами корреляции или мерами связанности.
Две переменные коррелируют между собой положительно, если между ними существует прямое, однонаправленное соотношение. При однонаправленном соотношении малые значения одной переменной
соответствуют малым значениям другой переменной, большие значения - большим. Две переменные коррелируют между собой отрицательно, если между ними существует обратное,
разнонаправленное соотношение. При разнонаправленном соотношении малые значения одной переменной соответствуют большим значениям другой переменной и наоборот.
Значения коэффициентов корреляции всегда лежат в диапазоне от -1 до +1. В качестве коэффициента корреляции между переменными, принадлежащими порядковой
шкале применяется коэффициент Спирмена
, а для переменных,
принадлежащих к интервальной
шкале - коэффициент корреляции Пирсона
(момент произведений). При этом следует учесть, что каждую дихотомическую переменную,
то есть переменную, принадлежащую к номинальной шкале и имеющую две категории, можно рассматривать как порядковую
. Для начала мы проверим существует ли корреляция между переменными sex и psyche из файла studium.sav . При этом дихотомическую переменную sex
можно считать порядковой. Выполните следующие действия: Выберите в меню команды Analyze (Анализ) Descriptive Statistics (Дескриптивные статистики) Crosstabs... (Таблицы сопряженности) Перенесите переменную sex
в список строк, а переменную psyche
- в список столбцов. Щелкните на кнопке Statistics
... (Статистика). В диалоге Crosstabs: Statistics установите флажок Correlations (Корреляции). Подтвердите выбор кнопкой Continue. В диалоге Crosstabs
откажитесь от вывода таблиц, установив флажок Supress tables (Подавлять таблицы). Щелкните на кнопке ОК. Будут вычислены коэффициенты корреляции Спирмена и Пирсона, а также проведена проверка их значимости:
Symmetric Measures (Симметричные меры)
Так как здесь нет переменных с интервальной шкалой, мы рассмотрим коэффициент корреляции Спирмена. Он составляет 0,439 и является максимально значимым (р<0,001). Для словесного описания величин коэффициента корреляции применяется следующая таблица: Исходя из вышеприведенной таблицы, можно сделать следующие заключения: Между переменными sex и psyche существует слабая корреляция (заключение о силе зависимости), переменные коррелируют положительно (заключение о направлении зависимости). В переменной psyche меньшие значения соответствуют отрицательному психическому состоянию, а большие - положительному. В переменной sex, в свою очередь, значение "1" соответствует женскому полу, а "2" - мужскому. Следовательно, однонаправленность соотношения можно интерпретировать следующим образом: студентки оценивают свое психическое состояние более негативно, чем ".х коллеги-мужчины или, что вероятнее всего, в большей степени склонны согласиться на такую оценку при проведении анкетирования. Строя подобные интерпретации, нужно учитывать, что корреляция между двумя признаками не обязательно равнозначна их Функциональной или причинной зависимости. Подробнее об этом см. в разделе 15.3. Теперь проверим корреляцию между переменными alter и semester. Применим методику, описанную выше. Мы получим следующие коэффициенты:
Symmetric Measures
Asympt. Std. Error (a) Interval by Interval Ordinal by Ordinal Spearman Correlation N of Valid Cases a. Not assuming the null hypothesis (Нулевая гипотеза не принимается). э. Using the asymptotic standard error assuming the null hypothesis (Используется асимптотическая
стандартная ошибка с принятием нулевой гипотезы). с. Based on normal approximation (На основе нормальной аппроксимации). Так как переменные alter и semester являются метрическими, мы рассмотрим коэффициент Пирсона (момент произведений). Он составляет 0,807. Между переменными alter и semester существует сильная корреляция. Переменные коррелируют положительно. Следовательно, старшие по возрасту студенты учатся на старших курсах, что, собственно, не является неожиданным выводом. Проверим на корреляцию переменные sozial (оценку социального положения) и psyche. Мы получим следующие коэффициенты:
Symmetric Measures
Asympt. Std. Error (a) Interval by Interval Ordinal by Ordinal Spearman Correlation N of Valid Cases a. Not assuming the null hypothesis (Нулевая гипотеза не принимается). b. Using the asymptotic standard error assuming the null hypothesis (Используется асимптотическая
стандартная ошибка с принятием нулевой гипотезы). с. Based on normal approximation (На основе нормальной аппроксимации). В этом случае мы рассмотрим коэффициент корреляции Спирмена; он составляет -0,703. Между переменными sozial и psyche существует средняя или сильная корреляция (граничное значение 0,7). Переменные коррелируют отрицательно, то есть чем больше значения первой переменной, тем меньше значения второй и наоборот. Так как малые значения переменной sozial характеризуют позитивное состояние (1 = очень хорошее, 2 = хорошее), а большие значения psyche - отрицательное состояние (1 = крайне неустойчивое, 2 = неустойчивое), следовательно, психологические затруднения во многом обусловлены социальными проблемами.
Данная модель двумерного нормального распределения (корреляционное поле) позволяет дать наглядную графическую интерпретацию коэффициента корреляции, т.к. распределение в совокупности зависит от пяти параметров: μ x , μ y – средние значения (математические ожидания); σ x ,σ y – стандартные отклонения случайных величин Х и Y и р – коэффициент корреляции, который является мерой связи между случайными величинами Х и Y.
Если р = 0, то значения, x i , y i , полученные из двумерной нормальной совокупности, располагаются на графике в координатах х, у в пределах области, ограниченной окружностью (рисунок 5, а). В этом случае между случайными величинами Х и Y отсутствует корреляция и они называются некоррелированными. Для двумерного нормального распределения некоррелированность означает одновременно и независимость случайных величин Х и Y.
Дихотомическая шкала (1/0)
Ранговая (порядковая) шкала
Дихотомическая шкала (1/0)
Коэфициент ассоциации Пирсона, коэффициент четырехклеточной сопряженности Пирсона.
Бисериальная корреляция
Ранговая (порядковая) шкала
Рангово-бисериальная корреляция.
Ранговый коэффициент корреляции Спирмена или Кендалла.
Интервальная и абсолютная шкала
Бисериальная корреляция
Значения интервальной шкалы переводятся в ранги и используется ранговый коэффициент
Коэффициент корреляции Пирсона (коэффициент линейной корреляции)
/ СПСС 10
Коэффициент корреляции
х і
у і
(х і - )
(у і - )
(х і - )(у і - )
(х і - )2
(у і - )2
14,00
12,10
-1,70
-2,30
+3,91
2,89
5,29
14,20
13,80
-1,50
-0,60
+0,90
2,25
0,36
14,90
14,20
-0,80
-0,20
+0,16
0,64
0,04
15,40
13,00
-0,30
-1,40
+0,42
0,09
1,96
16,00
14,60
+0,30
+0,20
+0,06
0,09
0,04
17,20
15,90
+1,50
+2,25
2,25
18,10
17,40
+2,40
+2,00
+4,80
5,76
4,00
109,80
101,00
12,50
13,97
13,94
Корреляционный анализ это:
Корреляционный анализ
Коэффициент корреляции
Коэффициент корреляции Пирсона
Коэффициент корреляции Кенделла
Коэффициент корреляции Спирмена
Свойства коэффициента корреляции
если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна , и следствием неравенства Коши - Буняковского будет: .
, где . Более того в этом случае знаки и k
совпадают: .
Корреляционный анализ
Ограничения корреляционного анализа
Графики распределений пар (x,y) с соответствующими коэффициентами корреляций x и y для каждого из них. Обратите внимание, что коэффициент корреляции отражает линейную зависимость (верхняя строка), но не описывает кривую зависимости (средняя строка), и совсем не подходит для описания сложных, нелинейных зависимостей (нижняя строка).
Область применения
Ложная корреляция
См. также
Корреляция и причинность
Коэффициент корреляции: формула Пирсона и Спирмана
Отношения между переменными
Особенности применения
Множественный коэффициент корреляции
Области использования корреляционно-регрессионного анализа
Человек в поисках причинно-следственной связи
Предвзятость средств массовой информации
Выводы
на применение метода квадратов
Достоверность определяется по формуле:
Достоверность оценивается по специальной таблице стандартных коэффициентов корреляции. При этом достоверным считается такой
коэффициент корреляции, когда при определенном числе степеней свободы (n - 2), он равен или более табличного, соответствующего
степени безошибочного прогноза р ≥95%.
Последовательность расчетов изложена в тексте, результаты представлены в таблице. Построив ряды из парных сопоставляемых
признаков, обозначить их через х (жесткость воды в градусах) и через у (количество кальция в воде в мг/л).Жесткость воды
(в градусах)
Количество кальция в воде
(в мг/л)
d х
d у
d х х d у
d x 2
d y 2
4
8
11
27
34
37
28
56
77
191
241
262
-16
-12
-9
+7
+14
+16
-114
-86
-66
+48
+98
+120
1824
1032
594
336
1372
1920
256
144
81
49
196
256
12996
7396
4356
2304
9604
14400
М х =Σ х / n
М у =Σ у / n
Σ d х x d у =7078
Σ d х 2 =982
Σ d y 2 =51056
М х =120/6=20
М y =852/6=142
М х = Σх/n (графа 1) и
М у = Σу/n (графа 2)
d х = х - М х (графа 3) и d y = у - М у (графа4).
1-й способ. Найти ошибку коэффициента корреляции (mr xy) и критерий t по формулам:
Стаж работы в годах
Число травм
Порядковые номера (ранги)
Разность рангов
Квадрат разности рангов
X
Y
d(х-у)
d 2
До 1 года
24
1
5
-4
16
1-2
16
2
4
-2
4
3-4
12
3
2,5
+0,5
0,25
5-6
12
4
2,5
+1,5
2,25
7 и более
6
5
1
+4
16
Σ d 2 = 38,5
Число степеней свободы - 2
Уровень вероятности р (%)
95%
98%
99%
1
0,997
0,999
0,999
2
0,950
0,980
0,990
3
0,878
0,934
0,959
4
0,811
0,882
0,917
5
0,754
0,833
0,874
6
0,707
0,789
0,834
7
0,666
0,750
0,798
8
0,632
0,716
0,765
9
0,602
0,885
0,735
10
0,576
0,858
0,708
11
0,553
0,634
0,684
12
0,532
0,612
0,661
13
0,514
0,592
0,641
14
0,497
0,574
0,623
15
0,482
0,558
0,606
16
0,468
0,542
0,590
17
0,456
0,528
0,575
18
0,444
0,516
0,561
19
0,433
0,503
0,549
20
0,423
0,492
0,537
25
0,381
0,445
0,487
30
0,349
0,409
0,449
Value (Значение)
Asympt. Std. Error (а) (Асимптотическая стандартная ошибка)
Approx. Т (b) (Приблиз. Т)
Approx. Sig. (Приблизительная значимость)
Interval by Interval (Интервальный - интервальный)
Pearson"s R
(R Пирсона)
,441
,081
5,006
,000 (с)
Ordinal by Ordinal (Порядковый - Порядковый)
Spearman Correlation (Корреляция по Спирмену)
,439
,083
4,987
,000 (с)
N of Valid Cases (Кол-во допустимых случаев)
106