WikiDer > Множественная корреляция
Эта статья включает в себя список общих использованная литература, но он остается в основном непроверенным, потому что ему не хватает соответствующих встроенные цитаты. (Ноябрь 2010 г.) (Узнайте, как и когда удалить этот шаблон сообщения) |
В статистика, коэффициент множественная корреляция является мерой того, насколько хорошо данную переменную можно предсказать, используя линейная функция набора других переменных. Это корреляция между значениями переменной и лучшими предсказаниями, которые могут быть вычислены линейно от прогнозных переменных.[1]
Коэффициент множественной корреляции принимает значения от 0,00 до 1,00; более высокое значение указывает на высокую предсказуемость зависимая переменная от независимые переменные, со значением 1, указывающим, что прогнозы в точности верны, и значением 0, указывающим, что никакая линейная комбинация независимых переменных не является лучшим предсказателем, чем фиксированная значить зависимой переменной.[2]
Коэффициент множественной корреляции известен как квадратный корень из коэффициент детерминации, но при определенных предположениях о том, что перехватчик включен и используются наилучшие возможные линейные предикторы, тогда как коэффициент детерминации определяется для более общих случаев, включая случаи нелинейного прогнозирования и те, в которых прогнозируемые значения не были получены из процедура подгонки модели.
Определение
Коэффициент множественной корреляции, обозначаемый р, это скаляр что определяется как Коэффициент корреляции Пирсона между прогнозируемыми и фактическими значениями зависимой переменной в модели линейной регрессии, которая включает перехватить.
Вычисление
Квадрат коэффициента множественной корреляции можно вычислить с помощью вектор из корреляции между переменными-предикторами (независимые переменные) и целевая переменная (зависимая переменная), а корреляционная матрица корреляций между переменными-предикторами. Это дается
где это транспонировать из , и это обратный матрицы
Если все переменные-предикторы некоррелированы, матрица - единичная матрица и просто равно , сумма квадратов корреляций с зависимой переменной. Если переменные-предикторы коррелированы между собой, обратная корреляционная матрица объясняет это.
Квадрат коэффициента множественной корреляции также можно вычислить как долю дисперсии зависимой переменной, которая объясняется независимыми переменными, которая, в свою очередь, равна 1 минус необъяснимая доля. Необъяснимая дробь может быть вычислена как сумма квадратов остатков- то есть сумма квадратов ошибок прогнозирования, деленная на сумма квадратов отклонений значений зависимой переменной из его ожидаемое значение.
Свойства
Если более двух переменных связаны друг с другом, значение коэффициента множественной корреляции зависит от выбора зависимой переменной: регрессия на и будет вообще другой чем будет регресс на и . Например, предположим, что в конкретном примере переменная является некоррелированный с обоими и , в то время как и линейно связаны друг с другом. Затем регресс на и даст нуля, а регрессия на и даст строго положительный . Это следует из того, что соотношение с его лучшим предсказателем, основанным на и во всех случаях не меньше, чем соотношение с его лучшим предсказателем, основанным на в одиночку, и в этом случае с не имея объяснительной силы, он будет точно таким же большим.
использованная литература
дальнейшее чтение
- Эллисон, Пол Д. (1998). Множественная регрессия: учебник. Лондон: Sage Publications. ISBN 9780761985334
- Коэн, Джейкоб и др. (2002). Прикладная множественная регрессия: корреляционный анализ для поведенческих наук. ISBN 0805822232
- Корона, Уильям Х. (1998). Статистические модели для социальных и поведенческих наук: множественная регрессия и модели с ограниченно зависимыми переменными. ISBN 0275953165
- Эдвардс, Аллен Луи (1985). Множественная регрессия, дисперсионный и ковариационный анализ.. ISBN 0716710811
- Кит, Тимоти (2006). Множественная регрессия и не только. Бостон: образование Пирсона.
- Фред Н. Керлингер, Элазар Дж. Педхазур (1973). Множественная регрессия в поведенческих исследованиях. Нью-Йорк: Холт Райнхарт Уинстон. ISBN 9780030862113
- Стэнтон, Джеффри М. (2001). «Гальтон, Пирсон и горох: краткая история линейной регрессии для инструкторов по статистике», Журнал статистики образования, 9 (3).