Остаточная сумма квадратов
Эта статья нуждается в дополнительных цитатах для проверки . ( апрель 2013 г. ) |
В статистике остаточная сумма квадратов ( RSS ), также известная как сумма квадратов остатков ( SSR ) или сумма квадратов оценок ошибок ( SSE ), представляет собой сумму квадратов . остатков (отклонений , прогнозируемых от фактических эмпирических значений) данных). Это мера несоответствия между данными и оценочной моделью, такой как линейная регрессия . Небольшой RSS указывает на точное соответствие модели данным. Он используется как критерий оптимальности при выборе параметров и модели .
В общем, общая сумма квадратов = объясненная сумма квадратов + остаточная сумма квадратов. Доказательство этого в многомерном случае обычных наименьших квадратов (МНК) см. в разделе «Разбиение в общей модели МНК» .
Одна объясняющая переменная
[ редактировать ]В модели с одной объясняющей переменной RSS определяется как: [1]
где у я это я й значение прогнозируемой переменной, x i - это i й значение объясняющей переменной и — прогнозируемое значение y i (также называемое ).В стандартной модели линейной регрессии простой , где и — коэффициенты , y и x — регрессия и регрессор соответственно, а ε — член ошибки . Сумма квадратов остатков равна сумме квадратов ; то есть
где - расчетное значение постоянного члена и - расчетное значение коэффициента наклона .
Матричное выражение для остаточной суммы квадратов МНК
[ редактировать ]Общая модель регрессии с n наблюдениями и k объяснителями, первый из которых представляет собой постоянный единичный вектор, коэффициент которого является точкой пересечения регрессии:
где y — вектор наблюдений зависимой переменной размером n × 1, каждый столбец размера n × k матрицы X представляет собой вектор наблюдений на одном из k объяснителей, — это k вектор истинных коэффициентов размера × 1, а e — n вектор истинных основных ошибок размера × 1. Обычная оценка методом наименьших квадратов для является
Остаточный вектор ; поэтому остаточная сумма квадратов равна:
- ,
(эквивалент квадрата нормы остатков ). Полностью:
- ,
где H — матрица шляпы или матрица проекции в линейной регрессии.
Связь с корреляцией момента продукта Пирсона
[ редактировать ]Линия регрессии по методу наименьших квадратов определяется выражением
- ,
где и , где и
Поэтому,
где
определяется Корреляция момента произведения Пирсона выражением поэтому,
См. также
[ редактировать ]- Информационный критерий Акаике # Сравнение по методу наименьших квадратов
- Распределение хи-квадрат#Приложения
- Степени свободы (статистика)#Сумма квадратов и степеней свободы
- Ошибки и остатки в статистике
- Несоответствующая сумма квадратов
- Среднеквадратическая ошибка
- Приведенная статистика хи-квадрат , RSS на степень свободы
- Квадратные отклонения
- Сумма квадратов (статистика)
Ссылки
[ редактировать ]- ^ Архидиакон Томас Дж. (1994). Корреляционно-регрессионный анализ: руководство историка . Университет Висконсина Пресс. стр. 161–162. ISBN 0-299-13650-7 . ОСЛК 27266095 .
- Дрейпер, Северная Каролина; Смит, Х. (1998). Прикладной регрессионный анализ (3-е изд.). Джон Уайли. ISBN 0-471-17082-8 .