Ошибки и остатки

Из Википедии, бесплатной энциклопедии

В статистике и оптимизации ошибки остатки и две тесно связанные и легко спутанные меры отклонения наблюдаемого значения элемента статистической от выборки это его « истинного значения » (не обязательно наблюдаемого). Ошибка наблюдения среднего — это отклонение наблюдаемого значения от истинного значения интересующей величины (например, значения совокупности ). Остаток это разница между наблюдаемым значением и оценочным значением интересующей величины (например, выборочное среднее ). Это различие наиболее важно в регрессионном анализе , где эти понятия иногда называют ошибками регрессии и остатками регрессии и где они приводят к понятию стьюдентизированных остатков . В эконометрике «ошибки» также называют возмущениями . [1] [2] [3]

Введение [ править ]

Предположим, что имеется серия наблюдений одномерного распределения , и мы хотим оценить среднее значение этого распределения (так называемая модель местоположения ). В этом случае ошибки представляют собой отклонения наблюдений от среднего значения генеральной совокупности, а остатки — это отклонения наблюдений от среднего выборочного значения.

Статистическая ошибка (или возмущение ) — это величина, на которую наблюдение отличается от его ожидаемого значения , причем последнее основано на всей совокупности , из которой статистическая единица была выбрана случайным образом. Например, если средний рост в популяции 21-летних мужчин составляет 1,75 метра, а один случайно выбранный мужчина имеет рост 1,80 метра, то «ошибка» составит 0,05 метра; если рост случайно выбранного мужчины 1,70 метра, то «ошибка» составит -0,05 метра. Ожидаемое значение, представляющее собой среднее значение для всей совокупности, обычно ненаблюдаемо, и, следовательно, статистическую ошибку также невозможно наблюдать.

оценку ненаблюдаемой С другой стороны, остаток (или аппроксимирующее отклонение) представляет собой наблюдаемую статистической ошибки. Рассмотрим предыдущий пример с ростом мужчин и предположим, что у нас есть случайная выборка из n человек. может Среднее значение выборки служить хорошей оценкой среднего значения генеральной совокупности . Тогда у нас есть:

  • Разница между ростом каждого мужчины в выборке и ненаблюдаемым средним значением популяции является статистической ошибкой , тогда как
  • Разница между ростом каждого мужчины в выборке и наблюдаемым средним значением выборки является остатком .

Обратите внимание, что из-за определения выборочного среднего сумма остатков в случайной выборке обязательно равна нулю, и, следовательно, остатки не обязательно являются независимыми . Статистические ошибки, напротив, независимы, и их сумма в пределах случайной выборки почти наверняка не равна нулю.

Можно стандартизировать статистические ошибки (особенно нормального распределения ) с помощью z-показателя (или «стандартного показателя») и стандартизировать остатки с помощью t -статистики или, в более общем смысле, стьюдентизированных остатков .

В одномерных распределениях [ править ]

Если мы предположим, что популяция нормально распределена со средним значением µ и стандартным отклонением σ, и выберем особей независимо, то мы получим

и выборочное среднее

— случайная величина, распределенная так, что:

статистические ошибки Тогда

с ожидаемыми значениями, равными нулю, [4] тогда остатки как

Сумма квадратов статистических ошибок , деленная на σ 2 , имеет распределение хи-квадрат с n степенями свободы :

Однако эта величина не наблюдаема, поскольку среднее значение популяции неизвестно. сумма квадратов остатков наблюдаема С другой стороны, . Фактор этой суммы на σ 2 имеет распределение хи-квадрат только с n - 1 степенями свободы:

Эта разница между n и n - 1 степенями свободы приводит к поправке Бесселя для оценки выборочной дисперсии совокупности с неизвестным средним значением и неизвестной дисперсией. Если известно среднее значение генеральной совокупности, коррекция не требуется.

Примечание [ править ]

Примечательно, что можно показать, что сумма квадратов остатков и выборочное среднее не зависят друг от друга, используя, например, теорему Басу . Этот факт, а также приведенные выше нормальное распределение и распределение хи-квадрат составляют основу расчетов с использованием t-статистики:

где представляет ошибки, представляет выборочное стандартное отклонение для выборки размера n и неизвестного σ и член знаменателя учитывает стандартное отклонение ошибок согласно: [5]

числителя Распределения вероятностей и знаменателя по отдельности зависят от значения ненаблюдаемого стандартного отклонения совокупности σ , но σ появляется как в числителе, так и в знаменателе и отменяется. Это удачно, потому что это означает, что даже если мы не знаем σ , мы знаем распределение вероятностей этого частного: оно имеет t-распределение Стьюдента с n - 1 степенями свободы. Поэтому мы можем использовать это частное, чтобы найти доверительный интервал для µ . Эту t-статистику можно интерпретировать как «количество стандартных ошибок вдали от линии регрессии». [6]

Регрессии [ править ]

В регрессионном анализе различие между ошибками и остатками является тонким и важным и приводит к концепции стьюдентизированных остатков . Учитывая ненаблюдаемую функцию, которая связывает независимую переменную с зависимой переменной (скажем, линию), отклонения наблюдений зависимой переменной от этой функции представляют собой ненаблюдаемые ошибки. Если выполнить регрессию на некоторых данных, то отклонения наблюдений зависимой переменной от подобранной функции будут остатками. Если линейная модель применима, диаграмма рассеяния остатков, построенная в зависимости от независимой переменной, должна быть случайной, около нуля, без тенденции к остаткам. [5] Если данные демонстрируют тенденцию, регрессионная модель, скорее всего, неверна; например, истинная функция может быть квадратичным полиномом или полиномом более высокого порядка. Если они случайны или не имеют тенденции, а «разветвляются» — они демонстрируют явление, называемое гетероскедастичностью . Если все остатки равны или не расходятся веером, они демонстрируют гомоскедастичность .

Однако возникает терминологическое различие в выражении «среднеквадратическая ошибка» (MSE). Среднеквадратическая ошибка регрессии — это число, вычисленное из суммы квадратов вычисленных остатков , а не ненаблюдаемых ошибок . Если эту сумму квадратов разделить на n , количество наблюдений, результатом будет среднее значение квадратов остатков. Поскольку это смещенная оценка дисперсии ненаблюдаемых ошибок, смещение устраняется путем деления суммы квадратов остатков на df = n - p - 1 вместо n , где df — количество степеней свободы ( n минус количество оцениваемых параметров (исключая точку пересечения) p - 1). Это формирует несмещенную оценку дисперсии ненаблюдаемых ошибок и называется среднеквадратической ошибкой. [7]

Другой метод расчета среднего квадрата ошибки при анализе дисперсии линейной регрессии с использованием метода, подобного тому, который используется в ANOVA (они одинаковы, поскольку ANOVA — это тип регрессии), сумма квадратов остатков (также известная как сумма квадратов ошибки) делится на степени свободы (где степени свободы равны n - p - 1, где p — количество параметров, оцененных в модели (по одному для каждой переменной в уравнении регрессии, не включая точку пересечения) ). Затем можно также вычислить средний квадрат модели, разделив сумму квадратов модели минус степени свободы, что представляет собой просто количество параметров. Затем значение F можно вычислить путем деления среднего квадрата модели на средний квадрат ошибки, и затем мы можем определить значимость (именно поэтому вы хотите, чтобы средние квадраты начинались с). [8]

Однако из-за поведения процесса регрессии распределения остатков в разных точках данных (входной переменной) могут различаться, даже если сами ошибки распределены одинаково. Конкретно, в линейной регрессии , где ошибки распределены одинаково, изменчивость остатков входных данных в середине области будет выше , чем изменчивость остатков на концах области: [9] линейная регрессия лучше соответствует конечным точкам, чем середина. Это также отражается на функциях влияния различных точек данных на коэффициенты регрессии : конечные точки имеют большее влияние.

Таким образом, чтобы сравнить остатки на разных входах, необходимо скорректировать остатки с учетом ожидаемой изменчивости остатков, что называется стьюдентизацией . Это особенно важно в случае обнаружения выбросов , когда рассматриваемый случай каким-то образом отличается от других в наборе данных. Например, можно ожидать большого остатка в середине домена, но считать его выбросом в конце домена.

варианты использования слова «ошибка» статистике в Другие

Использование термина «ошибка», как обсуждалось в разделах выше, означает отклонение значения от гипотетического ненаблюдаемого значения. В статистике также встречаются по крайней мере два других применения, оба относятся к наблюдаемым ошибкам прогнозирования :

Среднеквадратическая ошибка (MSE) относится к величине, на которую значения, предсказанные оценщиком, отличаются от оцениваемых величин (обычно за пределами выборки, на основе которой оценивалась модель). Среднеквадратическая ошибка (RMSE) — это квадратный корень из MSE. Сумма квадратов ошибок (SSE) — это MSE, умноженная на размер выборки.

Сумма квадратов остатков (SSR) — это сумма квадратов отклонений фактических значений от прогнозируемых значений в пределах выборки, используемой для оценки. Это основа оценки методом наименьших квадратов , где коэффициенты регрессии выбираются так, чтобы SSR был минимальным (т.е. его производная равна нулю).

Аналогично, сумма абсолютных ошибок (SAE) представляет собой сумму абсолютных значений остатков, которая минимизируется при с наименьшими абсолютными отклонениями подходе к регрессии .

Средняя ошибка (ME) — это смещение. Средняя невязка (MR) всегда равна нулю для методов оценки методом наименьших квадратов.

См. также [ править ]

Ссылки [ править ]

  1. ^ Кеннеди, П. (2008). Руководство по эконометрике . Уайли. п. 576. ИСБН  978-1-4051-8257-7 . Проверено 13 мая 2022 г.
  2. ^ Вулдридж, Дж. М. (2019). Вводная эконометрика: современный подход . Cengage Обучение. п. 57. ИСБН  978-1-337-67133-0 . Проверено 13 мая 2022 г.
  3. ^ Дас, П. (2019). Эконометрика в теории и практике: анализ поперечных сечений, временных рядов и панельных данных с помощью статистики 15.1 . Спрингер Сингапур. п. 7. ISBN  978-981-329-019-8 . Проверено 13 мая 2022 г.
  4. ^ Уэтерилл, Дж. Барри. (1981). Промежуточные статистические методы . Лондон: Чепмен и Холл. ISBN  0-412-16440-Х . OCLC   7779780 .
  5. ^ Перейти обратно: а б Фредерик Мишель Деккинг; Корнелис Краайкамп; Хендрик Пауль Лопухаа; Людольф Эрвин Местер (15 июня 2005 г.). Современное введение в вероятность и статистику: понимание почему и как . Лондон: Спрингер Лондон. ISBN  978-1-85233-896-1 . OCLC   262680588 .
  6. ^ Питер Брюс; Эндрю Брюс (10 мая 2017 г.). Практическая статистика для специалистов по данным: 50 основных концепций (Первое изд.). Севастополь, Калифорния: ISBN O'Reilly Media Inc.  978-1-4919-5296-2 . OCLC   987251007 .
  7. ^ Стил, Роберт Г.Д.; Торри, Джеймс Х. (1960). Принципы и процедуры статистики с особым упором на биологические науки . МакГроу-Хилл. п. 288 .
  8. ^ Зельтерман, Дэниел (2010). Прикладные линейные модели с SAS (Online-Ausg. Ed.). Кембридж: Издательство Кембриджского университета. ISBN  9780521761598 .
  9. ^ «7.3: Типы выбросов в линейной регрессии» . Статистика LibreTexts . 21 ноября 2013 г. Проверено 22 ноября 2019 г.

Дальнейшее чтение [ править ]

Внешние ссылки [ править ]