Линейная регрессия
Часть серии о |
Регрессионный анализ |
---|
Модели |
Оценка |
Фон |
В статистике , линейная регрессия — это статистическая модель которая оценивает линейную связь между скалярным ответом и одной или несколькими объясняющими переменными (также известными как зависимые и независимые переменные ). Случай одной объясняющей переменной называется простой линейной регрессией ; для более чем одного этот процесс называется множественной линейной регрессией . [1] Этот термин отличается от многомерной линейной регрессии , где несколько коррелирующих зависимых переменных, а не одна скалярная переменная. прогнозируется [2] Если объясняющие переменные измеряются с ошибкой, то модели ошибок в переменных необходимы , также известные как модели ошибок измерения .
В линейной регрессии отношения моделируются с использованием линейных предикторных функций , неизвестные параметры модели которых оцениваются основе на данных . Такие модели называются линейными моделями . [3] Чаще всего условное среднее ответа с учетом значений объясняющих переменных (или предикторов) считается аффинной функцией этих значений; реже условную медиану или какой-либо другой квантиль используют . Как и все формы регрессионного анализа , линейная регрессия фокусируется на условном распределении вероятностей ответа с учетом значений предикторов, а не на совместном распределении вероятностей всех этих переменных, что является областью многомерного анализа .
Линейная регрессия была первым типом регрессионного анализа, который тщательно изучался и широко использовался в практических приложениях. [4] Это связано с тем, что модели, которые линейно зависят от неизвестных параметров, легче подобрать, чем модели, которые нелинейно связаны с их параметрами, и потому, что статистические свойства полученных оценок легче определить.
Линейная регрессия имеет множество практических применений. Большинство приложений попадают в одну из следующих двух широких категорий:
- Если целью является ошибка, т. е. уменьшение дисперсии в прогнозировании или прогнозировании , можно использовать линейную регрессию, чтобы подогнать прогностическую модель к наблюдаемому набору данных значений отклика и объясняющих переменных. Если после разработки такой модели собираются дополнительные значения объясняющих переменных без сопровождающего значения ответа, подобранную модель можно использовать для прогнозирования ответа.
- Если цель состоит в том, чтобы объяснить изменение переменной отклика, которое можно отнести к вариациям объясняющих переменных, можно применить линейный регрессионный анализ для количественной оценки силы связи между ответом и объясняющими переменными и, в частности, для определения того, являются ли некоторые объясняющие переменные могут вообще не иметь линейной связи с ответом или определить, какие подмножества объясняющих переменных могут содержать избыточную информацию об ответе.
Модели линейной регрессии часто аппроксимируются с использованием метода наименьших квадратов , но они также могут быть аппроксимированы другими способами, например, путем минимизации « несоответствия » какой-либо другой норме (как в случае с регрессией наименьших абсолютных отклонений ) или путем минимизации штрафного наименьших квадратов, версия функции стоимости как в гребневой регрессии ( L 2 -норма штрафа) и аркан ( L 1 -норма штрафа). Использование среднеквадратической ошибки (MSE) в качестве стоимости набора данных, который имеет много крупных выбросов, может привести к тому, что модель будет соответствовать выбросам больше, чем истинным данным, из-за более высокой важности, придаваемой MSE большим ошибкам. следует использовать функции стоимости, устойчивые к выбросам Таким образом, если в наборе данных много крупных выбросов, . И наоборот, метод наименьших квадратов можно использовать для подбора моделей, которые не являются линейными моделями. Таким образом, хотя термины «наименьшие квадраты» и «линейная модель» тесно связаны, они не являются синонимами.
Формулировка
[ редактировать ]Учитывая набор данных Для n статистических единиц модель линейной регрессии предполагает, что связь между зависимой переменной y и вектором регрессоров x является линейной . Эта связь моделируется с помощью члена возмущения или переменной ошибки ε — ненаблюдаемой случайной величины , которая добавляет «шум» к линейной зависимости между зависимой переменной и регрессорами. Таким образом, модель принимает вид где Т обозначает транспонирование , так что x i Т β — произведение векторов . x i и β скалярное
Часто эти n уравнений складываются вместе и записываются в матричной записи как
где
Обозначения и терминология
[ редактировать ]- представляет собой вектор наблюдаемых значений переменной, называемой регрессией , эндогенной переменной , переменной отклика , целевой переменной , измеряемой переменной , критериальной переменной или зависимой переменной . Эту переменную также иногда называют прогнозируемой переменной , но ее не следует путать с прогнозируемыми значениями , которые обозначаются . Решение о том, какая переменная в наборе данных моделируется как зависимая переменная, а какая — как независимые переменные, может быть основано на предположении, что значение одной из переменных вызвано другими переменными или находится под их прямым влиянием. Альтернативно, может существовать оперативная причина моделировать одну из переменных с точки зрения других, и в этом случае не требуется презумпции причинно-следственной связи.
- можно рассматривать как матрицу векторов-строк или n -мерных векторов-столбцов , которые известны как регрессоры , экзогенные переменные , объясняющие переменные , ковариаты , входные переменные , переменные-предикторы или независимые переменные (не путать с концепцией независимых случайных величин ). Матрица иногда называют матрицей проекта .
- Обычно константа включается в качестве одного из регрессоров. В частности, для . Соответствующий элемент β называется перехватом . Многие процедуры статистического вывода для линейных моделей требуют наличия точки пересечения, поэтому ее часто включают, даже если теоретические соображения предполагают, что ее значение должно быть равно нулю.
- Иногда один из регрессоров может быть нелинейной функцией другого регрессора или значений данных, как в полиномиальной регрессии и сегментированной регрессии . Модель остается линейной до тех пор, пока она линейна по вектору параметров β .
- Значения x ij можно рассматривать либо как наблюдаемые значения случайных величин X j , либо как фиксированные значения, выбранные до наблюдения зависимой переменной. Обе интерпретации могут быть уместны в разных случаях и обычно приводят к одним и тем же процедурам оценки; однако в этих двух ситуациях используются разные подходы к асимптотическому анализу.
- это -мерный вектор параметров , где — это член пересечения (если он включен в модель, в противном случае является p -мерным). Его элементы известны как эффекты или коэффициенты регрессии (хотя последний термин иногда используется для оценки эффектов). В простой линейной регрессии p = 1, а коэффициент известен как наклон регрессии . Статистическая оценка и вывод в линейной регрессии фокусируются на β . Элементы этого вектора параметров интерпретируются как частные производные зависимой переменной по отношению к различным независимым переменным.
- это вектор значений . Эта часть модели называется членом ошибки , членом возмущения или иногда шумом (в отличие от «сигнала», обеспечиваемого остальной частью модели). Эта переменная учитывает все другие факторы, которые влияют на зависимую переменную y, кроме регрессоров x . Взаимосвязь между ошибкой и регрессорами, например, их корреляция , является решающим фактором при формулировании модели линейной регрессии, поскольку она определяет соответствующий метод оценки.
Подбор линейной модели к заданному набору данных обычно требует оценки коэффициентов регрессии. такой, что член ошибки сведен к минимуму. Например, обычно используют сумму квадратов ошибок. как мера для минимизации.
Пример
[ редактировать ]когда небольшой шарик подбрасывают в воздух, а затем мы измеряем высоту его подъема hi Рассмотрим ситуацию , в различные моменты времени t i . Физика говорит нам, что, игнорируя сопротивление, эту взаимосвязь можно смоделировать как
где β 1 определяет начальную скорость мяча, β 2 пропорциональна стандартной силе тяжести , а ε i обусловлена ошибками измерения. Линейную регрессию можно использовать для оценки значений β 1 и β 2 на основе измеренных данных. Эта модель нелинейна по временной переменной, но линейна по параметрам β 1 и β 2 ; если мы возьмем регрессоры x i = ( x i 1 , x i 2 ) = ( t i , t i 2 ), модель принимает стандартный вид
Предположения
[ редактировать ]Стандартные модели линейной регрессии со стандартными методами оценки делают ряд предположений о переменных-предикторах, переменных ответа и их взаимосвязи. Были разработаны многочисленные расширения, которые позволяют ослабить каждое из этих предположений (т.е. привести к более слабой форме), а в некоторых случаях полностью исключить их. Как правило, эти расширения делают процедуру оценки более сложной и трудоемкой, а также могут потребовать больше данных для создания столь же точной модели. [ нужна ссылка ]
Ниже приведены основные допущения, сделанные стандартными моделями линейной регрессии со стандартными методами оценки (например, обычным методом наименьших квадратов ):
- Слабая экзогенность . По сути, это означает, что переменные-предикторы x можно рассматривать как фиксированные значения, а не как случайные переменные . Это означает, например, что переменные-предикторы считаются безошибочными, то есть не содержат ошибок измерений. Хотя это предположение нереалистично во многих случаях, отказ от него приводит к значительно более сложным моделям ошибок в переменных .
- Линейность . Это означает, что среднее значение переменной ответа представляет собой линейную комбинацию параметров (коэффициентов регрессии) и переменных-предикторов. Обратите внимание, что это предположение гораздо менее ограничительно, чем может показаться на первый взгляд. Поскольку переменные-предикторы рассматриваются как фиксированные значения (см. выше), линейность на самом деле является лишь ограничением параметров. Сами переменные-предикторы могут быть произвольно преобразованы, и фактически можно добавить несколько копий одной и той же базовой переменной-предиктора, каждая из которых преобразуется по-разному. Этот метод используется, например, в полиномиальной регрессии , которая использует линейную регрессию для соответствия переменной ответа произвольной полиномиальной функции (до заданной степени) переменной-предиктора. Обладая такой большой гибкостью, такие модели, как полиномиальная регрессия, часто обладают «слишком большой мощностью», поскольку они имеют тенденцию переоценивать данные. В результате обычно необходимо использовать некоторую регуляризацию , чтобы предотвратить появление необоснованных решений в процессе оценки. Распространенными примерами являются гребневая регрессия и лассо-регрессия . Также можно использовать байесовскую линейную регрессию , которая по своей природе более или менее невосприимчива к проблеме переобучения. (Фактически, гребневую регрессию и лассо-регрессию можно рассматривать как частные случаи байесовской линейной регрессии с определенными типами априорных распределений , помещенными в коэффициенты регрессии.)
- Постоянная дисперсия (она же гомоскедастичность ). Это означает, что дисперсия ошибок не зависит от значений переменных-предикторов. Таким образом, изменчивость ответов для заданных фиксированных значений предикторов одинакова независимо от того, насколько велики или малы ответы. Зачастую это не так, поскольку переменная с большим средним значением обычно будет иметь большую дисперсию, чем переменная с малым средним значением. Например, человек, чей прогнозируемый доход составит 100 000 долларов, может легко иметь фактический доход в 80 000 или 120 000 долларов, то есть стандартное отклонение около 20 000 долларов, в то время как другой человек с прогнозируемым доходом в 10 000 долларов вряд ли будет иметь такое же стандартное отклонение в 20 000 долларов. , поскольку это будет означать, что их фактический доход может варьироваться от −10 000 до 30 000 долларов. (Фактически, как это показывает, во многих случаях — часто в тех же случаях, когда предположение о нормально распределенных ошибках терпит неудачу — дисперсию или стандартное отклонение следует прогнозировать как пропорциональную среднему значению, а не константу.) Отсутствие гомоскедастичности является следствием отсутствия гомоскедастичности. называется гетероскедастичность . Чтобы проверить это предположение, график остатков в сравнении с прогнозируемыми значениями (или значениями каждого отдельного предиктора) можно проверить на предмет «эффекта веера» (т. е. увеличения или уменьшения вертикального разброса при движении слева направо на графике). . График абсолютных или квадратичных остатков в сравнении с прогнозируемыми значениями (или каждым предиктором) также можно проверить на наличие тенденции или кривизны. Также можно использовать формальные тесты; см . Гетероскедастичность . Наличие гетероскедастичности приведет к использованию общей «средней» оценки дисперсии вместо той, которая учитывает истинную структуру дисперсии. Это приводит к менее точным (но в случае обычного метода наименьших квадратов , несмещенным) оценкам параметров и смещенным стандартным ошибкам, что приводит к вводящим в заблуждение тестам и интервальным оценкам. Среднеквадратическая ошибка модели также будет неверной. Различные методы оценки, включая взвешенный метод наименьших квадратов и использование стандартных ошибок, совместимых с гетероскедастичностью. может справиться с гетероскедастичностью довольно общим способом. Методы байесовской линейной регрессии также можно использовать, когда предполагается, что дисперсия является функцией среднего значения. В некоторых случаях также возможно решить проблему, применив преобразование к переменной ответа (например, подбирая логарифм переменной ответа с помощью модели линейной регрессии, которая подразумевает, что сама переменная ответа имеет логарифмически нормальное распределение, а не логарифмическое) . нормальное распределение ).
- Независимость ошибок . Это предполагает, что ошибки переменных ответа не коррелируют друг с другом. (Фактическая статистическая независимость является более сильным условием, чем простое отсутствие корреляции, и часто в ней нет необходимости, хотя ее можно использовать, если известно, что она выполняется.) Некоторые методы, такие как обобщенный метод наименьших квадратов, способны обрабатывать коррелированные ошибки, хотя обычно они требуют значительно больше данных, если только не используется какая-то регуляризация , чтобы сместить модель в сторону допущения некоррелированных ошибок. Байесова линейная регрессия — это общий способ решения этой проблемы.
- Отсутствие идеальной мультиколлинеарности у предикторов. Для стандартных методов оценки методом наименьших квадратов матрица плана X должна иметь полный ранг столбца p ; в противном случае в переменных-предикторах существует идеальная мультиколлинеарность , что означает, что между двумя или более переменными-предикторами существует линейная связь. Это может быть вызвано случайным дублированием переменной в данных, использованием линейного преобразования переменной вместе с оригиналом (например, тех же измерений температуры, выраженными в градусах Фаренгейта и Цельсия) или включением в модель линейной комбинации нескольких переменных. например, их среднее значение. Это также может произойти, если доступных данных слишком мало по сравнению с количеством оцениваемых параметров (например, меньше точек данных, чем коэффициентов регрессии). Близкие нарушения этого предположения, когда предикторы сильно, но не идеально, коррелируют, могут снизить точность оценок параметров (см. Фактор инфляции дисперсии ). В случае совершенной мультиколлинеарности вектор параметров β будет неидентифицируемой — она не имеет единственного решения. В таком случае можно идентифицировать только некоторые параметры (т. е. их значения можно оценить только в пределах некоторого линейного подпространства полного пространства параметров R). п ). См. частичную регрессию наименьших квадратов . Разработаны методы аппроксимации линейных моделей с мультиколлинеарностью. [5] [6] [7] [8] некоторые из них требуют дополнительных предположений, таких как «разреженность эффектов» - что большая часть эффектов равна нулю. Обратите внимание, что более затратные в вычислительном отношении итерационные алгоритмы оценки параметров, например те, которые используются в обобщенных линейных моделях , не страдают от этой проблемы.
- Допущение о нулевом среднем значении остатков . В регрессионном анализе еще одним важным допущением является то, что среднее значение остатков равно нулю или близко к нулю. Это предположение имеет основополагающее значение для обоснованности любых выводов, сделанных на основе оценок параметров методом наименьших квадратов. Остатки — это различия между наблюдаемыми значениями и значениями, предсказанными моделью. Если среднее значение этих остатков не равно нулю, это означает, что модель последовательно переоценивает или занижает наблюдаемые значения, что указывает на потенциальное смещение в оценке модели. Обеспечение того, что среднее значение остатков равно нулю, позволяет считать модель несмещенной с точки зрения ее ошибки, что имеет решающее значение для точной интерпретации коэффициентов регрессии.
Нарушение этих предположений может привести к смещенным оценкам β , смещенным стандартным ошибкам, ненадежным доверительным интервалам и тестам значимости. Помимо этих предположений, на эффективность различных методов оценки сильно влияют несколько других статистических свойств данных:
- Статистическая связь между членами ошибок и регрессорами играет важную роль в определении того, обладает ли процедура оценки желаемыми свойствами выборки, такими как несмещенность и последовательность.
- Расположение или распределение вероятностей переменных-предикторов x оказывает большое влияние на точность оценок β . Выборка и планирование экспериментов являются высокоразвитыми разделами статистики, которые обеспечивают руководство по сбору данных таким образом, чтобы получить точную оценку β .
Интерпретация
[ редактировать ]Подобранная модель линейной регрессии может использоваться для определения взаимосвязи между одной переменной-предиктором x j и переменной отклика y, когда все остальные переменные-предикторы в модели «удерживаются фиксированными». В частности, интерпретация β j — это ожидаемое изменение y на одну единицу для изменения x j когда другие ковариаты остаются фиксированными, то есть ожидаемое значение частной производной y , по отношению к x j . называют уникальным эффектом x Иногда это j на y . Напротив, предельное влияние xj связывающей можно на y оценить с помощью корреляции или простой модели линейной регрессии, только xj коэффициента с y ; эффект является полной производной y j по x этот .
Необходимо соблюдать осторожность при интерпретации результатов регрессии, поскольку некоторые регрессоры могут не допускать незначительных изменений (например, фиктивные переменные или член-перехват), в то время как другие не могут быть фиксированными (вспомним пример из введения: было бы невозможно «удерживать t i фиксированным» и в то же время изменять значение t i 2 ).
Вполне возможно, что уникальный эффект может быть почти нулевым, даже если предельный эффект велик. Это может означать, что какая-то другая ковариата фиксирует всю информацию в x j , так что, как только эта переменная появится в модели, x j не будет вносить вклад в изменение y . И наоборот, уникальный эффект x j может быть большим, в то время как его предельный эффект почти равен нулю. Это произошло бы, если бы другие ковариаты объясняли большую часть вариаций y они объясняют вариацию способом, дополняющим то, что отражается xj , но в основном . В этом случае включение других переменных в модель уменьшает ту часть изменчивости y , которая не связана с x j , тем самым усиливая очевидную связь с x j .
Значение выражения «удерживается фиксированным» может зависеть от того, как возникают значения переменных-предсказателей. Если экспериментатор непосредственно устанавливает значения переменных-предикторов в соответствии с планом исследования, интересующие сравнения могут буквально соответствовать сравнениям между единицами, переменные-предикторы которых были «фиксированы» экспериментатором. Альтернативно, выражение «удерживается фиксированным» может относиться к выбору, который происходит в контексте анализа данных. В этом случае мы «фиксируем переменную», ограничивая наше внимание подмножествами данных, которые имеют общее значение для данной переменной-предиктора. Это единственная интерпретация термина «фиксированный», которую можно использовать в обсервационном исследовании.
Идея «уникального эффекта» привлекательна при изучении сложной системы, в которой множество взаимосвязанных компонентов влияют на переменную отклика. В некоторых случаях его можно буквально интерпретировать как причинный эффект вмешательства, связанного со значением предикторной переменной. Однако утверждалось, что во многих случаях множественный регрессионный анализ не может прояснить взаимосвязь между переменными-предикторами и переменной ответа, когда предикторы коррелируют друг с другом и не назначаются в соответствии с дизайном исследования. [9]
Расширения
[ редактировать ]Были разработаны многочисленные расширения линейной регрессии, которые позволяют ослабить некоторые или все предположения, лежащие в основе базовой модели.
Простая и множественная линейная регрессия
[ редактировать ]Самый простой случай одной скалярной переменной-предиктора x и одной скалярной переменной отклика y известен как простая линейная регрессия . Расширение множественных и/или векторных переменных-предикторов (обозначаемых заглавной буквой X ) известно как множественная линейная регрессия , также известная как многомерная линейная регрессия (не путать с многомерной линейной регрессией). [10] ).
Множественная линейная регрессия — это обобщение простой линейной регрессии на случай более чем одной независимой переменной и частный случай общих линейных моделей, ограниченных одной зависимой переменной. Базовая модель множественной линейной регрессии:
за каждое наблюдение .
В приведенной выше формуле мы рассматриваем n наблюдений одной зависимой переменной и p независимых переменных. Таким образом, Y i - это i й наблюдение зависимой переменной, X ij - это i й наблюдение за j й независимая переменная, j = 1, 2, ..., p . Значения β j представляют параметры, подлежащие оценке, а ε i — это i й независимая одинаково распределенная нормальная ошибка.
В более общей многомерной линейной регрессии существует одно уравнение приведенной выше формы для каждой из m > 1 зависимых переменных, которые имеют один и тот же набор объясняющих переменных и, следовательно, оцениваются одновременно друг с другом:
для всех наблюдений, индексированных как i = 1,..., n , и для всех зависимых переменных, индексированных как j = 1,..., m .
Почти все реальные модели регрессии включают в себя множественные предикторы, и базовые описания линейной регрессии часто формулируются в терминах модели множественной регрессии. Однако обратите внимание, что в этих случаях переменная ответа y по-прежнему является скаляром. Другой термин, многомерная линейная регрессия , относится к случаям, когда y является вектором, то есть то же самое, что и общая линейная регрессия .
Общие линейные модели
[ редактировать ]Общая линейная модель рассматривает ситуацию, когда переменная отклика является не скаляром (для каждого наблюдения), а вектором y i . Условная линейность по-прежнему предполагается, при этом матрица B заменяет вектор β классической модели линейной регрессии. многомерные аналоги обычного метода наименьших квадратов (OLS) и обобщенного метода наименьших квадратов Разработаны (GLS). «Общие линейные модели» также называют «многомерными линейными моделями». Это не то же самое, что многомерные линейные модели (также называемые «множественными линейными моделями»).
Гетероскедастические модели
[ редактировать ]Были созданы различные модели, допускающие гетероскедастичность , т.е. ошибки для разных переменных ответа могут иметь разные дисперсии . Например, взвешенный метод наименьших квадратов — это метод оценки моделей линейной регрессии, когда переменные ответа могут иметь разные дисперсии ошибок, возможно, с коррелирующими ошибками. (См. также Взвешенные линейные методы наименьших квадратов и Обобщенные наименьшие квадраты .) Стандартные ошибки, совместимые с гетероскедастичностью, — это улучшенный метод для использования с некоррелированными, но потенциально гетероскедастическими ошибками.
Обобщенные линейные модели
[ редактировать ]Обобщенные линейные модели (GLM) представляют собой основу для моделирования ограниченных или дискретных переменных отклика. Это используется, например:
- при моделировании положительных величин (например, цен или численности населения), которые изменяются в большом масштабе, которые лучше описываются с помощью асимметричного распределения, такого как логарифмически нормальное распределение или распределение Пуассона (хотя GLM не используются для логарифмически нормальных данных, вместо этого используется ответ переменная просто преобразуется с помощью функции логарифма);
- при моделировании категориальных данных , таких как выбор данного кандидата на выборах (который лучше описать с помощью распределения Бернулли / биномиального распределения для двоичного выбора или категориального распределения / мультиномиального распределения для многостороннего выбора), где есть фиксированное количество вариантов выбора, которые нельзя осмысленно упорядочить;
- при моделировании порядковых данных , например оценок по шкале от 0 до 5, где различные результаты могут быть упорядочены, но сама величина может не иметь абсолютного значения (например, оценка 4 не может быть «вдвое лучше» для какой-либо цели) означает оценку 2, а просто указывает на то, что она лучше, чем 2 или 3, но не так хороша, как 5).
Обобщенные линейные модели допускают произвольную связи функцию g , которая связывает среднее значение переменной (переменных) ответа с предикторами: . Функция связи часто связана с распределением ответа и, в частности, обычно имеет эффект преобразования между диапазон линейного предиктора и диапазон переменной отклика.
Некоторые распространенные примеры GLM:
- Регрессия Пуассона для данных подсчета.
- Логистическая регрессия и пробит-регрессия для двоичных данных.
- Полиномиальная логистическая регрессия и полиномиальная пробит -регрессия для категориальных данных.
- Упорядоченная логит- и упорядоченная пробит -регрессия для порядковых данных.
Модели с одним индексом [ нужны разъяснения ] допускают некоторую степень нелинейности во взаимосвязи между x и y , сохраняя при этом центральную роль линейного предиктора β ′ x, как в классической модели линейной регрессии. При определенных условиях простое применение МНК к данным одноиндексной модели позволит последовательно оценить β с точностью до константы пропорциональности. [11]
Иерархические линейные модели
[ редактировать ]Иерархические линейные модели (или многоуровневая регрессия ) организуют данные в иерархию регрессий, например, где регрессируется на B , а B регрессируется на C. A Он часто используется там, где интересующие переменные имеют естественную иерархическую структуру, например, в статистике образования, где учащиеся вложены в классы, классы вложены в школы, а школы вложены в некоторую административную группу, например школьный округ. Переменная ответа может быть показателем успеваемости учащихся, например, результатом теста, а различные ковариаты будут собираться на уровне класса, школы и школьного округа.
Ошибки в переменных
[ редактировать ]Модели ошибок в переменных (или «модели ошибок измерения») расширяют традиционную модель линейной регрессии, позволяя переменные-предикторы X наблюдать с ошибкой. Эта ошибка приводит к тому, что стандартные оценки β становятся смещенными. Как правило, формой смещения является затухание, что означает, что эффекты смещаются к нулю.
Групповые эффекты
[ редактировать ]В этом разделе может быть придан чрезмерный вес определенным идеям, происшествиям или противоречиям . Конкретная проблема: Слишком подробная информация. ( сентябрь 2023 г. ) |
В модели множественной линейной регрессии
параметр переменной-предиктора представляет собой индивидуальный эффект . Он интерпретируется как ожидаемое изменение переменной отклика. когда увеличивается на одну единицу, при этом другие переменные-предикторы остаются постоянными. Когда сильно коррелирует с другими переменными-предикторами, маловероятно, что может увеличиться на одну единицу при неизменных других переменных. В этом случае интерпретация становится проблематичным, поскольку оно основано на маловероятном условии, а эффект невозможно оценить изолированно.
Для группы переменных-предикторов, скажем, , групповой эффект определяется как линейная комбинация их параметров
где является весовым вектором, удовлетворяющим . Из-за ограничения на , также называется нормализованным групповым эффектом. Групповой эффект интерпретируется как ожидаемое изменение когда переменные в группе изменить на сумму соответственно, в то же время с переменными, не входящими в группу, оставались постоянными. Он обобщает индивидуальный эффект переменной на группу переменных в том смысле, что ( ) если , то групповой эффект сводится к индивидуальному эффекту, и ( ) если и для , то групповой эффект также сводится к индивидуальному эффекту. Групповой эффект считается значимым, если лежащие в его основе одновременные изменения переменные вероятно.
Групповые эффекты предоставляют средства для изучения коллективного влияния сильно коррелированных переменных-предикторов в моделях линейной регрессии. Индивидуальные эффекты таких переменных не определены четко, поскольку их параметры не имеют хорошей интерпретации. Более того, когда размер выборки невелик, ни один из ее параметров не может быть точно оценен с помощью регрессии наименьших квадратов из-за проблемы мультиколлинеарности . Тем не менее, существуют значимые групповые эффекты, которые хорошо интерпретируются и могут быть точно оценены с помощью регрессии наименьших квадратов. Простой способ выявить эти значимые групповые эффекты — использовать схему всех положительных корреляций (APC) сильно коррелирующих переменных, при которой все парные корреляции между этими переменными положительны, и стандартизировать все переменные-предикторы в модели так, чтобы все они имели нулевое среднее значение и длину один. Чтобы проиллюстрировать это, предположим, что представляет собой группу сильно коррелированных переменных в схеме APC и что они не сильно коррелируют с переменными-предикторами вне группы. Позволять быть центрированным и быть стандартизированным . Тогда стандартизованная модель линейной регрессии имеет вид
Параметры в исходной модели, включая , являются простыми функциями в стандартизированной модели. Стандартизация переменных не меняет их корреляций, поэтому представляет собой группу сильно коррелированных переменных в схеме APC, и они не сильно коррелируют с другими переменными-предикторами в стандартизированной модели. Групповой эффект является
и его несмещенная линейная оценка с минимальной дисперсией равна
где является оценкой методом наименьших квадратов . В частности, средний групповой эффект стандартизированные переменные
которое интерпретируется как ожидаемое изменение когда все в сильно коррелированной группе увеличивается на единицы в то же время, когда переменные вне группы остаются постоянными. При сильных положительных корреляциях и в стандартизированных единицах переменные в группе примерно равны, поэтому они, скорее всего, будут увеличиваться одновременно и в одинаковой величине. Таким образом, средний групповой эффект это значимый эффект. Его можно точно оценить с помощью несмещенной линейной оценки с минимальной дисперсией. , даже если по отдельности ни один из можно точно оценить по .
Не все групповые эффекты значимы и не могут быть точно оценены. Например, это специальный групповой эффект с весами и для , но его нельзя точно оценить с помощью . Это также не имеет значимого эффекта. В целом для группы сильно коррелированные переменные-предикторы в схеме APC в стандартизированной модели, групповые эффекты, весовые векторы которых находятся в центре симплекса или рядом с ним ( ) имеют смысл и могут быть точно оценены с помощью несмещенных линейных оценок с минимальной дисперсией. Эффекты с весовыми векторами, расположенными далеко от центра, не имеют смысла, поскольку такие весовые векторы представляют собой одновременные изменения переменных, которые нарушают сильные положительные корреляции стандартизированных переменных в схеме APC. Как таковые они маловероятны. Эти эффекты также не могут быть точно оценены.
Применение групповых эффектов включает (1) оценку и вывод о значимых групповых эффектах на переменную ответа, (2) проверку «групповой значимости» переменные посредством тестирования против и (3) характеризуют область пространства переменных предиктора, в которой предсказания по модели наименьших квадратов являются точными.
Групповой эффект исходных переменных может быть выражен как константа, умноженная на групповой эффект стандартизированных переменных . Первое имеет смысл, когда второе. Таким образом, значимые групповые эффекты исходных переменных можно найти через значимые групповые эффекты стандартизированных переменных. [12]
Другие
[ редактировать ]В теории Демпстера-Шейфера или, в частности, в линейной функции доверия , модель линейной регрессии может быть представлена как частично скользящая матрица, которую можно комбинировать с аналогичными матрицами, представляющими наблюдения и другие предполагаемые нормальные распределения и уравнения состояния. Комбинация матриц с качающейся и несверткой обеспечивает альтернативный метод оценки моделей линейной регрессии.
Методы оценки
[ редактировать ]Было разработано большое количество процедур для оценки параметров и вывода в линейной регрессии. Эти методы отличаются вычислительной простотой алгоритмов, наличием решения в замкнутой форме, устойчивостью к распределениям с тяжелым хвостом и теоретическими предположениями, необходимыми для проверки желаемых статистических свойств, таких как согласованность и асимптотическая эффективность .
Некоторые из наиболее распространенных методов оценки линейной регрессии кратко изложены ниже.
Оценка методом наименьших квадратов и связанные с ней методы
[ редактировать ]Предполагая, что независимая переменная равна и параметры модели , то предсказание модели будет
- .
Если распространяется на затем станет скалярным произведением параметра и независимой переменной, т.е.
- .
В методе наименьших квадратов оптимальный параметр определяется как такой, который минимизирует сумму среднеквадратичных потерь:
Теперь помещаем независимые и зависимые переменные в матрицы и соответственно, функцию потерь можно переписать как:
Поскольку потери выпуклы, оптимальное решение находится при нулевом градиенте. Градиент функции потерь (с использованием соглашения о расположении знаменателя ):
Установка градиента на ноль дает оптимальный параметр:
Примечание. Чтобы доказать, что полученное значение действительно является локальным минимумом, нужно еще раз дифференцировать, чтобы получить матрицу Гессе и показать, что она положительно определена. Это обеспечивает теорема Гаусса–Маркова .
Линейные методы наименьших квадратов включают в себя в основном:
- Обычные наименьшие квадраты
- Взвешенные наименьшие квадраты
- Обобщенные наименьшие квадраты
- Линейный шаблон [14]
Оценка максимального правдоподобия и связанные с ней методы
[ редактировать ]- Оценка максимального правдоподобия может быть выполнена, когда известно, что распределение членов ошибок принадлежит определенному параметрическому семейству ƒ θ вероятностей распределений . [15] Когда f θ является нормальным распределением с нулевым средним значением и дисперсией θ, результирующая оценка идентична оценке МНК. Оценки GLS представляют собой оценки максимального правдоподобия, когда ε соответствует многомерному нормальному распределению с известной ковариационной матрицей .
- Гребневая регрессия [16] [17] [18] и другие формы штрафной оценки, такие как регрессия Лассо , [5] намеренно вносить систематическую ошибку в оценку β , чтобы уменьшить изменчивость оценки. Полученные оценки обычно имеют меньшую среднеквадратическую ошибку , чем оценки МНК, особенно когда мультиколлинеарность присутствует или когда проблема переобучения является проблемой. Они обычно используются, когда цель состоит в том, чтобы предсказать значение переменной отклика y для значений предикторов x, которые еще не наблюдались. Эти методы не так часто используются, когда целью является вывод, поскольку трудно учесть предвзятость.
- Регрессия наименьшего абсолютного отклонения (LAD) — это надежный метод оценки , поскольку он менее чувствителен к наличию выбросов, чем OLS (но менее эффективен, чем OLS, когда выбросы отсутствуют). Это эквивалентно оценке максимального правдоподобия в рамках модели распределения Лапласа для ε . [19]
- Адаптивная оценка . Если предположить, что члены ошибок не зависят от регрессоров, , то оптимальной оценкой является двухэтапный MLE, где первый шаг используется для непараметрической оценки распределения ошибки. [20]
Другие методы оценки
[ редактировать ]- Байесовская линейная регрессия применяет структуру байесовской статистики к линейной регрессии. (См. также Байесовскую многомерную линейную регрессию .) В частности, предполагается, что коэффициенты регрессии β являются случайными величинами с заданным априорным распределением . Априорное распределение может искажать решения для коэффициентов регрессии, аналогично (но более общему) гребневой регрессии или лассо-регрессии . Кроме того, процесс байесовской оценки дает не одну точечную оценку для «лучших» значений коэффициентов регрессии, а целое апостериорное распределение , полностью описывающее неопределенность, окружающую величину. Это можно использовать для оценки «лучших» коэффициентов с использованием среднего значения, моды, медианы, любого квантиля (см. квантильную регрессию ) или любой другой функции апостериорного распределения.
- Квантильная регрессия фокусируется на условных квантилях y с учетом X, не на условном среднем y с учетом X. а Линейная квантильная регрессия моделирует конкретный условный квантиль, например условную медиану, как линейную функцию β. Т x предикторов.
- Смешанные модели широко используются для анализа отношений линейной регрессии с участием зависимых данных, когда зависимости имеют известную структуру. Общие применения смешанных моделей включают анализ данных, включающих повторные измерения, таких как продольные данные или данные, полученные в результате кластерной выборки. Обычно они подходят как параметрические модели, использующие максимальное правдоподобие или байесовскую оценку. В случае, когда ошибки моделируются как обычные случайные величины, существует тесная связь между смешанными моделями и обобщенным методом наименьших квадратов. [21] Оценка фиксированных эффектов — альтернативный подход к анализу данных этого типа.
- Регрессия главных компонентов (ПЦР) [7] [8] используется, когда количество переменных-предикторов велико или когда между переменными-предикторами существуют сильные корреляции. Эта двухэтапная процедура сначала уменьшает переменные-предикторы с помощью анализа главных компонентов , а затем использует уменьшенные переменные при подборе регрессии OLS. Хотя на практике это часто хорошо работает, не существует общей теоретической причины, по которой наиболее информативная линейная функция переменных-предикторов должна лежать среди доминирующих главных компонентов многомерного распределения переменных-предикторов. Частичная регрессия наименьших квадратов является расширением метода ПЦР, лишенным упомянутого недостатка.
- Регрессия по наименьшему углу [6] — это процедура оценки моделей линейной регрессии, которая была разработана для обработки многомерных векторов ковариат, потенциально с большим количеством ковариат, чем наблюдений.
- Оценщик Тейла -Сена представляет собой простой метод надежной оценки , который выбирает наклон аппроксимационной линии в качестве медианы наклонов линий, проходящих через пары точек выборки. Он имеет те же свойства статистической эффективности, что и простая линейная регрессия, но гораздо менее чувствителен к выбросам . [22]
- другие надежные методы оценки, включая подход с усеченным средним значением α и L-, M-, S- и R-оценки . Были представлены
Приложения
[ редактировать ]Линейная регрессия широко используется в биологических, поведенческих и социальных науках для описания возможных связей между переменными. Он считается одним из наиболее важных инструментов, используемых в этих дисциплинах.
Линия тренда
[ редактировать ]Линия тренда представляет собой тенденцию, долгосрочное движение данных временного ряда после учета других компонентов. Он показывает, увеличился или уменьшился конкретный набор данных (например, ВВП, цены на нефть или цены на акции) за определенный период времени. Линию тренда можно просто нарисовать на глаз через набор точек данных, но более правильно их положение и наклон рассчитываются с использованием статистических методов, таких как линейная регрессия. Линии тренда обычно представляют собой прямые линии, хотя в некоторых вариантах используются полиномы более высокой степени в зависимости от желаемой степени кривизны линии.
Линии тренда иногда используются в бизнес-аналитике, чтобы показать изменения данных с течением времени. Это имеет то преимущество, что является простым. Линии тренда часто используются, чтобы доказать, что конкретное действие или событие (например, обучение или рекламная кампания) вызвало наблюдаемые изменения в определенный момент времени. Это простой метод, не требующий создания контрольной группы, планирования эксперимента или сложной техники анализа. Однако он страдает отсутствием научной обоснованности в тех случаях, когда другие потенциальные изменения могут повлиять на данные.
Эпидемиология
[ редактировать ]Первые данные о связи курения табака со смертностью и заболеваемостью были получены в ходе наблюдательных исследований с использованием регрессионного анализа. Чтобы уменьшить ложные корреляции при анализе данных наблюдений, исследователи обычно включают в свои регрессионные модели несколько переменных в дополнение к переменной, представляющей основной интерес. Например, в регрессионную модель, в которой курение сигарет является независимой переменной, представляющей основной интерес, а зависимой переменной является продолжительность жизни, измеряемая в годах, исследователи могут включить образование и доход в качестве дополнительных независимых переменных, чтобы гарантировать, что любое наблюдаемое влияние курения на продолжительность жизни является достоверным. не из-за других социально-экономических факторов . Однако никогда невозможно включить все возможные мешающие в эмпирический анализ переменные. Например, гипотетический ген может увеличить смертность, а также заставить людей больше курить. По этой причине рандомизированные контролируемые исследования часто способны предоставить более убедительные доказательства причинно-следственных связей, чем те, которые можно получить с помощью регрессионного анализа данных наблюдений. Когда контролируемые эксперименты невозможны, используются варианты регрессионного анализа, такие как Регрессия инструментальных переменных может использоваться, чтобы попытаться оценить причинно-следственные связи на основе данных наблюдений.
Финансы
[ редактировать ]Модель ценообразования капитальных активов использует линейную регрессию, а также концепцию бета-версии для анализа и количественной оценки систематического риска инвестиций. Это происходит непосредственно из бета-коэффициента модели линейной регрессии, которая связывает доходность инвестиций с доходностью всех рискованных активов.
Экономика
[ редактировать ]Линейная регрессия является преобладающим эмпирическим инструментом в экономике . Например, он используется для прогнозирования потребительских расходов . [23] инвестиции в основной капитал , инвестиции в запасы страны , закупки экспортной продукции , [24] расходы на импорт , [24] требование иметь ликвидные активы , [25] спрос на рабочую силу , [26] и предложение рабочей силы . [26]
Наука об окружающей среде
[ редактировать ]Этот раздел нуждается в расширении . Вы можете помочь, добавив к нему . ( апрель 2024 г. ) |
Линейная регрессия находит применение в широком спектре приложений науки об окружающей среде, таких как землепользование, [27] инфекционные заболевания, [28] и загрязнение воздуха. [29]
Строительная наука
[ редактировать ]Линейная регрессия обычно используется в полевых исследованиях в области строительства для получения характеристик жильцов здания. При полевых исследованиях теплового комфорта ученые-строители обычно запрашивают голоса жильцов по тепловым ощущениям, которые варьируются от -3 (ощущение холода) до 0 (нейтральное) и до +3 (ощущение жары), и измеряют данные о температуре окружающей среды жильцов. Нейтральная или комфортная температура может быть рассчитана на основе линейной регрессии между показателем теплового ощущения и температурой в помещении и установкой показателя теплового ощущения равным нулю. Тем не менее, были дебаты о направлении регрессии: регрессия голосов тепловых ощущений (ось Y) в зависимости от температуры в помещении (ось X) или наоборот: регрессия температуры в помещении (ось Y) в зависимости от голосов тепловых ощущений (ось X). . [30]
Машинное обучение
[ редактировать ]Линейная регрессия играет важную роль в области искусственного интеллекта, известной как машинное обучение . Алгоритм линейной регрессии является одним из фундаментальных алгоритмов машинного обучения с учителем благодаря своей относительной простоте и хорошо известным свойствам. [31]
История
[ редактировать ]Линейная регрессия по методу наименьших квадратов как средство нахождения хорошего грубого линейного соответствия набору точек была выполнена Лежандром (1805) и Гауссом (1809) для предсказания движения планет. Кетле сделал эту процедуру широко известной и широко использовал ее в социальных науках. [32]
См. также
[ редактировать ]- Дисперсионный анализ
- Разложение Блиндера – Оахаки
- Модель цензурированной регрессии
- Поперечная регрессия
- Подгонка кривой
- Эмпирический метод Байеса
- Ошибки и остатки
- Несоответствующая сумма квадратов
- Линия фитинга
- Линейный классификатор
- Линейное уравнение
- Логистическая регрессия
- М-оценщик
- Сплайн многомерной адаптивной регрессии
- Нелинейная регрессия
- Непараметрическая регрессия
- Нормальные уравнения
- Регрессия преследования проекций
- Методика моделирования реагирования
- Сегментированная линейная регрессия
- Линия стандартного отклонения
- Пошаговая регрессия
- Структурный разрыв
- Машина опорных векторов
- Усеченная регрессионная модель
- Регрессия Деминга
Ссылки
[ редактировать ]Цитаты
[ редактировать ]- ^ Дэвид А. Фридман (2009). Статистические модели: теория и практика . Издательство Кембриджского университета . п. 26.
Простое уравнение регрессии имеет в правой части точку пересечения и объясняющую переменную с коэффициентом наклона. Правая часть множественной регрессии, каждая из которых имеет свой собственный коэффициент наклона.
- ^ Ренчер, Элвин К.; Кристенсен, Уильям Ф. (2012), «Глава 10, Многомерная регрессия - Раздел 10.1, Введение», Методы многомерного анализа , Ряды Уайли в вероятности и статистике, том. 709 (3-е изд.), John Wiley & Sons, с. 19, ISBN 9781118391679 .
- ^ Хилари Л. Сил (1967). «Историческое развитие линейной модели Гаусса». Биометрика . 54 (1/2): 1–24. дои : 10.1093/biomet/54.1-2.1 . JSTOR 2333849 .
- ^ Ян, Синь (2009), Линейный регрессионный анализ: теория и вычисления , World Scientific, стр. 1–2, ISBN 9789812834119 ,
Регрессионный анализ... вероятно, одна из старейших тем математической статистики, возникшая около двухсот лет назад. Самой ранней формой линейной регрессии был метод наименьших квадратов, который был опубликован Лежандром в 1805 году и Гауссом в 1809 году ... Лежандр и Гаусс оба применили этот метод к проблеме определения на основе астрономических наблюдений орбит тел. о солнце.
- ^ Jump up to: а б Тибширани, Роберт (1996). «Регрессионное сокращение и отбор с помощью лассо». Журнал Королевского статистического общества, серия B. 58 (1): 267–288. дои : 10.1111/j.2517-6161.1996.tb02080.x . JSTOR 2346178 .
- ^ Jump up to: а б Эфрон, Брэдли; Хасти, Тревор; Джонстон, Иэн; Тибширани, Роберт (2004). «Регрессия наименьшего угла». Анналы статистики . 32 (2): 407–451. arXiv : math/0406456 . дои : 10.1214/009053604000000067 . JSTOR 3448465 . S2CID 204004121 .
- ^ Jump up to: а б Хокинс, Дуглас М. (1973). «Об исследовании альтернативных регрессий с помощью анализа главных компонентов». Журнал Королевского статистического общества, серия C. 22 (3): 275–286. дои : 10.2307/2346776 . JSTOR 2346776 .
- ^ Jump up to: а б Джоллифф, Ян Т. (1982). «Заметки об использовании главных компонентов в регрессии». Журнал Королевского статистического общества, серия C. 31 (3): 300–303. дои : 10.2307/2348005 . JSTOR 2348005 .
- ^ Берк, Ричард А. (2007). «Регрессионный анализ: конструктивная критика». Обзор уголовного правосудия . 32 (3): 301–302. дои : 10.1177/0734016807304871 . S2CID 145389362 .
- ^ Идальго, Берта; Гудман, Мелоди (15 ноября 2012 г.). «Многомерная или многовариантная регрессия?» . Американский журнал общественного здравоохранения . 103 (1): 39–40. дои : 10.2105/AJPH.2012.300897 . ISSN 0090-0036 . ПМЦ 3518362 . ПМИД 23153131 .
- ^ Бриллинджер, Дэвид Р. (1977). «Идентификация конкретной нелинейной системы временных рядов». Биометрика . 64 (3): 509–515. дои : 10.1093/biomet/64.3.509 . JSTOR 2345326 .
- ^ Цао, Мин (2022). «Групповая регрессия методом наименьших квадратов для линейных моделей с сильно коррелированными переменными-предикторами». Летопись Института статистической математики . 75 (2): 233–250. arXiv : 1804.02499 . дои : 10.1007/s10463-022-00841-7 . S2CID 237396158 .
- ^ Гальтон, Фрэнсис (1886). «Регрессия к посредственности в наследственном статусе» . Журнал Антропологического института Великобритании и Ирландии . 15 : 246–263. дои : 10.2307/2841583 . ISSN 0959-5295 . JSTOR 2841583 .
- ^ Бритцгер, Дэниел (2022). «Подгонка линейного шаблона». Евро. Физ. Джей Си . 82 (8): 731. arXiv : 2112.01548 . Бибкод : 2022EPJC...82..731B . doi : 10.1140/epjc/s10052-022-10581-w . S2CID 244896511 .
- ^ Ланге, Кеннет Л.; Литтл, Родерик Дж.А.; Тейлор, Джереми М.Г. (1989). «Надежное статистическое моделирование с использованием t-распределения» (PDF) . Журнал Американской статистической ассоциации . 84 (408): 881–896. дои : 10.2307/2290063 . JSTOR 2290063 .
- ^ Суиндел, Бени Ф. (1981). «Иллюстрированная геометрия ридж-регрессии». Американский статистик . 35 (1): 12–15. дои : 10.2307/2683577 . JSTOR 2683577 .
- ^ Дрейпер, Норман Р.; ван Ностранд; Р. Крейг (1979). «Гребтовая регрессия и оценка Джеймса-Стейна: обзор и комментарии». Технометрика . 21 (4): 451–466. дои : 10.2307/1268284 . JSTOR 1268284 .
- ^ Хёрл, Артур Э.; Кеннард, Роберт В.; Хёрл, Роджер В. (1985). «Практическое использование ридж-регрессии: решенная задача». Журнал Королевского статистического общества, серия C. 34 (2): 114–120. JSTOR 2347363 .
- ^ Нарула, Субхаш К.; Веллингтон, Джон Ф. (1982). «Регрессия минимальной суммы абсолютных ошибок: современное исследование». Международный статистический обзор . 50 (3): 317–326. дои : 10.2307/1402501 . JSTOR 1402501 .
- ^ Стоун, CJ (1975). «Адаптивные оценки максимального правдоподобия параметра местоположения» . Анналы статистики . 3 (2): 267–284. дои : 10.1214/aos/1176343056 . JSTOR 2958945 .
- ^ Гольдштейн, Х. (1986). «Анализ многоуровневой смешанной линейной модели с использованием итерационного обобщенного метода наименьших квадратов». Биометрика . 73 (1): 43–56. дои : 10.1093/biomet/73.1.43 . JSTOR 2336270 .
- ^ Тейл, Х. (1950). «Ранг-инвариантный метод линейного и полиномиального регрессионного анализа. I, II, III». Недерл. Акад. Wetensch., Proc . 53 : 386–392, 521–525, 1397–1412. МР 0036489 . ; Сен, Пранаб Кумар (1968). «Оценки коэффициента регрессии на основе тау Кендалла». Журнал Американской статистической ассоциации . 63 (324): 1379–1389. дои : 10.2307/2285891 . JSTOR 2285891 . МР 0258201 . .
- ^ Дитон, Ангус (1992). Понимание потребления . Издательство Оксфордского университета. ISBN 978-0-19-828824-4 .
- ^ Jump up to: а б Кругман, Пол Р .; Обстфельд, М .; Мелитц, Марк Дж. (2012). Международная экономика: теория и политика (9-е глобальное изд.). Харлоу: Пирсон. ISBN 9780273754091 .
- ^ Лейдлер, Дэвид Э.В. (1993). Спрос на деньги: теории, доказательства и проблемы (4-е изд.). Нью-Йорк: Харпер Коллинз. ISBN 978-0065010985 .
- ^ Jump up to: а б Эренберг; Смит (2008). Современная экономика труда (10-е международное изд.). Лондон: Аддисон-Уэсли. ISBN 9780321538963 .
- ^ Хук, Джерард; Билен, Роб; де Хуг, Кес; Вьенно, Даниэль; Гулливер, Джон; Фишер, Пол; Бриггс, Дэвид (1 октября 2008 г.). «Обзор регрессионных моделей землепользования для оценки пространственных изменений загрязнения наружного воздуха» . Атмосферная среда . 42 (33): 7561–7578. Бибкод : 2008AtmEn..42.7561H . дои : 10.1016/j.atmosenv.2008.05.057 . ISSN 1352-2310 .
- ^ Имаи, Чисато; Хашизуме, Масахиро (2015). «Систематический обзор методологии: регрессионный анализ временных рядов факторов окружающей среды и инфекционных заболеваний» . Тропическая медицина и здоровье . 43 (1): 1–9. дои : 10.2149/tmh.2014-21 . hdl : 10069/35301 . ПМЦ 4361341 . ПМИД 25859149 .
- ^ Милионис, А.Е.; Дэвис, Т.Д. (1 сентября 1994 г.). «Регрессия и стохастические модели загрязнения воздуха — I. Обзор, комментарии и предложения» . Атмосферная среда . 28 (17): 2801–2810. Бибкод : 1994AtmEn..28.2801M . дои : 10.1016/1352-2310(94)90083-3 . ISSN 1352-2310 .
- ^ Сунь, Руиджи; Скьявон, Стефано; Брагер, Гейл; Аренс, Эдвард; Чжан, Хуэй; Паркинсон, Томас; Чжан, Ченлу (2024). «Причинное мышление: раскрытие скрытых предположений и интерпретаций статистического анализа в строительной науке» . Строительство и окружающая среда . 259 . дои : 10.1016/j.buildenv.2024.111530 .
- ^ «Линейная регрессия (машинное обучение)» (PDF) . Университет Питтсбурга .
- ^ Стиглер, Стивен М. (1986). История статистики: измерение неопределенности до 1900 года . Кембридж: Гарвард. ISBN 0-674-40340-1 .
Источники
[ редактировать ]- Коэн Дж., Коэн П., Уэст С.Г. и Эйкен Л.С. (2003). Применил множественный регрессионный/корреляционный анализ для поведенческих наук . (2-е изд.) Хиллсдейл, Нью-Джерси: Lawrence Erlbaum Associates
- Чарльз Дарвин . Изменение животных и растений при одомашнивании . (1868) (Глава XIII описывает то, что было известно о реверсии во времена Гальтона. Дарвин использует термин «реверсия».)
- Дрейпер, Северная Каролина; Смит, Х. (1998). Прикладной регрессионный анализ (3-е изд.). Джон Уайли. ISBN 978-0-471-17082-2 .
- Фрэнсис Гальтон. «Регрессия к посредственности в наследственном росте», Журнал Антропологического института , 15: 246-263 (1886). (Факсимиле: [1] )
- Роберт С. Пиндик и Дэниел Л. Рубинфельд (1998, 4-е изд.). Эконометрические модели и экономические прогнозы , гл. 1 (Введение, включая приложения по Σ-операторам и получению оценок параметров) и Приложение 4.3 (множественная регрессия в матричной форме).
Дальнейшее чтение
[ редактировать ]- Педазур, Элазар Дж (1982). Множественная регрессия в поведенческих исследованиях: объяснение и прогнозирование (2-е изд.). Нью-Йорк: Холт, Райнхарт и Уинстон. ISBN 978-0-03-041760-3 .
- Матье Руо, 2013: Вероятность, статистика и оценка. Глава 2: Линейная регрессия, линейная регрессия с полосами ошибок и нелинейная регрессия.
- Национальная физическая лаборатория (1961). «Глава 1: Линейные уравнения и матрицы: прямые методы». Современные вычислительные методы . Заметки по прикладной науке. Том. 16 (2-е изд.). Канцелярия Ее Величества .
Внешние ссылки
[ редактировать ]- Регрессия наименьших квадратов , Интерактивное моделирование PhET , Университет Колорадо в Боулдере
- Линейная посадка своими руками