Нелинейная регрессия

см . в кинетике Михаэлиса – Ментен. Подробности

В статистике нелинейная регрессия — это форма регрессионного анализа , в которой данные наблюдений моделируются функцией, которая представляет собой нелинейную комбинацию параметров модели и зависит от одной или нескольких независимых переменных. Данные аппроксимируются методом последовательных приближений (итераций).

Общие [ править ]

В нелинейной регрессии статистическая модель вида

связывает вектор независимых переменных , и связанные с ним наблюдаемые зависимые переменные , . Функция нелинейно по компонентам вектора параметров , но в остальном произвольный. Например, модель Михаэлиса-Ментен для кинетики ферментов имеет два параметра и одну независимую переменную, связанные соотношением к: [а]

Эта функция, представляющая собой прямоугольную гиперболу, является нелинейной , поскольку ее нельзя выразить как линейную комбинацию двух с.

Систематическая ошибка может присутствовать в независимых переменных, но ее обработка выходит за рамки регрессионного анализа. Если независимые переменные не свободны от ошибок, это модель ошибок в переменных , также выходящая за рамки этой области.

Другие примеры нелинейных функций включают экспоненциальные функции , логарифмические функции , тригонометрические функции , степенные функции , функцию Гаусса и распределения Лоренца . Некоторые функции, такие как показательная или логарифмическая функции, можно преобразовать так, чтобы они стали линейными. При таком преобразовании можно выполнить стандартную линейную регрессию, но ее следует применять с осторожностью. Дополнительные сведения см . в разделе Линеаризация§Преобразование ниже.

В общем, не существует выражения в закрытой форме для наиболее подходящих параметров, как в линейной регрессии . Обычно алгоритмы численной оптимизации применяются для определения наиболее подходящих параметров. может быть много локальных минимумов Опять же, в отличие от линейной регрессии, у оптимизируемой функции , и даже глобальный минимум может давать смещенную оценку. На практике оценочные значения параметров используются вместе с алгоритмом оптимизации, чтобы попытаться найти глобальный минимум суммы квадратов.

Подробную информацию о нелинейном моделировании данных см. в разделе «Наименьшие квадраты» и «Нелинейный метод наименьших квадратов» .

Статистика регрессии [ править ]

В основе этой процедуры лежит предположение, что модель может быть аппроксимирована линейной функцией, а именно рядом Тейлора первого порядка :

где являются матричными элементами Якобиана. Из этого следует, что оценки наименьших квадратов имеют вид

сравнить обобщенный метод наименьших квадратов с ковариационной матрицей, пропорциональной единичной матрице. Статистика нелинейной регрессии вычисляется и используется так же, как статистика линейной регрессии, но используется J вместо X. в формулах

Когда функция сам по себе неизвестен аналитически, но его необходимо линейно аппроксимировать из или более известных значений (где — количество оценщиков), лучшая оценка получается непосредственно из линейной подгонки шаблона как [1]

(см. также линейный метод наименьших квадратов ).

Линейное приближение вносит систематическую ошибку в статистику. Поэтому при интерпретации статистики, полученной на основе нелинейной модели, требуется больше осторожности, чем обычно.

Обычный и взвешенный метод наименьших квадратов [ править ]

Часто предполагается, что наиболее подходящей кривой является та, которая минимизирует сумму квадратов остатков . Это обычный метод наименьших квадратов (МНК). Однако в случаях, когда зависимая переменная не имеет постоянной дисперсии или имеются выбросы, сумма взвешенных квадратов остатков может быть минимизирована; см. взвешенные наименьшие квадраты . Каждый вес в идеале должен быть равен обратной величине дисперсии наблюдения или обратной величине зависимой переменной некоторой степени в случае выброса. [2] , но веса могут пересчитываться на каждой итерации в итерационно взвешенном алгоритме наименьших квадратов.

Линеаризация [ править ]

Трансформация [ править ]

Некоторые задачи нелинейной регрессии можно перенести в линейную область путем подходящего преобразования формулировки модели.

Например, рассмотрим задачу нелинейной регрессии

с параметрами a и b с мультипликативной ошибкой U. и Если мы возьмем логарифм обеих частей, это станет

где u = ln( U ), что предполагает оценку неизвестных параметров с помощью линейной регрессии ln( y ) по x , вычисление, которое не требует итеративной оптимизации. Однако использование нелинейного преобразования требует осторожности. Влияние значений данных изменится, равно как и структура ошибок модели и интерпретация любых логических выводов. Это могут быть нежелательные эффекты. С другой стороны, в зависимости от того, что является крупнейшим источником ошибок, нелинейное преобразование может распределять ошибки по Гауссу, поэтому выбор выполнения нелинейного преобразования должен основываться на соображениях моделирования.

Для кинетики Михаэлиса-Ментен линейный график Лайнуивера-Бёрка

соотношение 1/ v против 1/[ S ] широко использовалось. Однако, поскольку он очень чувствителен к ошибкам данных и сильно смещен в сторону соответствия данных определенному диапазону независимой переменной [ S ], его использование настоятельно не рекомендуется.

Для распределений ошибок, принадлежащих к экспоненциальному семейству , можно использовать функцию связи для преобразования параметров в рамках обобщенной линейной модели .

Сегментация [ править ]

Урожайность горчицы и засоление почвы

Независимую или для объясняющую переменную (скажем, X) можно разделить на классы или сегменты, и линейную регрессию каждого сегмента можно выполнить . Сегментированная регрессия с доверительным анализом может привести к тому, что зависимая переменная или отклика переменная (скажем, Y) ведет себя по-разному в различных сегментах. [3]

На рисунке видно, что засоленность почвы (X) первоначально не оказывает влияния на урожайность культуры (Y) горчицы до достижения критического или порогового значения ( точки перелома ), после чего урожайность снижается отрицательно. [4]

См. также [ править ]

Ссылки [ править ]

  1. ^ Бритцгер, Дэниел (2022). «Подгонка линейного шаблона». Евро. Физ. Джей Си . 82 (8): 731. arXiv : 2112.01548 . Бибкод : 2022EPJC...82..731B . doi : 10.1140/epjc/s10052-022-10581-w .
  2. ^ Мотульский, HJ; Ранснас, Луизиана (1987). «Подбор кривых к данным с использованием нелинейной регрессии: практический и нематематический обзор» . Журнал ФАСЭБ . 1 (5): 365–374. дои : 10.1096/fasebj.1.5.3315805 . ПМИД   3315805 .
  3. ^ RJOosterbaan, 1994, Частотный и регрессионный анализ. В: HPRitzema (ред.), Принципы и применение дренажа, Publ. 16, стр. 175–224, Международный институт мелиорации и улучшения земель (ILRI), Вагенинген, Нидерланды. ISBN   90-70754-33-9 . Скачать в формате PDF: [1]
  4. ^ RJOosterbaan, 2002. Исследование дренажа на фермерских полях: анализ данных. Часть проекта «Жидкое золото»Международный институт мелиорации и улучшения земель (ILRI), Вагенинген, Нидерланды. Скачать в формате PDF: [2] . Рисунок сделан с помощью программы SegReg , которую можно бесплатно скачать по адресу [3].

Примечания [ править ]

  1. ^ Эту модель также можно выразить в традиционных биологических обозначениях:

Дальнейшее чтение [ править ]

  • Бетея, РМ; Дюран, бакалавр наук; Бульон, ТЛ (1985). Статистические методы для инженеров и ученых . Нью-Йорк: Марсель Деккер. ISBN  0-8247-7227-Х .
  • Мид, Н.; Ислам, Т. (1995). «Интервалы прогнозирования для прогнозов кривой роста». Журнал прогнозирования . 14 (5): 413–430. дои : 10.1002/for.3980140502 .
  • Шитковски, К. (2002). Подгонка данных в динамических системах . Бостон: Клювер. ISBN  1402010796 .
  • Себер, ГАФ; Уайлд, CJ (1989). Нелинейная регрессия . Нью-Йорк: Джон Уайли и сыновья. ISBN  0471617601 .