Псевдо-R-квадрат
Значения псевдо-R-квадрата используются, когда результирующая переменная является номинальной или порядковой, так что коэффициент детерминации R 2 не может применяться в качестве меры согласия, а также когда функция правдоподобия используется для подбора модели.
В линейной регрессии квадрат множественной корреляции R 2 используется для оценки степени соответствия, поскольку представляет собой долю дисперсии критерия, объясняемую предикторами. [1] В логистическом регрессионном анализе не существует согласованной аналогичной меры, но существует несколько конкурирующих мер, каждая из которых имеет ограничения. [1] [2]
В этой статье рассматриваются четыре наиболее часто используемых индекса и один менее распространенный:
- Отношение правдоподобия R 2 л
- Кокс и Снелл Р. 2 CS
- Нагелькерке Р 2 Н
- Макфадден Р. 2 МакФ
- Бык Р 2 Т
Р 2 L от Коэна
[ редактировать ]Р 2 L дан Коэном: [1]
Это наиболее аналогичный показатель квадратов множественных корреляций в линейной регрессии. [3] Оно представляет собой пропорциональное уменьшение отклонения, при этом отклонение рассматривается как мера вариации, аналогичная, но не идентичная дисперсии в линейном регрессионном анализе. [3] Одно ограничение отношения правдоподобия R 2 заключается в том, что оно не связано монотонно с отношением шансов, [1] это означает, что оно не обязательно увеличивается с увеличением отношения шансов и не обязательно уменьшается с уменьшением отношения шансов.
Р 2 CS от Кокса и Снелла
[ редактировать ]Р 2 CS — альтернативный индекс согласия, связанный с R 2 значение из линейной регрессии. [2] Его дают:
где L M и L 0 — вероятности подгоняемой модели и нулевой модели соответственно. Индекс Кокса и Снелла соответствует стандарту R. 2 в случае линейной модели с нормальной ошибкой. В определенных ситуациях Р. 2 CS может быть проблематичным, поскольку его максимальное значение равно . Например, для логистической регрессии верхняя граница равна при симметричном маргинальном распределении событий и далее уменьшается при асимметричном распределении событий. [2]
Р 2 N возле Нагелькерке
[ редактировать ]Р 2 N , предложенный Нико Нагелькерке в широко цитируемой статье Biometrika, обеспечивает поправку к R Кокса и Снелла. 2 так что максимальное значение равно 1. Тем не менее, коэффициенты Кокса и Снелла и отношение правдоподобия R 2 демонстрируют большее согласие друг с другом, чем с Nagelkerke R. 2 . [1] Конечно, это может быть не так для значений, превышающих 0,75, поскольку индекс Кокса и Снелла ограничен этим значением. Отношение правдоподобия R 2 часто предпочтительнее альтернатив, поскольку он наиболее аналогичен R 2 в линейной регрессии не зависит от базовой ставки (как Кокса, и Снелла, так и Нагелькерке R 2 s увеличивается по мере увеличения доли случаев от 0 до 0,5) и варьируется от 0 до 1.
Р 2 McF от Макфаддена
[ редактировать ]Псевдо Р 2 Макфаддена (иногда называемый отношения правдоподобия ) индексом [4] ) определяется как
и предпочтительнее R 2 CS от Эллисон. [2] Два выражения R 2 МакФ и Р. 2 CS тогда связаны соответственно соотношением:
Р 2 Т от Тьюра
[ редактировать ]Эллисон [2] предпочитает Р 2 T , относительно новая мера, разработанная Тьюром. [5] Его можно рассчитать в два этапа:
- Для каждого уровня зависимой переменной найдите среднее значение прогнозируемых вероятностей события.
- Возьмите абсолютное значение разницы между этими средними значениями.
Интерпретация
[ редактировать ]необходимо сделать несколько предостережений. При интерпретации псевдо- R 2 статистика. по которой эти индексы соответствия называются псевдоR Причина , 2 заключается в том, что они не представляют собой пропорционального уменьшения ошибки, поскольку R 2 в линейной регрессии так и есть. [1] Линейная регрессия предполагает гомоскедастичность , то есть дисперсия ошибок одинакова для всех значений критерия. Логистическая регрессия всегда будет гетероскедастической – дисперсии ошибок различаются для каждого значения прогнозируемой оценки. Для каждого значения прогнозируемой оценки будет свое значение пропорционального уменьшения ошибки. Поэтому неуместно думать о R. 2 как пропорциональное уменьшение ошибки в универсальном смысле логистической регрессии. [1]
Ссылки
[ редактировать ]- ^ Jump up to: а б с д и ж г Коэн, Джейкоб; Коэн, Патрисия; Уэст, Стивен Г.; Эйкен, Леона С. (2002). Прикладной множественный регрессионный/корреляционный анализ для поведенческих наук (3-е изд.). Рутледж. п. 502. ИСБН 978-0-8058-2223-6 .
- ^ Jump up to: а б с д и Эллисон, Пол Д. «Меры соответствия логистической регрессии» (PDF) . Statistical Horizons LLC и Пенсильванский университет.
- ^ Jump up to: а б Менар, Скотт В. (2002). Прикладная логистическая регрессия (2-е изд.). МУДРЕЦ. ISBN 978-0-7619-2208-7 . [ нужна страница ]
- ^ Хардин, JW, Хильбе, JM (2007). Обобщенные линейные модели и расширения. США: Тейлор и Фрэнсис. Страница 60, Google Книги
- ^ Тьюр, вторник (2009). «Коэффициенты детерминации в моделях логистической регрессии». Американский статистик . 63 (4): 366–372. дои : 10.1198/tast.2009.08210 . S2CID 121927418 .