Jump to content

Регрессия преследования проекций

В статистике , регрессия преследования прогнозов (PPR) — это статистическая модель, разработанная Джеромом Х. Фридманом и Вернером Штютцле которая расширяет аддитивные модели . Эта модель адаптирует аддитивные модели тем, что сначала проецирует матрицу данных объясняющих переменных в оптимальном направлении, а затем применяет функции сглаживания к этим объясняющим переменным.

Обзор модели

[ редактировать ]

Модель состоит из линейных комбинаций ридж -функций : нелинейных преобразований линейных комбинаций объясняющих переменных. Базовая модель имеет вид

где x i размером 1 × p, — это строка матрицы плана содержащая объясняющие переменные, например i , y i — прогноз 1 × 1, { β j } — это набор r векторов (каждый из которых представляет собой единичный вектор длины p ), который содержат неизвестные параметры, { f j } представляет собой набор r изначально неизвестных гладких функций, которые отображаются из , а r — гиперпараметр. Хорошие значения для r можно определить посредством перекрестной проверки или поэтапной стратегии, которая останавливается, когда соответствие модели не может быть значительно улучшено. Когда r приближается к бесконечности и с соответствующим набором функций { f j }, модель PPR является универсальной оценкой , поскольку она может аппроксимировать любую непрерывную функцию в .

Оценка модели

[ редактировать ]

Для заданного набора данных , цель состоит в том, чтобы минимизировать функцию ошибки

над функциями и векторы . Не существует метода решения для всех переменных одновременно, но его можно решить с помощью попеременной оптимизации . Сначала рассмотрим каждый соединяйте индивидуально: пусть все остальные параметры будут фиксированными, и найдите «остаток», дисперсию выходных данных, не учтенную этими другими параметрами, определяемую формулой

Задача минимизации функции ошибок теперь сводится к решению

для каждого j по очереди. Обычно новый пары добавляются в модель поэтапно.

Кроме того: ранее подобранные пары могут быть скорректированы после того, как новые подходящие пары будут определены с помощью алгоритма, известного как обратная подгонка , который влечет за собой повторный анализ предыдущей пары, пересчет остатка с учетом того, как изменились другие пары, повторную подгонку с учетом этой новой информации, а затем циклический анализ. таким образом через все подходящие пары, пока параметры не сойдутся. Этот процесс обычно приводит к тому, что модель работает лучше с меньшим количеством пар подгонок, хотя обучение занимает больше времени, и обычно можно добиться той же производительности, пропуская обратную подгонку и просто добавляя к модели больше подгонок (увеличивая r ).

Решение упрощенной функции ошибок для определения пару можно сделать с поочередной оптимизацией, где сначала случайный используется для проецирования в одномерное пространство, а затем оптимальное Установлено, что он описывает взаимосвязь между этой проекцией и остатками с помощью вашего любимого метода регрессии точечной диаграммы. Тогда, если считается постоянным, предполагая когда-то дифференцируем, оптимальные обновленные веса может быть найдена с помощью метода Гаусса – Ньютона — квазиньютоновского метода, в котором отбрасывается часть гессиана, включающая вторую производную. Чтобы получить это, сначала Тейлор разложит , затем подключите расширение обратно к упрощенной функции ошибок и проделайте некоторые алгебраические манипуляции, чтобы придать этому виду

Это взвешенная задача наименьших квадратов . Если мы решим для всех весов и поместим их в диагональную матрицу , сложите все новые цели в вектор и использовать полную матрицу данных вместо одного примера , то оптимальный задается в закрытой форме

Используйте это обновленное найти новую проекцию и переоборудовать к новой диаграмме рассеяния. Затем используйте этот новый обновить решая вышеизложенное, и продолжайте этот попеременный процесс до тех пор, пока сходится.

Было показано, что на скорость сходимости, смещение и дисперсию влияет оценка и .

Обсуждение

[ редактировать ]

Модель PPR принимает форму базовой аддитивной модели, но с дополнительными компонент, поэтому каждый соответствует диаграмме рассеяния по сравнению с остатком (необъяснимой дисперсией) во время обучения, а не с использованием самих необработанных входных данных. Это ограничивает проблему поиска каждого до низкой размерности, что делает ее разрешимой с помощью обычных методов наименьших квадратов или методов подбора сплайнов и позволяет избежать проклятия размерности во время обучения. Потому что берется из проекции , результат выглядит как «гребень», ортогональный размеру проекции, поэтому часто называют «гребневыми функциями». Направления выбираются для оптимизации соответствия соответствующих им функций гребней.

Обратите внимание: поскольку PPR пытается согласовать прогнозы данных, может быть сложно интерпретировать подобранную модель в целом, поскольку каждая входная переменная учитывалась сложным и многогранным образом. Это может сделать модель более полезной для прогнозирования, чем для понимания данных, хотя визуализация отдельных функций гребня и рассмотрение того, какие проекции обнаруживает модель, могут дать некоторое представление.

Преимущества оценки PPR

[ редактировать ]
  • Он использует одномерные функции регрессии вместо их многомерной формы, тем самым эффективно справляясь с проклятием размерности.
  • Одномерная регрессия позволяет проводить простую и эффективную оценку.
  • По сравнению с обобщенными аддитивными моделями PPR может оценивать гораздо более богатый класс функций.
  • В отличие от методов локального усреднения (таких как k-ближайшие соседи ), PPR может игнорировать переменные с низкой объяснительной силой.

Недостатки оценки PPR

[ редактировать ]
  • PPR требует изучения M-мерного пространства параметров, чтобы оценить .
  • Необходимо выбрать параметр сглаживания для .
  • Модель часто трудно интерпретировать.

Расширения PPR

[ редактировать ]
  • Были предложены альтернативные сглаживатели, такие как радиальная функция, гармоническая функция и аддитивная функция, и их характеристики различаются в зависимости от используемых наборов данных.
  • Также использовались альтернативные критерии оптимизации, такие как стандартные абсолютные отклонения и средние абсолютные отклонения .
  • Обычные методы наименьших квадратов можно использовать для упрощения вычислений, поскольку зачастую данные не имеют сильных нелинейностей.
  • Срезная обратная регрессия (SIR) использовалась для выбора векторов направления для PPR.
  • Обобщенный PPR сочетает в себе обычный PPR с итеративно перевзвешенным методом наименьших квадратов (IRLS) и функцию связи для оценки двоичных данных.

PPR против нейронных сетей (NN)

[ редактировать ]

И регрессия проекционного преследования, и полностью связанные нейронные сети с одним скрытым слоем проецируют входной вектор на одномерную гиперплоскость, а затем применяют нелинейное преобразование входных переменных, которые затем добавляются линейным образом. Таким образом, оба следуют одним и тем же шагам, чтобы преодолеть проклятие размерности. Основное отличие состоит в том, что функции подгонка в PPR может быть разной для каждой комбинации входных переменных и оценивается по одной, а затем обновляется с использованием весов, тогда как в NN все они указываются заранее и оцениваются одновременно.

Таким образом, при оценке PPR преобразования переменных в PPR управляются данными, тогда как в однослойной нейронной сети эти преобразования фиксированы.

См. также

[ редактировать ]
  • Фридман Дж. Х. и Штетцле В. (1981) Регрессия преследования проекции . Журнал Американской статистической ассоциации, 76, 817–823.
  • Хэнд Д., Маннила Х. и Смит П. (2001) Принципы интеллектуального анализа данных. МТИ Пресс. ISBN   0-262-08290-X
  • Холл, П. (1988) Оценка направления, в котором набор данных является наиболее интересным, Probab. Области, связанные с теорией, 80, 51–77.
  • Хасти, Т.Дж., Тибширани, Р.Дж. и Фридман, Дж.Х. (2009). Элементы статистического обучения: интеллектуальный анализ данных, логические выводы и прогнозирование . Спрингер. ISBN   978-0-387-84857-0
  • Клинке С. и Грассманн Дж. (2000) «Регрессия преследования проекции» в книге «Сглаживание и регрессия: подходы, вычисления и применение». Эд. Шимек, МГ. Уайли Интерсайенс.
  • Линджарде, О.К. и Лиестол, К. (1998) Регрессия преследования обобщенной проекции . SIAM Journal of Scientific Computing, 20, 844–857.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 9f86a8665334a534023c3fab187144a4__1713303540
URL1:https://arc.ask3.ru/arc/aa/9f/a4/9f86a8665334a534023c3fab187144a4.html
Заголовок, (Title) документа по адресу, URL1:
Projection pursuit regression - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)