Регрессия преследования проекций
![]() | Эта статья включает список литературы , связанную литературу или внешние ссылки , но ее источники остаются неясными, поскольку в ней отсутствуют встроенные цитаты . ( Ноябрь 2010 г. ) |
В статистике , регрессия преследования прогнозов (PPR) — это статистическая модель, разработанная Джеромом Х. Фридманом и Вернером Штютцле которая расширяет аддитивные модели . Эта модель адаптирует аддитивные модели тем, что сначала проецирует матрицу данных объясняющих переменных в оптимальном направлении, а затем применяет функции сглаживания к этим объясняющим переменным.
Обзор модели
[ редактировать ]Модель состоит из линейных комбинаций ридж -функций : нелинейных преобразований линейных комбинаций объясняющих переменных. Базовая модель имеет вид
где x i размером 1 × p, — это строка матрицы плана содержащая объясняющие переменные, например i , y i — прогноз 1 × 1, { β j } — это набор r векторов (каждый из которых представляет собой единичный вектор длины p ), который содержат неизвестные параметры, { f j } представляет собой набор r изначально неизвестных гладких функций, которые отображаются из , а r — гиперпараметр. Хорошие значения для r можно определить посредством перекрестной проверки или поэтапной стратегии, которая останавливается, когда соответствие модели не может быть значительно улучшено. Когда r приближается к бесконечности и с соответствующим набором функций { f j }, модель PPR является универсальной оценкой , поскольку она может аппроксимировать любую непрерывную функцию в .
Оценка модели
[ редактировать ]Для заданного набора данных , цель состоит в том, чтобы минимизировать функцию ошибки
над функциями и векторы . Не существует метода решения для всех переменных одновременно, но его можно решить с помощью попеременной оптимизации . Сначала рассмотрим каждый соединяйте индивидуально: пусть все остальные параметры будут фиксированными, и найдите «остаток», дисперсию выходных данных, не учтенную этими другими параметрами, определяемую формулой
Задача минимизации функции ошибок теперь сводится к решению
для каждого j по очереди. Обычно новый пары добавляются в модель поэтапно.
Кроме того: ранее подобранные пары могут быть скорректированы после того, как новые подходящие пары будут определены с помощью алгоритма, известного как обратная подгонка , который влечет за собой повторный анализ предыдущей пары, пересчет остатка с учетом того, как изменились другие пары, повторную подгонку с учетом этой новой информации, а затем циклический анализ. таким образом через все подходящие пары, пока параметры не сойдутся. Этот процесс обычно приводит к тому, что модель работает лучше с меньшим количеством пар подгонок, хотя обучение занимает больше времени, и обычно можно добиться той же производительности, пропуская обратную подгонку и просто добавляя к модели больше подгонок (увеличивая r ).
Решение упрощенной функции ошибок для определения пару можно сделать с поочередной оптимизацией, где сначала случайный используется для проецирования в одномерное пространство, а затем оптимальное Установлено, что он описывает взаимосвязь между этой проекцией и остатками с помощью вашего любимого метода регрессии точечной диаграммы. Тогда, если считается постоянным, предполагая когда-то дифференцируем, оптимальные обновленные веса может быть найдена с помощью метода Гаусса – Ньютона — квазиньютоновского метода, в котором отбрасывается часть гессиана, включающая вторую производную. Чтобы получить это, сначала Тейлор разложит , затем подключите расширение обратно к упрощенной функции ошибок и проделайте некоторые алгебраические манипуляции, чтобы придать этому виду
Это взвешенная задача наименьших квадратов . Если мы решим для всех весов и поместим их в диагональную матрицу , сложите все новые цели в вектор и использовать полную матрицу данных вместо одного примера , то оптимальный задается в закрытой форме
Используйте это обновленное найти новую проекцию и переоборудовать к новой диаграмме рассеяния. Затем используйте этот новый обновить решая вышеизложенное, и продолжайте этот попеременный процесс до тех пор, пока сходится.
Было показано, что на скорость сходимости, смещение и дисперсию влияет оценка и .
Обсуждение
[ редактировать ]Модель PPR принимает форму базовой аддитивной модели, но с дополнительными компонент, поэтому каждый соответствует диаграмме рассеяния по сравнению с остатком (необъяснимой дисперсией) во время обучения, а не с использованием самих необработанных входных данных. Это ограничивает проблему поиска каждого до низкой размерности, что делает ее разрешимой с помощью обычных методов наименьших квадратов или методов подбора сплайнов и позволяет избежать проклятия размерности во время обучения. Потому что берется из проекции , результат выглядит как «гребень», ортогональный размеру проекции, поэтому часто называют «гребневыми функциями». Направления выбираются для оптимизации соответствия соответствующих им функций гребней.
Обратите внимание: поскольку PPR пытается согласовать прогнозы данных, может быть сложно интерпретировать подобранную модель в целом, поскольку каждая входная переменная учитывалась сложным и многогранным образом. Это может сделать модель более полезной для прогнозирования, чем для понимания данных, хотя визуализация отдельных функций гребня и рассмотрение того, какие проекции обнаруживает модель, могут дать некоторое представление.
Преимущества оценки PPR
[ редактировать ]- Он использует одномерные функции регрессии вместо их многомерной формы, тем самым эффективно справляясь с проклятием размерности.
- Одномерная регрессия позволяет проводить простую и эффективную оценку.
- По сравнению с обобщенными аддитивными моделями PPR может оценивать гораздо более богатый класс функций.
- В отличие от методов локального усреднения (таких как k-ближайшие соседи ), PPR может игнорировать переменные с низкой объяснительной силой.
Недостатки оценки PPR
[ редактировать ]- PPR требует изучения M-мерного пространства параметров, чтобы оценить .
- Необходимо выбрать параметр сглаживания для .
- Модель часто трудно интерпретировать.
Расширения PPR
[ редактировать ]- Были предложены альтернативные сглаживатели, такие как радиальная функция, гармоническая функция и аддитивная функция, и их характеристики различаются в зависимости от используемых наборов данных.
- Также использовались альтернативные критерии оптимизации, такие как стандартные абсолютные отклонения и средние абсолютные отклонения .
- Обычные методы наименьших квадратов можно использовать для упрощения вычислений, поскольку зачастую данные не имеют сильных нелинейностей.
- Срезная обратная регрессия (SIR) использовалась для выбора векторов направления для PPR.
- Обобщенный PPR сочетает в себе обычный PPR с итеративно перевзвешенным методом наименьших квадратов (IRLS) и функцию связи для оценки двоичных данных.
PPR против нейронных сетей (NN)
[ редактировать ]И регрессия проекционного преследования, и полностью связанные нейронные сети с одним скрытым слоем проецируют входной вектор на одномерную гиперплоскость, а затем применяют нелинейное преобразование входных переменных, которые затем добавляются линейным образом. Таким образом, оба следуют одним и тем же шагам, чтобы преодолеть проклятие размерности. Основное отличие состоит в том, что функции подгонка в PPR может быть разной для каждой комбинации входных переменных и оценивается по одной, а затем обновляется с использованием весов, тогда как в NN все они указываются заранее и оцениваются одновременно.
Таким образом, при оценке PPR преобразования переменных в PPR управляются данными, тогда как в однослойной нейронной сети эти преобразования фиксированы.
См. также
[ редактировать ]Ссылки
[ редактировать ]- Фридман Дж. Х. и Штетцле В. (1981) Регрессия преследования проекции . Журнал Американской статистической ассоциации, 76, 817–823.
- Хэнд Д., Маннила Х. и Смит П. (2001) Принципы интеллектуального анализа данных. МТИ Пресс. ISBN 0-262-08290-X
- Холл, П. (1988) Оценка направления, в котором набор данных является наиболее интересным, Probab. Области, связанные с теорией, 80, 51–77.
- Хасти, Т.Дж., Тибширани, Р.Дж. и Фридман, Дж.Х. (2009). Элементы статистического обучения: интеллектуальный анализ данных, логические выводы и прогнозирование . Спрингер. ISBN 978-0-387-84857-0
- Клинке С. и Грассманн Дж. (2000) «Регрессия преследования проекции» в книге «Сглаживание и регрессия: подходы, вычисления и применение». Эд. Шимек, МГ. Уайли Интерсайенс.
- Линджарде, О.К. и Лиестол, К. (1998) Регрессия преследования обобщенной проекции . SIAM Journal of Scientific Computing, 20, 844–857.