Jump to content

Случайный лес

(Перенаправлено из случайного леса ядра )

Случайные леса или леса случайных решений — это метод ансамблевого обучения для классификации , регрессии и других задач, который работает путем построения множества деревьев решений во время обучения. Для задач классификации выходными данными случайного леса является класс, выбранный большинством деревьев. Для задач регрессии возвращается среднее или среднее предсказание отдельных деревьев. [ 1 ] [ 2 ] Случайные леса решений корректируют привычку деревьев решений подстраиваться под свой обучающий набор . [ 3 ] : 587–588 

Первый алгоритм для леса случайных решений был создан в 1995 году Тином Кам Хо. [ 1 ] используя метод случайных подпространств , [ 2 ] что, по формулировке Хо, является способом реализации подхода «стохастической дискриминации» к классификации, предложенного Юджином Кляйнбергом. [ 4 ] [ 5 ] [ 6 ]

Расширение алгоритма было разработано Лео Брейманом. [ 7 ] и Адель Катлер , [ 8 ] кто зарегистрировался [ 9 ] «Случайные леса» как товарный знак в 2006 г. (по состоянию на 2019 г. , принадлежащий Minitab, Inc. ). [ 10 ] Расширение сочетает в себе идею « упаковки » Бреймана и случайный выбор функций, впервые представленный Хо. [ 1 ] а позже независимо Амита и Гемана [ 11 ] для построения набора деревьев решений с контролируемой дисперсией.

Общий метод лесов случайных решений был впервые предложен Зальцбергом и Хитом в 1993 году. [ 12 ] с методом, который использовал алгоритм рандомизированного дерева решений для создания нескольких разных деревьев, а затем объединял их с помощью голосования большинством. Эта идея была развита Хо в 1995 году. [ 1 ] Хо установил, что леса деревьев, разделенные наклонными гиперплоскостями, могут получать точность по мере роста, не страдая от переобучения, при условии, что леса случайным образом ограничены чувствительностью только к выбранным размерам объектов . Последующая работа в том же духе [ 2 ] пришли к выводу, что другие методы разделения ведут себя аналогичным образом, пока они случайным образом вынуждены быть нечувствительными к некоторым размерам объектов. Обратите внимание, что это наблюдение за тем, как более сложный классификатор (большой лес) становится более точным почти монотонно, резко контрастирует с распространенным убеждением, что сложность классификатора может вырасти только до определенного уровня точности, прежде чем она пострадает от переобучения. Объяснение устойчивости метода леса к перетренированности можно найти в теории стохастической дискриминации Клейнберга. [ 4 ] [ 5 ] [ 6 ]

На раннее развитие идеи Бреймана о случайных лесах повлияли работы Амита и Гемана. [ 11 ] который представил идею поиска по случайному подмножеству доступных решений при разделении узла в контексте выращивания одного дерева . Идея случайного выбора подпространства от Хо [ 2 ] также оказал влияние на создание случайных лесов. В этом методе выращивается лес деревьев, и различия между деревьями вводятся путем проецирования обучающих данных в случайно выбранное подпространство перед подгонкой каждого дерева или каждого узла. Наконец, идея рандомизированной оптимизации узлов, при которой решение в каждом узле выбирается с помощью рандомизированной процедуры, а не детерминированной оптимизации, была впервые предложена Томасом Г. Диттерихом . [ 13 ]

Правильное введение случайных лесов было сделано в статье Лео Бреймана . [ 7 ] В этой статье описывается метод построения леса некоррелированных деревьев с использованием процедуры, подобной CART , в сочетании со рандомизированной оптимизацией узлов и пакетированием . Кроме того, в этой статье сочетаются несколько ингредиентов, как ранее известных, так и новых, которые составляют основу современной практики случайных лесов, в частности:

  1. Использование ошибки «вне пакета» в качестве оценки ошибки обобщения .
  2. Измерение важности переменной посредством перестановки.

В докладе также представлен первый теоретический результат для случайных лесов в виде оценки ошибки обобщения , которая зависит от силы деревьев в лесу и их корреляции .

Алгоритм

[ редактировать ]

Предварительные сведения: изучение дерева решений

[ редактировать ]

Деревья решений — популярный метод для решения различных задач машинного обучения. Обучение деревьям «наиболее близко соответствует требованиям, предъявляемым к использованию в качестве готовой процедуры интеллектуального анализа данных», говорят Хасти и др. , «поскольку он инвариантен при масштабировании и различных других преобразованиях значений признаков, устойчив к включению нерелевантных признаков и создает проверяемые модели. Однако они редко бывают точными». [ 3 ] : 352 

В частности, деревья, выросшие очень глубоко, имеют тенденцию обучаться крайне нерегулярным шаблонам: они переопределяют свои обучающие наборы, т. е. имеют низкую систематическую ошибку, но очень высокую дисперсию . Случайные леса — это способ усреднения нескольких глубоких деревьев решений, обученных на разных частях одного и того же обучающего набора, с целью уменьшения дисперсии. [ 3 ] : 587–588  Это достигается за счет небольшого увеличения систематической ошибки и некоторой потери интерпретируемости, но в целом значительно повышает производительность окончательной модели.

Упаковка

[ редактировать ]
Иллюстрация обучения модели случайного леса. Набор обучающих данных (в данном случае из 250 строк и 100 столбцов) выбирается случайным образом с заменой n раз. Затем на каждой выборке обучается дерево решений. Наконец, для прогнозирования результаты всех n деревьев объединяются для принятия окончательного решения.

Алгоритм обучения случайных лесов применяет к обучающимся деревьям общий метод бутстрап-агрегирования или пакетирования. Учитывая обучающий набор X = x 1 , ..., x n с ответами Y = y 1 , ..., y n , повторное пакетирование ( B раз) выбирает случайную выборку с заменой обучающего набора и подбирает к ним деревья. образцы:

Для b = 1, ..., B :
  1. Выборка с заменой n обучающих примеров из X , Y ; назовите их X b , Y b .
  2. Обучите дерево классификации или регрессии f b на X b , Y b .

После обучения прогнозы для невидимых выборок x' можно сделать путем усреднения прогнозов всех отдельных деревьев регрессии по x' :

или путем голосования большинства в случае деревьев классификации.

Эта процедура начальной загрузки приводит к повышению производительности модели, поскольку уменьшает дисперсию модели без увеличения систематической ошибки. Это означает, что, хотя прогнозы одного дерева очень чувствительны к шуму в его обучающем наборе, среднее значение многих деревьев нет, пока деревья не коррелированы. Простое обучение многих деревьев на одном обучающем наборе приведет к получению сильно коррелированных деревьев (или даже одного и того же дерева много раз, если алгоритм обучения является детерминированным); Бутстрап-выборка — это способ декорреляции деревьев путем показа им различных обучающих наборов.

Кроме того, оценку неопределенности прогноза можно сделать как стандартное отклонение прогнозов всех отдельных деревьев регрессии по x' :

Количество выборок/деревьев B является свободным параметром. Обычно используется от нескольких сотен до нескольких тысяч деревьев, в зависимости от размера и характера обучающего набора. Оптимальное количество деревьев B можно найти с помощью перекрестной проверки или путем наблюдения за ошибкой «вне пакета» : средней ошибкой прогнозирования для каждой обучающей выборки x i с использованием только тех деревьев, у которых не было x i в их начальной выборке. . [ 14 ] Ошибка обучения и тестирования имеет тенденцию выравниваться после того, как некоторое количество деревьев было подобрано.

От упаковки в случайные леса

[ редактировать ]

Вышеуказанная процедура описывает исходный алгоритм упаковки деревьев. Случайные леса также включают в себя другой тип схемы объединения: они используют модифицированный алгоритм обучения дерева, который выбирает при каждом разделении кандидатов в процессе обучения случайное подмножество функций . Этот процесс иногда называют «сборкой функций». Причиной этого является корреляция деревьев в обычной бутстреп-выборке: если один или несколько признаков являются очень сильными предикторами для переменной ответа (целевой результат), эти признаки будут выбраны во многих B -деревьях, что приведет к их стать коррелированным. Анализ того, как пакетирование и случайное проецирование подпространства способствуют повышению точности в различных условиях, проведен Хо. [ 15 ]

Обычно для задачи классификации с p признаками p (округленных вниз) признаков. в каждом разбиении используется [ 3 ] : 592  Для задач регрессии изобретатели рекомендуют p /3 (округленное вниз) с минимальным размером узла 5 по умолчанию. [ 3 ] : 592  На практике оптимальные значения этих параметров следует подбирать индивидуально для каждой проблемы. [ 3 ] : 592 

Экстрадеревья

[ редактировать ]

Добавление еще одного шага рандомизации дает чрезвычайно рандомизированные деревья или ExtraTrees. Несмотря на то, что они похожи на обычные случайные леса в том, что они представляют собой ансамбль отдельных деревьев, есть два основных различия: во-первых, каждое дерево обучается с использованием всей обучающей выборки (а не бутстрап-выборки), а во-вторых, разбиение сверху вниз в обучаемый дерево рандомизировано. Вместо вычисления локально оптимальной точки отсечения для каждого рассматриваемого признака (на основе, например, прироста информации или примеси Джини ), случайная выбирается точка отсечения. Это значение выбирается из равномерного распределения в пределах эмпирического диапазона признака (в обучающем наборе дерева). Затем из всех случайно сгенерированных разделений для разделения узла выбирается разделение, которое дает наивысший балл. Подобно обычным случайным лесам, можно указать количество случайно выбранных объектов, которые будут учитываться в каждом узле. Значения по умолчанию для этого параметра: для классификации и для регрессии, где количество функций в модели. [ 16 ]

Случайные леса для многомерных данных

[ редактировать ]

Базовая процедура случайного леса может не работать хорошо в ситуациях, когда имеется большое количество признаков, но лишь небольшая часть этих признаков информативна для классификации выборки. Эту проблему можно решить, поощряя процедуру фокусироваться главным образом на информативных функциях и деревьях. Вот некоторые методы достижения этой цели:

  • Предварительная фильтрация: удаление функций, которые в основном представляют собой просто шум. [ 17 ] [ 18 ]
  • Обогащенный случайный лес (ERF): используйте взвешенную случайную выборку вместо простой случайной выборки в каждом узле каждого дерева, придавая больший вес функциям, которые кажутся более информативными. [ 19 ] [ 20 ]
  • Случайный лес, взвешенный по деревьям (TWRF): взвешивайте деревья, чтобы деревьям, демонстрирующим более высокую точность, присваивались более высокие веса. [ 21 ] [ 22 ]

Характеристики

[ редактировать ]

Переменная важность

[ редактировать ]

Случайные леса можно использовать для естественного ранжирования важности переменных в задаче регрессии или классификации. Следующая техника была описана в оригинальной статье Бреймана. [ 7 ] и реализован в R пакете randomForest . [ 8 ]

Важность перестановки

[ редактировать ]

Первый шаг в измерении важности переменной в наборе данных заключается в подгонке случайного леса к данным. В процессе подгонки ошибка выхода из пакета для каждой точки данных записывается и усредняется по лесу (ошибки на независимом тестовом наборе могут быть заменены, если во время обучения не используется пакетирование).

Чтобы измерить важность -й признак после обучения, значения -й признак переставляется в выборках «вне пакета», и ошибка «вне пакета» снова вычисляется на этом искаженном наборе данных. Оценка важности для -й признак вычисляется путем усреднения разницы ошибок выхода из пакета до и после перестановки по всем деревьям. Оценка нормализуется по стандартному отклонению этих различий.

Функции, которые дают большие значения для этой оценки, оцениваются как более важные, чем функции, которые дают маленькие значения. Статистическое определение показателя значимости переменной было дано и проанализировано Zhu et al. [ 23 ]

Этот метод определения важности переменной имеет некоторые недостатки.

  • Для данных, включающих категориальные переменные с разным количеством уровней, случайные леса смещаются в пользу атрибутов с большим количеством уровней. Такие методы, как частичные перестановки [ 24 ] [ 25 ] [ 26 ] и выращивание непредвзятых деревьев [ 27 ] [ 28 ] можно использовать для решения проблемы.
  • Если данные содержат группы коррелированных характеристик, имеющих одинаковое значение для выходных данных, то меньшие группы имеют преимущество перед более крупными. [ 29 ]
  • Кроме того, процедура перестановки может не идентифицировать важные функции, если есть коллинеарные функции. В этом случае решением проблемы является перестановка групп коррелирующих признаков. [ 30 ]

Среднее снижение важности примесных свойств

[ редактировать ]

Эта функция, важная для случайных лесов, является реализацией по умолчанию в научных наборах и R. Она описана в книге Лео Бреймана «Деревья классификации и регрессии». [ 31 ] Важными считаются переменные, которые значительно уменьшают примеси во время разделения: [ 32 ] где указывает на особенность, количество деревьев в лесу, указывает на дерево , это доля выборок, достигающих узла , это изменение примеси в дереве в узле . В качестве меры примеси для образцов, попадающих в узел, можно использовать, например, следующую статистику:

Нормализованная важность затем получается путем нормализации всех признаков, так что сумма нормализованных важностей признаков равна 1.

Реализация по умолчанию среднего снижения важности примесных функций в научном наборе для изучения подвержена вводящим в заблуждение значениям функций: [ 30 ]

  • мера важности предпочитает функции с высокой мощностью
  • он использует статистику обучения и, следовательно, не «отражает способность функции быть полезной для составления прогнозов, которые обобщаются для тестового набора» [ 33 ]

Отношения с ближайшими соседями

[ редактировать ]

На связь между случайными лесами и алгоритмом k -ближайшего соседа ( k -NN) указали Лин и Чон в 2002 году. [ 34 ] Оказывается, обе схемы можно рассматривать как так называемые схемы взвешенных окрестностей . Это модели, построенные на основе обучающего набора. которые делают прогнозы для новых точек x' , рассматривая «окрестность» точки, формализованную весовой функцией W :

Здесь, - неотрицательный вес i -й точки обучения относительно новой точки x' в том же дереве. Для любого конкретного x' веса точек сумма должна быть равна единице. Весовые функции задаются следующим образом:

  • В k -NN веса равны если x i — одна из k точек, ближайших к x' , и ноль в противном случае.
  • На дереве, если x i — одна из k' точек того же листа, что и x' , и ноль в противном случае.

Поскольку лес усредняет предсказания набора из m деревьев с отдельными весовыми функциями , его предсказания

Это показывает, что весь лес снова представляет собой схему взвешенного соседства с весами, усредняющими веса отдельных деревьев. Соседями точки x' в этой интерпретации являются точки общий лист на любом дереве . Таким образом, окрестность x' сложным образом зависит от структуры деревьев и, следовательно, от структуры обучающего набора. Лин и Чон показывают, что форма окрестности, используемая случайным лесом, адаптируется к локальной важности каждого объекта. [ 34 ]

Неконтролируемое обучение со случайными лесами

[ редактировать ]

В рамках своей конструкции случайные лесные предикторы естественным образом приводят к показателю различия между наблюдениями. Можно также определить меру различия случайного леса между немаркированными данными: идея состоит в том, чтобы построить предиктор случайного леса, который отличает «наблюдаемые» данные от сгенерированных соответствующим образом синтетических данных. [ 7 ] [ 35 ] Наблюдаемые данные представляют собой исходные немаркированные данные, а синтетические данные взяты из эталонного распределения. Случайное несходство леса может быть привлекательным, поскольку оно очень хорошо обрабатывает смешанные типы переменных, инвариантно к монотонным преобразованиям входных переменных и устойчиво к внешним наблюдениям. Случайное несходство леса легко справляется с большим количеством полунепрерывных переменных благодаря выбору внутренних переменных; например, различие случайного леса «Addcl 1» взвешивает вклад каждой переменной в зависимости от того, насколько она зависит от других переменных. Случайное несходство леса использовалось в различных приложениях, например, для поиска групп пациентов на основе данных тканевых маркеров. [ 36 ]

Варианты

[ редактировать ]

Вместо деревьев решений были предложены и оценены линейные модели в качестве базовых оценок в случайных лесах, в частности, полиномиальная логистическая регрессия и наивные классификаторы Байеса . [ 37 ] [ 38 ] [ 39 ] В тех случаях, когда связь между предикторами и целевой переменной является линейной, базовые учащиеся могут иметь такую ​​же высокую точность, как и ансамблевый учащийся. [ 40 ] [ 37 ]

Случайный лес ядра

[ редактировать ]

В машинном обучении случайные леса ядра (KeRF) устанавливают связь между случайными лесами и методами ядра . Немного изменив их определение, случайные леса можно переписать в методы ядра , которые более интерпретируются и легче анализируются. [ 41 ]

Лео Брейман [ 42 ] был первым, кто заметил связь между случайным лесом и методами ядра . Он отметил, что случайные леса, которые выращиваются с использованием случайных векторов iid при построении дерева, эквивалентны ядру, действующему на истинное поле. Лин и Чон [ 43 ] установил связь между случайными лесами и адаптивным ближайшим соседом, подразумевая, что случайные леса можно рассматривать как адаптивные оценки ядра. Дэвис и Гахрамани [ 44 ] предложил ядро ​​случайного леса и показал, что оно может эмпирически превосходить современные методы ядра. Скорнет [ 41 ] впервые определил оценки KeRF и установил явную связь между оценками KeRF и случайным лесом. Он также дал явные выражения для ядер, основанных на центрированном случайном лесу. [ 45 ] и однородный случайный лес, [ 46 ] две упрощенные модели случайного леса. Он назвал эти два KeRF «Центрированным KeRF» и «Униформным KeRF» и доказал верхние границы их согласованности.

Обозначения и определения

[ редактировать ]

Предварительные сведения: центрированные леса

[ редактировать ]

Центрированный лес [ 45 ] представляет собой упрощенную модель исходного случайного леса Бреймана, которая равномерно выбирает атрибут среди всех атрибутов и выполняет разбиение в центре ячейки вдоль заранее выбранного атрибута. Алгоритм останавливается, когда полностью бинарное дерево уровня построен там, где является параметром алгоритма.

Равномерный лес

[ редактировать ]

Равномерный лес [ 46 ] — это еще одна упрощенная модель исходного случайного леса Бреймана, которая равномерно выбирает объект среди всех объектов и выполняет разбиение в точке, равномерно нарисованной на боковой стороне ячейки вдоль заранее выбранного объекта.

От случайного леса к KeRF

[ редактировать ]

Учитывая обучающую выборку из -значные независимые случайные величины, распределенные как пара независимых прототипов , где . Мы стремимся предсказать реакцию , связанный со случайной величиной , оценивая функцию регрессии . Лес случайной регрессии представляет собой ансамбль деревья рандомизированной регрессии. Обозначим прогнозируемое значение в точке по -е дерево, где являются независимыми случайными величинами, распределенными как общая случайная величина , независимо от выборки . Эту случайную величину можно использовать для описания случайности, вызванной разделением узлов и процедурой выборки для построения дерева. Деревья объединяются для формирования оценки конечного леса. . Для деревьев регрессии мы имеем , где является ячейкой, содержащей , разработанный со случайностью и набор данных , и .

Таким образом, случайные оценки леса удовлетворяют всем , . Случайный регрессионный лес имеет два уровня усреднения: сначала по выборкам в целевой ячейке дерева, затем по всем деревьям. Таким образом, вклад наблюдений, находящихся в ячейках с высокой плотностью точек данных, меньше, чем вклад наблюдений, принадлежащих менее населенным ячейкам. Чтобы улучшить методы случайного леса и компенсировать неправильную оценку, Скорнет [ 41 ] определил KeRF в что равно среднему значению падает в ячейки, содержащие в лесу. Если мы определим функцию связи конечный лес как , т.е. доля ячеек, разделенных между и , то почти наверняка имеем , который определяет KeRF.

Центрированный KeRF

[ редактировать ]

Построение Центрированного уровня KeRF то же самое, что и для центрированного леса, за исключением того, что прогнозы делаются , соответствующая функция ядра или функция соединения

Униформа КеРФ

[ редактировать ]

Однородный KeRF строится так же, как и однородный лес, за исключением того, что прогнозы делаются , соответствующая функция ядра или функция соединения

Характеристики

[ редактировать ]

Связь между KeRF и случайным лесом

[ редактировать ]

Прогнозы, данные KeRF и случайными лесами, близки, если количество точек в каждой ячейке контролируется:

Предположим, что существуют последовательности такое, что почти наверняка Тогда почти наверняка

Связь между бесконечным KeRF и бесконечным случайным лесом

[ редактировать ]

Когда количество деревьев уходит в бесконечность, то мы имеем бесконечный случайный лес и бесконечный KeRF. Их оценки близки, если число наблюдений в каждой ячейке ограничено:

Предположим, что существуют последовательности такое, что почти наверняка

Тогда почти наверняка

Согласованность результатов

[ редактировать ]

Предположим, что , где представляет собой центрированный гауссов шум, не зависящий от , с конечной дисперсией . Более того, равномерно распределен по и является Липшиц . Скорнет [ 41 ] доказал верхние границы скоростей согласованности для центрированного KeRF и однородного KeRF.

Согласованность центрированного KeRF

[ редактировать ]

Предоставление и , существует константа такой, что для всех , .

Консистенция однородного KeRF

[ редактировать ]

Предоставление и , существует константа такой, что, .

Недостатки

[ редактировать ]

Хотя случайные леса часто достигают более высокой точности, чем одно дерево решений, они жертвуют внутренней интерпретируемостью, присущей деревьям решений. Деревья решений относятся к довольно небольшому семейству моделей машинного обучения, которые легко интерпретируются наряду с линейными моделями, моделями , основанными на правилах , и моделями, основанными на внимании . Эта интерпретируемость является одним из наиболее желательных качеств деревьев решений. Это позволяет разработчикам подтвердить, что модель извлекла из данных реалистичную информацию, и позволяет конечным пользователям доверять решениям, принимаемым моделью. [ 37 ] [ 3 ] Например, проследить путь, по которому дерево решений принимает свое решение, довольно тривиально, но проследить пути десятков или сотен деревьев гораздо сложнее. Чтобы добиться как производительности, так и интерпретируемости, некоторые методы сжатия модели позволяют преобразовать случайный лес в минимальное «возрожденное» дерево решений, которое точно воспроизводит одну и ту же функцию принятия решений. [ 37 ] [ 47 ] [ 48 ] Если установлено, что прогностические атрибуты линейно коррелируют с целевой переменной, использование случайного леса может не повысить точность базового обучаемого. [ 37 ] [ 40 ] Более того, в задачах с несколькими категориальными переменными случайный лес может не повысить точность базового обучаемого. [ 49 ]

См. также

[ редактировать ]
  1. ^ Перейти обратно: а б с д Хо, Тин Кам (1995). Леса случайных решений (PDF) . Материалы 3-й Международной конференции по анализу и распознаванию документов, Монреаль, Квебек, 14–16 августа 1995 г., стр. 278–282. Архивировано из оригинала (PDF) 17 апреля 2016 года . Проверено 5 июня 2016 г.
  2. ^ Перейти обратно: а б с д Хо ТК (1998). «Метод случайного подпространства для построения лесов решений» (PDF) . Транзакции IEEE по анализу шаблонов и машинному интеллекту . 20 (8): 832–844. дои : 10.1109/34.709601 . S2CID   206420153 .
  3. ^ Перейти обратно: а б с д и ж г Хасти, Тревор ; Тибширани, Роберт ; Фридман, Джером (2008). Элементы статистического обучения (2-е изд.). Спрингер. ISBN  0-387-95284-5 .
  4. ^ Перейти обратно: а б Кляйнберг Э (1990). «Стохастическая дискриминация» (PDF) . Анналы математики и искусственного интеллекта . 1 (1–4): 207–239. CiteSeerX   10.1.1.25.6750 . дои : 10.1007/BF01531079 . S2CID   206795835 . Архивировано из оригинала (PDF) 18 января 2018 г.
  5. ^ Перейти обратно: а б Кляйнберг Э (1996). «Метод стохастического моделирования для распознавания образов, устойчивый к перетренировке» . Анналы статистики . 24 (6): 2319–2349. дои : 10.1214/aos/1032181157 . МР   1425956 .
  6. ^ Перейти обратно: а б Кляйнберг Э (2000). «Об алгоритмической реализации стохастической дискриминации» (PDF) . Транзакции IEEE по анализу шаблонов и машинному интеллекту . 22 (5): 473–490. CiteSeerX   10.1.1.33.4131 . дои : 10.1109/34.857004 . S2CID   3563126 . Архивировано из оригинала (PDF) 18 января 2018 г.
  7. ^ Перейти обратно: а б с д Брейман Л. (2001). «Случайные леса» . Машинное обучение . 45 (1): 5–32. Бибкод : 2001MachL..45....5B . дои : 10.1023/А:1010933404324 .
  8. ^ Перейти обратно: а б Лиав А (16 октября 2012 г.). «Документация для пакета R RandomForest» (PDF) . Проверено 15 марта 2013 г.
  9. ^ Регистрационный номер товарного знака в США 3185828, зарегистрирован 19 декабря 2006 г.
  10. ^ «Торговая марка RANDOM FORESTS компании Health Care Productivity, Inc. — Регистрационный номер 3185828 — Серийный номер 78642027 :: Торговые марки Justia» .
  11. ^ Перейти обратно: а б Амит Ю, Геман Д (1997). «Квантование и распознавание формы с помощью рандомизированных деревьев» (PDF) . Нейронные вычисления . 9 (7): 1545–1588. CiteSeerX   10.1.1.57.6069 . дои : 10.1162/neco.1997.9.7.1545 . S2CID   12470146 . Архивировано из оригинала (PDF) 5 февраля 2018 г. Проверено 1 апреля 2008 г.
  12. ^ Хит Д., Касиф С. и Зальцберг С. (1993). k-DT: метод обучения с несколькими деревьями. В материалах второго международного заседания. Семинар по мультистратегическому обучению , стр. 138-149.
  13. ^ Диттерих, Томас (2000). «Экспериментальное сравнение трех методов построения ансамблей деревьев решений: пакетирование, повышение и рандомизация» . Машинное обучение . 40 (2): 139–157. дои : 10.1023/А:1007607513941 .
  14. ^ Гарет Джеймс; Даниэла Виттен; Тревор Хэсти; Роберт Тибширани (2013). Введение в статистическое обучение . Спрингер. стр. 316–321.
  15. ^ Хо, Тин Кам (2002). «Анализ сложности данных сравнительных преимуществ конструкторов леса решений» (PDF) . Анализ шаблонов и приложения . 5 (2): 102–112. дои : 10.1007/s100440200009 . S2CID   7415435 . Архивировано из оригинала (PDF) 17 апреля 2016 г. Проверено 13 ноября 2015 г.
  16. ^ Гертс П., Эрнст Д., Вехенкель Л. (2006). «Чрезвычайно рандомизированные деревья» (PDF) . Машинное обучение . 63 : 3–42. дои : 10.1007/s10994-006-6226-1 .
  17. ^ Десси, Н., Милия, Г. и Пес, Б. (2013). Повышение производительности случайных лесов при классификации данных микрочипов. Документ конференции, 99-103. 10.1007/978-3-642-38326-7_15.
  18. ^ Йе, Ю., Ли, Х., Денг, Х. и Хуанг, Дж. (2008) Случайный лес взвешивания функций для обнаружения скрытых интерфейсов веб-поиска. Журнал компьютерной лингвистики и обработки китайского языка, 13, 387–404.
  19. ^ Амаратунга, Д., Кабрера, Дж., Ли, Ю.С. (2008) Обогащенный случайный лес. Биоинформатика, 24, 2010-2014.
  20. ^ Гош Д., Кабрера Дж. (2022) Обогащенный случайный лес для многомерных геномных данных. IEEE/ACM Транскомпьютер Биол Биоинформ. 19(5):2817-2828. doi:10.1109/TCBB.2021.3089417.
  21. ^ Уинхэм, Стейси и Фреймут, Роберт и Бирнака, Джоанна. (2013). Подход с использованием взвешенных случайных лесов для повышения эффективности прогнозирования. Статистический анализ и интеллектуальный анализ данных. 6. 10.1002/сэм.11196.
  22. ^ Ли, Х.Б., Ван, В., Дин, Х.В., и Донг, Дж. (2010, 10–12 ноября 2010 г.). Метод случайного леса с взвешиванием деревьев для классификации многомерных зашумленных данных. Доклад, представленный на 7-й Международной конференции IEEE по разработке электронного бизнеса в 2010 году.
  23. ^ Чжу Р., Цзэн Д., Косорок М.Р. (2015). «Деревья обучения с подкреплением» . Журнал Американской статистической ассоциации . 110 (512): 1770–1784. дои : 10.1080/01621459.2015.1036994 . ПМК   4760114 . ПМИД   26903687 .
  24. ^ Дэн, Х.; Рангер, Г.; Тув, Э. (2011). Смещение показателей важности для многозначных атрибутов и решений . Материалы 21-й Международной конференции по искусственным нейронным сетям (ICANN). стр. 293–300.
  25. ^ Альтманн А., Толоши Л., Сандер О., Ленгауэр Т. (май 2010 г.). «Важность перестановки: исправленная мера важности функции» . Биоинформатика . 26 (10): 1340–7. doi : 10.1093/биоинформатика/btq134 . ПМИД   20385727 .
  26. ^ Пирионеси С. Маде; Эль-Дираби Тамер Э. (01.06.2020). «Роль анализа данных в управлении инфраструктурными активами: преодоление проблем с размером и качеством данных». Журнал транспортной техники, Часть B: Тротуары . 146 (2): 04020022. doi : 10.1061/JPEODX.0000175 . S2CID   216485629 .
  27. ^ Штробль С., Булестейкс А.Л., Огюстен Т. (2007). «Непредвзятый разделенный выбор для деревьев классификации на основе индекса Джини» (PDF) . Вычислительная статистика и анализ данных . 52 : 483–501. CiteSeerX   10.1.1.525.3178 . дои : 10.1016/j.csda.2006.12.030 .
  28. ^ Паинский А., Россет С. (2017). «Выбор переменных с перекрестной проверкой в ​​древовидных методах повышает эффективность прогнозирования». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 39 (11): 2142–2153. arXiv : 1512.03444 . дои : 10.1109/tpami.2016.2636831 . ПМИД   28114007 . S2CID   5381516 .
  29. ^ Толоси Л., Ленгауэр Т. (июль 2011 г.). «Классификация с коррелирующими признаками: ненадежность ранжирования признаков и решений» . Биоинформатика . 27 (14): 1986–94. doi : 10.1093/биоинформатика/btr300 . ПМИД   21576180 .
  30. ^ Перейти обратно: а б «Остерегайтесь случайных значений леса по умолчанию» . объяснил.ai . Проверено 25 октября 2023 г.
  31. ^ Брейман, Лео (25 октября 2017 г.). Деревья классификации и регрессии . Нью-Йорк: Рутледж. дои : 10.1201/9781315139470 . ISBN  978-1-315-13947-0 .
  32. ^ Ортис-Посадас, Марта Рефухио (29 февраля 2020 г.). Методы распознавания образов, применяемые к биомедицинским проблемам . Спрингер Природа. ISBN  978-3-030-38021-2 .
  33. ^ https://scikit-learn.org/stable/auto_examples/inspection/plot_permutation_importance.html 31 августа 2023 г.
  34. ^ Перейти обратно: а б Лин, Йи; Чон, Ёнхо (2002). Случайные леса и адаптивные ближайшие соседи (Технический отчет). Технический отчет № 1055. Университет Висконсина. CiteSeerX   10.1.1.153.9168 .
  35. ^ Ши, Т.; Хорват, С. (2006). «Обучение без учителя со случайными лесными предикторами». Журнал вычислительной и графической статистики . 15 (1): 118–138. CiteSeerX   10.1.1.698.2365 . дои : 10.1198/106186006X94072 . JSTOR   27594168 . S2CID   245216 .
  36. ^ Ши Т., Селигсон Д., Белльдегрун А.С., Палоти А., Хорват С. (апрель 2005 г.). «Классификация опухолей с помощью профилирования тканевых микрочипов: случайная лесная кластеризация применительно к почечно-клеточному раку» . Современная патология . 18 (4): 547–57. doi : 10.1038/modpathol.3800322 . ПМИД   15529185 .
  37. ^ Перейти обратно: а б с д и Пирионеси, С. Маде; Эль-Дираби, Тамер Э. (01 февраля 2021 г.). «Использование машинного обучения для изучения влияния типа индикатора производительности на моделирование разрушения гибкого покрытия» . Журнал инфраструктурных систем . 27 (2): 04021005. doi : 10.1061/(ASCE)IS.1943-555X.0000602 . ISSN   1076-0342 . S2CID   233550030 .
  38. ^ Принци, А.; Ван ден Поэль, Д. (2008). «Случайные леса для многоклассовой классификации: случайный многономиальный логит». Экспертные системы с приложениями . 34 (3): 1721–1732. дои : 10.1016/j.eswa.2007.01.029 .
  39. ^ Принци, Анита (2007). «Случайная мультиклассовая классификация: обобщение случайных лесов на случайные MNL и случайные NB». У Роланда Вагнера; Норман Ревелл; Гюнтер Пернул (ред.). Приложения баз данных и экспертных систем: 18-я Международная конференция, DEXA 2007, Регенсбург, Германия, 3-7 сентября 2007 г., Материалы . Конспекты лекций по информатике. Том. 4653. стр. 349–358. дои : 10.1007/978-3-540-74469-6_35 . ISBN  978-3-540-74467-2 .
  40. ^ Перейти обратно: а б Смит, Пол Ф.; Ганеша, Шива; Лю, Пин (01 октября 2013 г.). «Сравнение случайной лесной регрессии и множественной линейной регрессии для прогнозирования в нейробиологии» . Журнал методов нейробиологии . 220 (1): 85–91. doi : 10.1016/j.jneumeth.2013.08.024 . ПМИД   24012917 . S2CID   13195700 .
  41. ^ Перейти обратно: а б с д Скорнет, Эрван (2015). «Случайные леса и методы ядра». arXiv : 1502.03836 [ math.ST ].
  42. ^ Брейман, Лео (2000). «Немного теории бесконечности для ансамблей предикторов» . Технический отчет 579, Статистический отдел UCB. {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  43. ^ Лин, Йи; Чон, Ёнхо (2006). «Случайные леса и адаптивные ближайшие соседи». Журнал Американской статистической ассоциации . 101 (474): 578–590. CiteSeerX   10.1.1.153.9168 . дои : 10.1198/016214505000001230 . S2CID   2469856 .
  44. ^ Дэвис, Алекс; Гахрамани, Зубин (2014). «Ядро случайного леса и другие ядра для больших данных из случайных разделов». arXiv : 1402.4293 [ stat.ML ].
  45. ^ Перейти обратно: а б Брейман Л., Гахрамани З. (2004). «Согласованность простой модели случайных лесов». Статистический факультет Калифорнийского университета в Беркли. Технический отчет (670). CiteSeerX   10.1.1.618.90 .
  46. ^ Перейти обратно: а б Арлот С., Дженуер Р. (2014). «Анализ чисто случайной предвзятости лесов». arXiv : 1407.3939 [ math.ST ].
  47. ^ Саги, Омер; Рокач, Лиор (2020). «Объяснимый лес решений: Преобразование леса решений в интерпретируемое дерево» . Информационный синтез . 61 : 124–138. дои : 10.1016/j.inffus.2020.03.013 . S2CID   216444882 .
  48. ^ Видаль, Тибо; Шиффер, Максимилиан (2020). «Возрожденные древесные ансамбли» . Международная конференция по машинному обучению . 119 . ПМЛР: 9743–9753. arXiv : 2003.11132 .
  49. ^ Пирионеси, Сайед Маде (ноябрь 2019 г.). Применение анализа данных для управления активами: ухудшение состояния и адаптация к изменению климата на дорогах Онтарио (Докторская диссертация) (Диссертация).

Дальнейшее чтение

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 8a2851b5fc12a527e31f5dea20930aa2__1721141340
URL1:https://arc.ask3.ru/arc/aa/8a/a2/8a2851b5fc12a527e31f5dea20930aa2.html
Заголовок, (Title) документа по адресу, URL1:
Random forest - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)