~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 02B6D5E2C8422469C9CC4060523E3AA2__1716781620 ✰
Заголовок документа оригинал.:
✰ Decision tree learning - Wikipedia ✰
Заголовок документа перевод.:
✰ Обучение дереву решений — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Decision_tree_learning ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/02/a2/02b6d5e2c8422469c9cc4060523e3aa2.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/02/a2/02b6d5e2c8422469c9cc4060523e3aa2__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 01:15:27 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 27 May 2024, at 06:47 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Обучение дереву решений — Википедия Jump to content

Обучение дереву решений

Из Википедии, бесплатной энциклопедии

Обучение дереву решений — это контролируемый подход к обучению, используемый в статистике , интеллектуальном анализе данных и машинном обучении . классификации или регрессии В этом формализме дерево решений используется в качестве прогностической модели для получения выводов о наборе наблюдений.

Древовидные модели, в которых целевая переменная может принимать дискретный набор значений, называются классификации деревьями ; в этих древовидных структурах листья представляют собой метки классов, а ветви представляют собой соединения объектов, которые ведут к этим меткам классов. Деревья решений, в которых целевая переменная может принимать непрерывные значения (обычно действительные числа ), называются регрессии деревьями . В более общем смысле, концепцию дерева регрессии можно распространить на любой тип объектов, обладающих попарными несходствами, например категориальные последовательности. [1]

Деревья решений являются одними из самых популярных алгоритмов машинного обучения благодаря их понятности и простоте. [2]

При анализе решений дерево решений можно использовать для визуального и явного представления решений и процесса их принятия . При интеллектуальном анализе данных дерево решений описывает данные (но полученное дерево классификации может быть входными данными для принятия решений).

Общие [ править ]

Дерево, показывающее выживание пассажиров « Титаника» («sibsp» — количество супругов или братьев и сестер на борту). Цифры под листьями показывают вероятность выживания и процент наблюдений в листе. Подводя итог: ваши шансы на выживание были хорошими, если вы были (i) женщиной или (ii) мужчиной не старше 9,5 лет и имели строго менее трех братьев и сестер.

Обучение дереву решений — это метод, обычно используемый при интеллектуальном анализе данных. [3] Цель состоит в том, чтобы создать модель, которая прогнозирует значение целевой переменной на основе нескольких входных переменных.

Дерево решений — это простое представление для классификации примеров. В этом разделе предположим, что все входные объекты имеют конечные дискретные области и существует единственный целевой признак, называемый «классификацией». Каждый элемент области классификации называется классом . Дерево решений или дерево классификации — это дерево, в котором каждый внутренний (нелистовой) узел помечен входным признаком. Дуги, исходящие от узла, помеченного входным объектом, помечаются каждым из возможных значений целевого объекта, или дуга ведет к подчиненному узлу принятия решения по другому входному объекту. Каждый лист дерева помечен классом или распределением вероятностей по классам, что означает, что набор данных был классифицирован деревом либо по определенному классу, либо по определенному распределению вероятностей (что, если дерево решений хорошо -сконструированный, ориентирован на определенные подмножества классов).

Дерево строится путем разделения исходного набора , составляющего корневой узел дерева, на подмножества, которые составляют дочерние элементы. В основе разделения лежит набор правил разделения, основанных на признаках классификации. [4] Этот процесс повторяется для каждого производного подмножества рекурсивным способом, называемым рекурсивным секционированием . Рекурсия завершается , когда подмножество в узле имеет все те же значения целевой переменной или когда разделение больше не добавляет ценности прогнозам. Этот процесс нисходящей индукции деревьев решений (TDIDT) [5] является примером жадного алгоритма и на сегодняшний день является наиболее распространенной стратегией изучения деревьев решений на основе данных. [6]

В интеллектуальном анализе данных деревья решений можно также описать как комбинацию математических и вычислительных методов, помогающих в описании, категоризации и обобщении заданного набора данных.

Данные поступают в записи вида:

Зависимая переменная, , — это целевая переменная, которую мы пытаемся понять, классифицировать или обобщить. Вектор состоит из особенностей, и т. д., которые используются для этой задачи.

Три разных представления дерева регрессии данных о кифозе
Пример дерева, позволяющего оценить вероятность кифоза после операции на позвоночнике с учетом возраста пациента и позвонка, на котором была начата операция. Одно и то же дерево показано тремя разными способами. Слева цветные листья показывают вероятность кифоза после операции на позвоночнике и процент пациентов на листе. Середина Дерево как перспективный сюжет. Справа: вид с воздуха на средний участок. Вероятность кифоза после операции выше в более темных областях. (Примечание: лечение кифоза значительно продвинулось с тех пор, как был собран этот довольно небольшой набор данных. [ нужна цитата ] )

Типы деревьев решений [ править ]

Деревья решений, используемые при интеллектуальном анализе данных, бывают двух основных типов:

  • Анализ дерева классификации – это когда прогнозируемый результат является классом (дискретным), к которому принадлежат данные.
  • Анализ дерева регрессии – это когда прогнозируемый результат можно считать действительным числом (например, цена дома или продолжительность пребывания пациента в больнице).

Термин « дерева классификации и регрессии» (CART) анализ представляет собой общий термин, используемый для обозначения любой из вышеупомянутых процедур, впервые введенный Брейманом и др. в 1984 году. [7] Деревья, используемые для регрессии, и деревья, используемые для классификации, имеют некоторые сходства, но также и некоторые различия, например, процедуру, используемую для определения места разделения. [7]

Некоторые методы, часто называемые ансамблевыми методами, строят более одного дерева решений:

  • Усиленные деревья. Постепенное построение ансамбля путем обучения каждого нового экземпляра, чтобы подчеркнуть ранее неправильно смоделированные обучающие экземпляры. Типичный пример — AdaBoost . Их можно использовать для решения задач типа регрессии и классификации. [8] [9]
  • Комитеты деревьев решений (также называемые k-DT [10] ), ранний метод, который использовал алгоритмы рандомизированного дерева решений для создания нескольких различных деревьев на основе обучающих данных, а затем объединял их с помощью голосования большинством для получения выходных данных. [11]
  • Агрегированные (или упакованные) деревья решений Bootstrap , ранний метод ансамбля, строит несколько деревьев решений путем многократной повторной выборки обучающих данных с заменой и голосования деревьев для консенсусного прогноза. [12]
  • Ротационный лес – в котором каждое дерево решений обучается путем предварительного применения анализа главных компонентов (PCA) к случайному подмножеству входных объектов. [13]

Особым случаем дерева решений является список решений . [14] которое представляет собой одностороннее дерево решений, так что каждый внутренний узел имеет ровно 1 листовой узел и ровно 1 внутренний узел в качестве дочернего узла (за исключением самого нижнего узла, единственным дочерним узлом которого является один листовой узел). Хотя списки решений менее выразительны, их, возможно, легче понять, чем общие деревья решений, из-за их дополнительной разреженности. [ нужна цитата ] , разрешить нежадные методы обучения [15] и налагаются монотонные ограничения. [16]

Известные алгоритмы дерева решений включают:

  • ID3 (Итеративный дихотомизатор 3)
  • C4.5 (преемник ID3)
  • CART (дерево классификации и регрессии) [7]
  • OC1 (Наклонный классификатор 1). Первый метод, который создавал многомерные разбиения в каждом узле. [17]
  • Автоматическое обнаружение взаимодействия по хи-квадрату (CHAID). Выполняет многоуровневое разбиение при вычислении деревьев классификации. [18] [19] [20]
  • MARS : расширяет деревья решений для лучшей обработки числовых данных.
  • Деревья условного вывода. Подход, основанный на статистике, который использует непараметрические тесты в качестве критериев разделения, с поправкой на множественное тестирование, чтобы избежать переобучения. Этот подход приводит к беспристрастному выбору предикторов и не требует обрезки. [21] [22]

ID3 и CART были изобретены независимо примерно в одно и то же время (между 1970 и 1980 годами). [ нужна цитата ] , но используйте аналогичный подход для изучения дерева решений на основе обучающих кортежей.

Также было предложено использовать концепции теории нечетких множеств для определения специальной версии дерева решений, известной как нечеткое дерево решений (FDT). [23] В этом типе нечеткой классификации, как правило, входной вектор связан с несколькими классами, каждый из которых имеет разное значение достоверности. Недавно были исследованы усиленные ансамбли FDT, и они показали характеристики, сравнимые с характеристиками других очень эффективных нечетких классификаторов. [24]

Метрики [ править ]

Алгоритмы построения деревьев решений обычно работают сверху вниз, выбирая на каждом этапе переменную, которая наилучшим образом разделяет набор элементов. [6] Различные алгоритмы используют разные показатели для измерения «лучшего». Обычно они измеряют однородность целевой переменной внутри подмножеств. Некоторые примеры приведены ниже. Эти метрики применяются к каждому подмножеству кандидатов, а полученные значения объединяются (например, усредняются), чтобы обеспечить меру качества разделения. В зависимости от базовой метрики производительность различных эвристических алгоритмов обучения дерева решений может значительно различаться. [25]

положительной корректности Оценка

Для определения степени, в которой истинные положительные результаты перевешивают ложные положительные результаты, можно использовать простой и эффективный показатель (см. Матрицу путаницы ). Этот показатель «Оценка положительной корректности» определен ниже:

В этом уравнении общее количество ложных срабатываний (FP) вычитается из общего количества истинных срабатываний (TP). Полученное число дает оценку того, сколько положительных примеров функция может правильно идентифицировать в данных. Более высокие числа означают, что функция может правильно классифицировать больше положительных образцов. Ниже приведен пример использования метрики, когда задана полная матрица путаницы для определенного признака:

Матрица путаницы

Предсказанный
Сорт
Фактический класс
Рак Нерак
Рак 8 3
Нерак 2 5

Здесь мы видим, что значение TP будет равно 8, а значение FP — 2 (подчеркнутые цифры в таблице). Подставив эти числа в уравнение, мы сможем рассчитать оценку: . Это означает, что при использовании оценки этой функции она получит оценку 6.

Однако следует отметить, что эта цифра является лишь приблизительной. Например, если два объекта имеют значение FP, равное 2, а один из объектов имеет более высокое значение TP, этот объект будет иметь более высокий рейтинг, чем другой, поскольку результирующая оценка при использовании уравнения даст более высокое значение. Это может привести к некоторым неточностям при использовании метрики, если некоторые функции имеют больше положительных выборок, чем другие. Чтобы бороться с этим, можно использовать более мощную метрику, известную как «Чувствительность» , которая учитывает пропорции значений из матрицы путаницы, чтобы получить фактический истинно положительный уровень (TPR). Разница между этими показателями показана на примере ниже:

Матрица путаницы
Предсказанный
Сорт
Фактический класс
Рак Нерак
Рак 8 3
Нерак 2 5
Функция B Матрица путаницы
Предсказанный
Сорт
Фактический класс
Рак Нерак
Рак 6 2
Нерак 2 8

В этом примере функция A имела оценку 6 и TPR примерно 0,73, тогда как функция B имела оценку 4 и TPR 0,75. Это показывает, что, хотя положительная оценка для некоторого объекта может быть выше, более точное значение TPR для этого объекта может быть ниже по сравнению с другими объектами, которые имеют более низкую положительную оценку. В зависимости от ситуации и знания данных и деревьев решений можно использовать положительную оценку для быстрого и простого решения своей проблемы. С другой стороны, более опытный пользователь, скорее всего, предпочтет использовать значение TPR для ранжирования объектов, поскольку оно учитывает пропорции данных и всех выборок, которые должны были быть классифицированы как положительные.

Джини примесь [ править ]

Примесь Джини , индекс разнообразия Джини , [26] или Индекс Джини-Симпсона в исследованиях биоразнообразия, назван в честь итальянского математика Коррадо Джини и используется алгоритмом CART (дерево классификации и регрессии) для деревьев классификации. Примесь Джини измеряет, как часто случайно выбранный элемент набора будет помечен неправильно, если бы он был помечен случайно и независимо в соответствии с распределением меток в наборе. Он достигает своего минимума (нуля), когда все случаи в узле попадают в одну целевую категорию.

Для набора предметов с классы и относительные частоты , , вероятность выбора предмета с меткой является , и вероятность неправильной категоризации этого элемента равна . Примесь Джини вычисляется путем суммирования попарных произведений этих вероятностей для каждой метки класса:

Примесь Джини также является мерой теории информации и соответствует энтропии Цаллиса с коэффициентом деформации. , что в физике связано с недостатком информации в неравновесных, неэкстенсивных, диссипативных и квантовых системах. Для лимита восстанавливается обычная энтропия Больцмана-Гиббса или Шеннона. В этом смысле примесь Джини представляет собой не что иное, как вариацию обычной меры энтропии для деревьев решений.

Получение информации [ править ]

Используется ID3 , C4.5 алгоритмами генерации дерева и C5.0. Получение информации основано на концепции энтропии и информационного содержания из теории информации .

Энтропия определяется, как показано ниже.

где представляют собой дроби, сумма которых равна 1 и представляет собой процент каждого класса, присутствующего в дочернем узле, который является результатом разделения дерева. [27]

Усреднение по возможным значениям ,

Если взвешенная сумма энтропий определяется выражением,

То есть ожидаемый прирост информации — это взаимная информация , а это означает, что в среднем уменьшение энтропии T является взаимной информацией.

Полученная информация используется для принятия решения о том, по какому признаку следует разделить на каждом этапе построения дерева. Простота лучше всего, поэтому мы хотим, чтобы наше дерево было небольшим. Для этого на каждом шаге мы должны выбирать разделение, которое приводит к наиболее согласованным дочерним узлам. Обычно используемой мерой согласованности называется информация , которая измеряется в битах . Для каждого узла дерева информационное значение «представляет собой ожидаемый объем информации, которая потребуется для определения того, следует ли классифицировать новый экземпляр как да или нет, учитывая, что пример достиг этого узла». [27]

Рассмотрим пример набора данных с четырьмя атрибутами: прогноз погоды (солнечно, пасмурно, дождливо), температура (жарко, умеренно, прохладно), влажность (высокая, нормальная) и ветрено (истина, ложь) с двоичным значением (да или нет). целевая переменная, play и 14 точек данных. Чтобы построить дерево решений на основе этих данных, нам нужно сравнить прирост информации каждого из четырех деревьев, каждое из которых разделено по одному из четырех признаков. Разделение с наибольшим приростом информации будет считаться первым разделением, и процесс будет продолжаться до тех пор, пока каждый из дочерних узлов не будет иметь согласованные данные или пока прирост информации не станет равным 0.

Чтобы найти прирост информации от разделения с помощью Windy , мы должны сначала вычислить информацию в данных перед разделением. Исходные данные содержали девять «да» и пять «нет».

Разделение с использованием функции Windy приводит к образованию двух дочерних узлов: один для ветрового значения true, а другой для ветрового значения false. В этом наборе данных есть шесть точек данных с истинным значением ветра , три из которых имеют значение play (где play — целевая переменная) «да», а три — со значением « нет». Восемь оставшихся точек данных с переменным значением false содержат два «нет» и шесть «да». Информация узла «windy =true» рассчитывается с использованием приведенного выше уравнения энтропии. Поскольку в этом узле одинаковое количество «да» и «нет», мы имеем

Для узла, где Windy = False, было восемь точек данных: шесть «да» и два «нет». Таким образом, мы имеем

Чтобы найти информацию о разделении, мы берем средневзвешенное значение этих двух чисел в зависимости от того, сколько наблюдений попало в какой узел.

Теперь мы можем вычислить прирост информации, полученный за счет разделения на ветреную особенность.

Чтобы построить дерево, необходимо рассчитать прирост информации от каждого возможного первого разделения. Лучшее первое разделение — это то, которое обеспечивает наибольший прирост информации. Этот процесс повторяется для каждого нечистого узла, пока дерево не будет завершено. Этот пример адаптирован из примера, приведенного в Witten et al. [27]

Прирост информации также известен как индекс Шеннона в исследованиях биоразнообразия.

Уменьшение дисперсии [ править ]

Представлено в КОРЗИНЕ, [7] уменьшение дисперсии часто используется в тех случаях, когда целевая переменная является непрерывной (дерево регрессии), а это означает, что использование многих других показателей сначала потребует дискретизации перед их применением. Уменьшение дисперсии узла N определяется как общее уменьшение дисперсии целевой переменной Y вследствие разделения в этом узле:

где , , и представляют собой набор индексов выборки перед разделением, набор индексов выборки, для которых сплит-тест верен, и набор индексов выборки, для которых сплит-тест является ложным, соответственно. Однако каждое из приведенных выше слагаемых действительно является оценкой дисперсии , записанной в форме без прямой ссылки на среднее значение.

Заменив в формуле выше с несходством между двумя объектами и , критерий уменьшения дисперсии применяется к любому типу объектов, для которых можно вычислить попарные несходства. [1]

Мера «доброты» [ править ]

Используется CART в 1984 году, [28] мера «хорошести» — это функция, которая стремится оптимизировать баланс способности раскола-кандидата создавать чистых детей с его способностью создавать детей одинакового размера. Этот процесс повторяется для каждого нечистого узла, пока дерево не будет завершено. Функция , где является кандидатом, разделенным в узле , определяется, как показано ниже

где и являются левыми и правыми дочерними элементами узла использование разделения , соответственно; и доли записей в в и , соответственно; и и это пропорции класса записи в и , соответственно.

Рассмотрим пример набора данных с тремя атрибутами: сбережения (низкий, средний, высокий), активы (низкий, средний, высокий), доход (числовое значение) и бинарная целевая переменная кредитного риска (хороший, плохой) и 8 точек данных. [28] Полные данные представлены в таблице ниже. Чтобы запустить дерево решений, мы рассчитаем максимальное значение используя каждую функцию, чтобы найти, какая из них разделит корневой узел. Этот процесс будет продолжаться до тех пор, пока все дети не станут чистыми или все значения ниже установленного порога.

Клиент Экономия Ресурсы Доход (1000 долларов США) Риск кредита
1 Середина Высокий 75 Хороший
2 Низкий Низкий 50 Плохой
3 Высокий Середина 25 Плохой
4 Середина Середина 50 Хороший
5 Низкий Середина 100 Хороший
6 Высокий Высокий 25 Хороший
7 Низкий Низкий 25 Плохой
8 Середина Середина 75 Хороший

Найти функций Что касается экономии , нам нужно отметить количество каждого значения. Исходные данные содержали три минимума, три средних и два максимума. Из низких показателей один имел хороший кредитный риск , а из средних и высоких - хороший кредитный риск имелся у четырех . Предположим, что кандидаты раскололись так, что записи с низкими сбережениями будут помещены в левый дочерний элемент, а все остальные записи будут помещены в правый дочерний элемент.

Чтобы построить дерево, необходимо вычислить «качественность» всех кандидатов на расщепление для корневого узла. Кандидат с максимальным значением разделит корневой узел, и процесс будет продолжаться для каждого нечистого узла, пока дерево не будет завершено.

По сравнению с другими показателями, такими как получение информации, показатель «хорошести» будет пытаться создать более сбалансированное дерево, что приведет к более последовательному времени принятия решений. Однако он жертвует некоторым приоритетом ради создания чистых дочерних элементов, что может привести к дополнительным разделениям, которых нет в других показателях.

Использует [ править ]

Преимущества [ править ]

Среди других методов интеллектуального анализа данных деревья решений имеют различные преимущества:

  • Просто понять и интерпретировать. Люди могут понять модели дерева решений после краткого объяснения. Деревья также можно отображать графически, чтобы их было легко интерпретировать неспециалистам. [29]
  • Способен обрабатывать как числовые, так и категориальные данные. [29] Другие методы обычно специализируются на анализе наборов данных, содержащих переменные только одного типа. (Например, правила отношений можно использовать только с номинальными переменными, а нейронные сети можно использовать только с числовыми переменными или категориальными величинами, преобразованными в значения 0–1.) Ранние деревья решений были способны обрабатывать только категориальные переменные, но более поздние версии, такие как как C4.5, не имеют этого ограничения. [3]
  • Требует небольшой подготовки данных. Другие методы часто требуют нормализации данных. Поскольку деревья могут обрабатывать качественные предикторы, нет необходимости создавать фиктивные переменные . [29]
  • Использует белый ящик или открытый ящик. [3] модель. Если данная ситуация наблюдаема в модели, объяснение условия легко объясняется булевой логикой . Напротив, в модели черного ящика объяснение результатов обычно трудно понять, например, с помощью искусственной нейронной сети .
  • Можно проверить модель с помощью статистических тестов. Это позволяет учитывать надежность модели.
  • Непараметрический подход, который не делает никаких предположений относительно обучающих данных или остатков прогноза; например, никаких предположений о распределении, независимости или постоянной дисперсии
  • Хорошо работает с большими наборами данных. Большие объемы данных можно анализировать с использованием стандартных вычислительных ресурсов в разумные сроки.
  • Точность благодаря гибкому моделированию . Эти методы могут быть применены к медицинским исследованиям с повышенной точностью. [30]
  • Более точно отражает процесс принятия решений человеком, чем другие подходы. [29] Это может быть полезно при моделировании человеческих решений/поведения.
  • Устойчив к коллинеарности, особенно к ускорению.
  • Встроенный выбор функций . Дополнительные ненужные функции будут использоваться реже, поэтому их можно будет удалить при последующих запусках. Иерархия атрибутов в дереве решений отражает важность атрибутов. [31] Это означает, что функции сверху являются наиболее информативными. [32]
  • Деревья решений могут аппроксимировать любую логическую функцию, например XOR . [33]

Ограничения [ править ]

  • Деревья могут быть очень ненадежными. Небольшое изменение в обучающих данных может привести к большим изменениям в дереве и, следовательно, к окончательным прогнозам. [29]
  • Известно, что задача обучения оптимального дерева решений является NP-полной при некоторых аспектах оптимальности и даже для простых концепций. [34] [35] Следовательно, практические алгоритмы обучения дерева решений основаны на эвристиках, таких как жадный алгоритм , в котором локально оптимальные решения принимаются в каждом узле. Такие алгоритмы не могут гарантировать получение глобально оптимального дерева решений. Чтобы уменьшить жадный эффект локальной оптимальности, были предложены некоторые методы, такие как дерево двойного информационного расстояния (DID). [36]
  • Обучающиеся, использующие дерево решений, могут создавать слишком сложные деревья, которые плохо обобщают данные обучения. (Это известно как переобучение . [37] ) Чтобы избежать этой проблемы, необходимы такие механизмы, как сокращение (за исключением некоторых алгоритмов, таких как подход условного вывода, который не требует сокращения). [21] [22]
  • Средняя глубина дерева, которая определяется количеством узлов или тестов до классификации, не обязательно будет минимальной или маленькой при различных критериях разделения. [38]
  • Для данных, включающих категориальные переменные с разным количеством уровней, прирост информации в деревьях решений смещен в пользу атрибутов с большим количеством уровней. [39] Чтобы решить эту проблему, вместо выбора атрибута с наибольшим приростом информации можно выбрать атрибут с самым высоким коэффициентом прироста информации среди атрибутов, чей прирост информации превышает средний прирост информации. [40] Это смещает дерево решений в сторону рассмотрения атрибутов с большим количеством различных значений, но при этом не дает несправедливого преимущества атрибутам с очень низким информационным потенциалом. Альтернативно, проблемы предвзятого выбора предикторов можно избежать с помощью подхода условного вывода. [21] двухэтапный подход, [41] или адаптивный выбор исключаемых функций. [42]

Реализации [ править ]

Многие пакеты программного обеспечения для интеллектуального анализа данных предоставляют реализации одного или нескольких алгоритмов дерева решений (например, случайного леса).

Примеры с открытым исходным кодом включают:

  • ALGLIB , библиотека численного анализа C++, C# и Java с функциями анализа данных (случайный лес)
  • KNIME , бесплатная платформа для анализа данных, отчетности и интеграции с открытым исходным кодом (деревья решений, случайный лес)
  • Orange — набор инструментов для визуализации данных, машинного обучения и интеллектуального анализа данных с открытым исходным кодом (случайный лес).
  • R (программная среда с открытым исходным кодом для статистических вычислений, которая включает в себя несколько реализаций CART, таких как пакеты rpart, party и randomForest),
  • scikit-learn (бесплатная библиотека машинного обучения с открытым исходным кодом для языка программирования Python ).
  • Weka (бесплатный пакет анализа данных с открытым исходным кодом, содержит множество алгоритмов дерева решений),

Известное коммерческое программное обеспечение:

Расширения [ править ]

Графики решений [ править ]

В дереве решений все пути от корневого узла к конечному узлу проходят посредством конъюнкции или AND . В графе решений можно использовать дизъюнкции (OR), чтобы соединить еще два пути вместе, используя минимальную длину сообщения (MML). [43] Графики решений были дополнительно расширены, чтобы обеспечить возможность динамического изучения ранее не заявленных новых атрибутов и их использования в разных местах графика. [44] Более общая схема кодирования приводит к повышению точности прогнозирования и вероятностной оценки логарифмических потерь. [ нужна цитата ] В общем, графы решений подразумевают модели с меньшим количеством листьев, чем деревья решений.

Альтернативные методы поиска [ править ]

Эволюционные алгоритмы использовались, чтобы избежать локальных оптимальных решений и осуществлять поиск в пространстве дерева решений с небольшой априорной предвзятостью. [45] [46]

Также возможно выборку дерева с помощью MCMC . [47]

Дерево можно искать снизу вверх. [48] Или можно построить несколько деревьев параллельно, чтобы сократить ожидаемое количество тестов до классификации. [38]

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б Штудер, Матиас; Ритчард, Гилберт; Габадиньо, Алексис; Мюллер, Николас С. (2011). «Анализ несоответствий последовательностей состояний» . Социологические методы и исследования . 40 (3): 471–510. дои : 10.1177/0049124111415372 . ISSN   0049-1241 . S2CID   13307797 .
  2. ^ У, Синьдун; Кумар, Випин; Росс Куинлан, Дж.; Гош, Джойдип; Ян, Цян; Мотода, Хироши; Маклахлан, Джеффри Дж.; Нг, Ангус; Лю, Бинг; Ю, Филип С.; Чжоу, Чжи-Хуа (01 января 2008 г.). «10 лучших алгоритмов интеллектуального анализа данных». Знания и информационные системы . 14 (1): 1–37. дои : 10.1007/s10115-007-0114-2 . hdl : 10983/15329 . ISSN   0219-3116 . S2CID   2367747 .
  3. ^ Перейти обратно: а б с Рокач, Лиор; Маймон, О. (2014). Интеллектуальный анализ данных с помощью деревьев решений: теория и приложения, 2-е издание . World Scientific Pub Co Inc. doi : 10.1142/9097 . ISBN  978-9814590075 . S2CID   44697571 .
  4. ^ Шалев-Шварц, Шай; Бен-Давид, Шай (2014). «18. Деревья решений». Понимание машинного обучения . Издательство Кембриджского университета.
  5. ^ Куинлан, младший (1986). «Индукция деревьев решений» (PDF) . Машинное обучение . 1 : 81–106. дои : 10.1007/BF00116251 . S2CID   189902138 .
  6. ^ Перейти обратно: а б Рокач, Л.; Маймон, О. (2005). «Нисходящая индукция классификаторов деревьев решений - опрос». Транзакции IEEE в системах, человеке и кибернетике. Часть C: Приложения и обзоры . 35 (4): 476–487. CiteSeerX   10.1.1.458.7031 . дои : 10.1109/TSMCC.2004.843247 . S2CID   14808716 .
  7. ^ Перейти обратно: а б с д Брейман, Лео; Фридман, Дж. Х.; Ольшен, РА; Стоун, CJ (1984). Деревья классификации и регрессии . Монтерей, Калифорния: Wadsworth & Brooks/Cole Advanced Books & Software. ISBN  978-0-412-04841-8 .
  8. ^ Фридман, Дж. Х. (1999). Повышение стохастического градиента. Архивировано 28 ноября 2018 г. на Wayback Machine . Стэндфордский Университет.
  9. ^ Хасти Т., Тибширани Р., Фридман Дж. Х. (2001). Элементы статистического обучения: интеллектуальный анализ данных, логические выводы и прогнозирование. Нью-Йорк: Springer Verlag.
  10. ^ Хит Д., Касиф С. и Зальцберг С. (1993). k-DT: метод обучения с несколькими деревьями. В материалах второго международного заседания. Семинар по мультистратегическому обучению , стр. 138-149.
  11. ^ Хит Д., Касиф С. и Зальцберг С.Л. (1996). Комитеты деревьев решений. В: Б. Горайска и Дж. Мей (ред.), «Когнитивные технологии: в поисках гуманного интерфейса» (стр. 305–317). Амстердам: Elsevier Science BV
  12. ^ Брейман, Л. (1996). «Предсказатели мешков» . Машинное обучение . 24 (2): 123–140. дои : 10.1007/BF00058655 .
  13. ^ Родригес, Джей-Джей; Кунчева Л.И. ; Алонсо, CJ (2006). «Вращающийся лес: новый метод ансамбля классификаторов». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 28 (10): 1619–1630. CiteSeerX   10.1.1.156.8277 . дои : 10.1109/TPAMI.2006.211 . ПМИД   16986543 . S2CID   6847493 .
  14. ^ Ривест, Рон (ноябрь 1987 г.). «Списки учебных решений» (PDF) . Машинное обучение . 3 (2): 229–246. дои : 10.1023/А:1022607331053 . S2CID   30625841 .
  15. ^ Летэм, Бен; Рудин, Синтия ; Маккормик, Тайлер; Мэдиган, Дэвид (2015). «Интерпретируемые классификаторы с использованием правил и байесовского анализа: построение лучшей модели прогнозирования инсульта». Анналы прикладной статистики . 9 (3): 1350–1371. arXiv : 1511.01644 . дои : 10.1214/15-AOAS848 . S2CID   17699665 .
  16. ^ Ван, Фултон; Рудин, Синтия (2015). «Падающие списки правил» (PDF) . Журнал исследований машинного обучения . 38 . Архивировано из оригинала (PDF) 28 января 2016 г. Проверено 22 января 2016 г.
  17. ^ Мурти, СК (1994). «Система индукции наклонных деревьев решений» . Журнал исследований искусственного интеллекта . 2 (1): 1–32. дои : 10.1613/jair.63 .
  18. ^ Касс, Г.В. (1980). «Исследовательский метод исследования больших объемов категориальных данных». Прикладная статистика . 29 (2): 119–127. дои : 10.2307/2986296 . JSTOR   2986296 .
  19. ^ Биггс, Дэвид; Де Виль, Барри; Суен, Эд (1991). «Метод выбора многопутевых разбиений для деревьев классификации и решений» . Журнал прикладной статистики . 18 (1): 49–62. Бибкод : 1991JApSt..18...49B . дои : 10.1080/02664769100000005 . ISSN   0266-4763 .
  20. ^ Ритчард, Г. (2013), « CHAID и ранее контролируемые древовидные методы», в Дж. Дж. МакАрдле и Г. Ритчарде (редакторы), Современные проблемы исследовательского интеллектуального анализа данных в поведенческих науках , Серия количественных методологий, Нью-Йорк: Routledge, страницы 48-74. Препринт
  21. ^ Перейти обратно: а б с Хотхорн, Т.; Хорник, К.; Зейлейс, А. (2006). «Беспристрастное рекурсивное разбиение: структура условного вывода». Журнал вычислительной и графической статистики . 15 (3): 651–674. CiteSeerX   10.1.1.527.2935 . дои : 10.1198/106186006X133933 . JSTOR   27594202 . S2CID   6074128 .
  22. ^ Перейти обратно: а б Штробль, К.; Мэлли, Дж.; Тутц, Г. (2009). «Введение в рекурсивное секционирование: обоснование, применение и характеристики деревьев классификации и регрессии, мешков и случайных лесов» . Психологические методы . 14 (4): 323–348. дои : 10.1037/a0016973 . ПМЦ   2927982 . ПМИД   19968396 .
  23. ^ Яников, Чехия (1998). «Нечеткие деревья решений: проблемы и методы». Транзакции IEEE о системах, человеке и кибернетике. Часть B: Кибернетика . 28 (1): 1–14. дои : 10.1109/3477.658573 . ПМИД   18255917 .
  24. ^ Барсакки, М.; Бечини, А.; Марчеллони, Ф. (2020). «Анализ усиленных ансамблей бинарных нечетких деревьев решений» . Экспертные системы с приложениями . 154 : 113436. doi : 10.1016/j.eswa.2020.113436 . S2CID   216369273 .
  25. ^ Найманн, Оливер (1992). Приемы и эвристика приобретения символических знаний на примерах (Диссертация). Докторская диссертация.
  26. ^ «Выращивание деревьев решений» . Матворкс .
  27. ^ Перейти обратно: а б с Виттен, Ян; Фрэнк, Ю; Холл, Марк (2011). Сбор данных . Берлингтон, Массачусетс: Морган Кауфманн. С. 102–103 . ISBN  978-0-12-374856-0 .
  28. ^ Перейти обратно: а б Лароуз, Дэниел Т.; Лароз, Шанталь Д. (2014). Обнаружение знаний в данных: введение в интеллектуальный анализ данных . John Wiley & Sons, Inc. Хобокен, Нью-Джерси: ISBN  9781118874059 .
  29. ^ Перейти обратно: а б с д Это Гарет, Джеймс; Виттен, Даниэла; Хасти, Тревор; Тибширани, Роберт (2015). Введение в статистическое обучение . Нью-Йорк: Спрингер. стр. 315 . ISBN  978-1-4614-7137-0 .
  30. ^ Ху, Лянъюань; Ли, Лихуа (01 декабря 2022 г.). «Использование древовидного машинного обучения для исследований в области здравоохранения: обзор литературы и серия примеров» . Международный журнал экологических исследований и общественного здравоохранения . 19 (23): 16080. doi : 10.3390/ijerph192316080 . ISSN   1660-4601 . ПМЦ   9736500 . ПМИД   36498153 .
  31. ^ Провост, Фостер, 1964- (2013). Наука о данных для бизнеса: [что нужно знать об интеллектуальном анализе данных и аналитическом мышлении] . Фосетт, Том. (1-е изд.). Севастополь, Калифорния: О'Рейли. ISBN  978-1-4493-6132-7 . OCLC   844460899 . {{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка ) CS1 maint: числовые имена: список авторов ( ссылка )
  32. ^ Пирионеси С. Маде; Эль-Дираби Тамер Э. (01.06.2020). «Роль анализа данных в управлении инфраструктурными активами: преодоление проблем с размером и качеством данных». Журнал транспортной техники, Часть B: Тротуары . 146 (2): 04020022. doi : 10.1061/JPEODX.0000175 . S2CID   216485629 .
  33. ^ Мехтаа, Динеш; Рагхаван, Виджай (2002). «Аппроксимация дерева решений булевых функций» . Теоретическая информатика . 270 (1–2): 609–623. дои : 10.1016/S0304-3975(01)00011-1 .
  34. ^ Хиафил, Лоран; Ривест, Р.Л. (1976). «Построение оптимальных двоичных деревьев решений является NP-полным». Письма об обработке информации . 5 (1): 15–17. дои : 10.1016/0020-0190(76)90095-8 .
  35. ^ Мерти С. (1998). «Автоматическое построение деревьев решений на основе данных: междисциплинарный опрос» . Интеллектуальный анализ данных и обнаружение знаний
  36. ^ Бен-Гал И. Дана А., Школьник Н. и Сингер (2014). «Эффективное построение деревьев решений методом двойного информационного расстояния» (PDF) . Технология качества и количественный менеджмент . 11 (1): 133–147. дои : 10.1080/16843703.2014.11673330 . S2CID   7025979 . Архивировано из оригинала (PDF) 4 июня 2016 г. Проверено 13 февраля 2014 г.
  37. ^ Принципы интеллектуального анализа данных . 2007. doi : 10.1007/978-1-84628-766-4 . ISBN  978-1-84628-765-7 . S2CID   45746 .
  38. ^ Перейти обратно: а б Бен-Гал И. и Тристер К. (2015). «Параллельное построение деревьев решений с постоянно не растущим ожидаемым количеством тестов» (PDF) . Прикладные стохастические модели в бизнесе и промышленности, Vol. 31(1) 64-78. Архивировано из оригинала (PDF) 5 февраля 2021 г. Проверено 30 января 2021 г. {{cite web}}: CS1 maint: числовые имена: список авторов ( ссылка )
  39. ^ Дэн, Х.; Рангер, Г.; Тув, Э. (2011). Смещение показателей важности для многозначных атрибутов и решений . Материалы 21-й Международной конференции по искусственным нейронным сетям (ICANN). стр. 293–300.
  40. ^ Куинлан, Дж. Росс (1986). «Индукция деревьев решений» . Машинное обучение . 1 (1): 81–106. дои : 10.1007/BF00116251 .
  41. ^ Брандмайер, Андреас М.; Эрцен, Тимо фон; Макардл, Джон Дж.; Линденбергер, Ульман (2012). «Деревья моделей структурных уравнений» . Психологические методы . 18 (1): 71–86. дои : 10.1037/a0030001 . hdl : 11858/00-001M-0000-0024-EA33-9 . ПМК   4386908 . ПМИД   22984789 .
  42. ^ Паинский, Амихай; Россе, Сахарон (2017). «Выбор переменных с перекрестной проверкой в ​​древовидных методах повышает эффективность прогнозирования». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 39 (11): 2142–2153. arXiv : 1512.03444 . дои : 10.1109/TPAMI.2016.2636831 . ПМИД   28114007 . S2CID   5381516 .
  43. ^ «CiteSeerX» .
  44. ^ Тан и Доу (2003)
  45. ^ Папагелис, А.; Каллес, Д. (2001). «Построение деревьев решений с использованием эволюционных методов» (PDF) . Материалы восемнадцатой международной конференции по машинному обучению, 28 июня – 1 июля 2001 г. стр. 393–400.
  46. ^ Баррос, Родриго К.; Басгалупп, депутат парламента; Карвальо, ACPLF; Фрейтас, Алекс А. (2012). «Обзор эволюционных алгоритмов индукции дерева решений». Транзакции IEEE по системам, человеку и кибернетике . Часть C: Приложения и обзоры. 42 (3): 291–312. CiteSeerX   10.1.1.308.9068 . дои : 10.1109/TSMCC.2011.2157494 . S2CID   365692 .
  47. ^ Чипман, Хью А.; Джордж, Эдвард И.; Маккалок, Роберт Э. (1998). «Поиск байесовской модели CART». Журнал Американской статистической ассоциации . 93 (443): 935–948. CiteSeerX   10.1.1.211.5573 . дои : 10.1080/01621459.1998.10473750 .
  48. ^ Баррос, RC; Серри, Р.; Ясковяк, Пенсильвания; Карвальо, ACPLF (2011). «Алгоритм индукции наклонного дерева решений снизу вверх». Материалы 11-й Международной конференции по проектированию и применению интеллектуальных систем (ISDA 2011) . стр. 450–456. дои : 10.1109/ISDA.2011.6121697 . ISBN  978-1-4577-1676-8 . S2CID   15574923 .

Дальнейшее чтение [ править ]

  • Джеймс, Гарет; Виттен, Даниэла; Хасти, Тревор; Тибширани, Роберт (2017). «Древовидные методы» (PDF) . Введение в статистическое обучение: с приложениями на R. Нью-Йорк: Спрингер. стр. 303–336. ISBN  978-1-4614-7137-0 .

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 02B6D5E2C8422469C9CC4060523E3AA2__1716781620
URL1:https://en.wikipedia.org/wiki/Decision_tree_learning
Заголовок, (Title) документа по адресу, URL1:
Decision tree learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)