~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ BE09043FEF856D144B3F80D4537E792C__1672756980 ✰
Заголовок документа оригинал.:
✰ Alternating decision tree - Wikipedia ✰
Заголовок документа перевод.:
✰ Альтернативное дерево решений — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Alternating_decision_tree ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/be/2c/be09043fef856d144b3f80d4537e792c.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/be/2c/be09043fef856d144b3f80d4537e792c__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 20:34:39 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 3 January 2023, at 17:43 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Альтернативное дерево решений — Википедия Jump to content

Альтернативное дерево решений

Из Википедии, бесплатной энциклопедии

Альтернативное дерево решений (ADTree) — это метод машинного обучения для классификации. Он обобщает деревья решений и связан с повышением .

ADTree состоит из чередующихся узлов решения, которые определяют условие предиката, и узлов прогнозирования, которые содержат одно число. Экземпляр классифицируется с помощью ADTree путем следования по всем путям, для которых все узлы принятия решений являются истинными, и суммирования всех пройденных узлов прогнозирования.

История [ править ]

ADTree были представлены Йоавом Фройндом и Лью Мейсоном. [1] Однако представленный алгоритм содержал несколько опечаток. Разъяснения и оптимизации были позже представлены Бернхардом Пфарингером, Джеффри Холмсом и Ричардом Киркби. [2] Реализации доступны в Weka и JBoost.

Мотивация [ править ]

В оригинальных алгоритмах повышения обычно использовались либо пни решений, либо или деревья решений как слабые гипотезы. Например, увеличение количества пней при принятии решений создает набор взвешенные пни решений (где — количество итераций повышения), которые затем голосуют за окончательную классификацию в соответствии со своими весами. Отдельные пни решений взвешиваются в зависимости от их способности классифицировать данные.

Повышение эффективности простого обучающегося приводит к получению неструктурированного набора гипотезы, что затрудняет вывод корреляций между атрибутами. Переменные деревья решений придают структуру набору гипотез, требуя, чтобы они основывались на гипотезе, созданной на более ранней итерации. Полученный набор гипотез можно визуализировать в виде дерева на основе отношений между гипотезой и ее «родителем».

данные получают разное распределение Еще одна важная особенность усиленных алгоритмов заключается в том, что на каждой итерации . Экземпляры, которые неправильно классифицированы, получают больший вес, тогда как точно классифицированные экземпляры имеют меньший вес.

Альтернативная древовидная структура решений [ править ]

Альтернативное дерево решений состоит из узлов принятия решений и узлов прогнозирования. Узлы решений определяют предикатное условие. Узлы прогнозирования содержат одно число. У ADTree всегда есть узлы прогнозирования как корневые, так и листья. Экземпляр классифицируется с помощью ADTree путем следования по всем путям, для которых все узлы решений являются истинными, и суммирования всех пройденных узлов прогнозирования. Это отличается от деревьев двоичной классификации, таких как CART ( дерево классификации и регрессии ) или C4.5 , в которых экземпляр следует только одному пути через дерево.

Пример [ править ]

Следующее дерево было построено с использованием JBoost на наборе данных базы спама. [3] (доступно в репозитории машинного обучения UCI). [4] В этом примере спам кодируется как 1 , а обычная электронная почта — как −1 .

ADTree для 6 итераций набора данных Spambase.
An ADTree for 6 iterations on the Spambase dataset.

В следующей таблице содержится часть информации для одного экземпляра.

Экземпляр, подлежащий классификации
Особенность Ценить
char_freq_bang 0.08
word_freq_hp 0.4
Capital_run_length_longest 4
char_freq_dollar 0
word_freq_remove 0.9
word_freq_george 0
Другие особенности ...

Экземпляр оценивается путем суммирования всех узлов прогнозирования, через которые он проходит. В приведенном выше случае оценка равна рассчитано как

Оценка для приведенного выше экземпляра
Итерация 0 1 2 3 4 5 6
Значения экземпляра 0,08 < 0,052 = f .4 < .195 = f 0 < 0,01 = т 0 <0,005 = т 0,9 < 0,225 = е
Прогноз -0.093 0.74 -1.446 -0.38 0.176 0 1.66

Итоговая оценка 0,657 является положительной, поэтому экземпляр классифицируется как спам. Величина значения является мерой уверенности в прогнозе. Авторы оригинальной версии перечисляют три потенциальных уровня интерпретации набора атрибутов, идентифицируемых ADTree:

  • Отдельные узлы можно оценить на предмет их собственных прогнозирующих способностей.
  • Наборы узлов на одном пути можно интерпретировать как имеющие совместный эффект.
  • Дерево можно интерпретировать как единое целое.

Необходимо проявлять осторожность при интерпретации отдельных узлов, поскольку оценки отражают повторное взвешивание данных на каждой итерации.

Описание алгоритма [ править ]

Входными данными для алгоритма альтернативного дерева решений являются:

  • Набор входов где вектор атрибутов и равно -1 или 1. Входные данные также называются экземплярами.
  • Набор гирь соответствующий каждому экземпляру.

Фундаментальным элементом алгоритма ADTree является правило. Один Правило состоит из предварительного условия, условия и двух оценок. А условие — это предикат формы «значение атрибута <сравнение>». Предварительное условие — это просто логическое сочетание условий. Оценка правила включает пару вложенных операторов if:

1  если  (предварительное условие) 
  2  если  (условие) 
  3  возврата,  счет_один 
  4  еще 
  5  возвратов  счет_два 
  6  конец, если 
  7  еще 
  8  вернуть  0 
  9  конец, если 

Алгоритму также необходимы несколько вспомогательных функций:

  • возвращает сумму весов всех положительно помеченных примеров, удовлетворяющих предикату
  • возвращает сумму весов всех примеров с отрицательной пометкой, которые удовлетворяют предикату
  • возвращает сумму весов всех примеров, удовлетворяющих предикату

Алгоритм следующий:

1  функция  ad_tree 
  2  входа  Набор из  m  обучающих экземпляров 
  3  
  4  w  i  = 1/  m  для всех  i 
  5 6  R  0  =  правило с оценками  a  и  0  , предусловием «истина» и условием «истина». 
  7 
8   совокупность всех возможных условий 
  9  за  
10        получить значения   , которые минимизируют 
11       
12       
13       14  R  j  =  новое правило с предусловием  p  , условием  c  и весами  a  1  и  a  2 
  15 16  конец для 
  17  возвратный  набор  R  j 

Набор увеличивается на два предусловия в каждой итерации, и можно получить древовидную структуру набора правил, отмечая предусловие, которое используется в каждом последующем правиле.

Эмпирические результаты

Рисунок 6 в оригинальной статье [1] демонстрирует, что ADTree обычно столь же надежны, как расширенные деревья решений и усиленные пни решений . Обычно эквивалентная точность может быть достигнута с помощью гораздо более простой древовидной структуры, чем алгоритмы рекурсивного разделения.

Ссылки [ править ]

  1. ^ Перейти обратно: а б Фройнд, Ю.; Мейсон, Л. (1999). «Алгоритм обучения попеременного дерева решений» (PDF) . Материалы шестнадцатой международной конференции по машинному обучению (ICML '99) . Морган Кауфманн. стр. 124–133. ISBN  978-1-55860-612-8 .
  2. ^ Пфарингер, Бернхард; Холмс, Джеффри; Киркби, Ричард (2001). «Оптимизация индукции альтернативных деревьев решений» (PDF) . Достижения в области обнаружения знаний и интеллектуального анализа данных. ПАКДД 2001 . Конспекты лекций по информатике. Том. 2035. Спрингер. стр. 477–487. дои : 10.1007/3-540-45357-1_50 . ISBN  978-3-540-45357-4 .
  3. ^ «Набор данных базы спама» . Репозиторий машинного обучения UCI . 1999.
  4. ^ Дуа, Д.; Графф, К. (2019). «Репозиторий машинного обучения UCI» . Калифорнийский университет, Ирвайн, Школа информатики и компьютерных наук.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: BE09043FEF856D144B3F80D4537E792C__1672756980
URL1:https://en.wikipedia.org/wiki/Alternating_decision_tree
Заголовок, (Title) документа по адресу, URL1:
Alternating decision tree - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)