Jump to content

Алгоритм рандомизированного взвешенного большинства

Алгоритм рандомизированного взвешенного большинства — это алгоритм в теории машинного обучения , предназначенный для агрегирования прогнозов экспертов для решения ряда задач. [1] Это простой и эффективный метод, основанный на взвешенном голосовании, который улучшает оценку ошибки детерминированного алгоритма взвешенного большинства . Фактически, в пределе его скорость прогнозирования может быть сколь угодно близкой к скорости лучшего прогнозирующего эксперта.

Представьте себе, что каждое утро перед фондового рынка открытием мы получаем прогноз от каждого из наших «экспертов» о том, пойдет ли фондовый рынок вверх или вниз. Наша цель — каким-то образом объединить этот набор прогнозов в один прогноз, который мы затем используем для принятия решения о покупке или продаже на день. Основная проблема заключается в том, что мы не знаем, какие эксперты дадут лучшие или худшие прогнозы. RWMA дает нам возможность реализовать эту комбинацию так, что наша запись прогноза будет почти так же хорош, как прогноз одного эксперта, который, оглядываясь назад, дал наиболее точные прогнозы.

Мотивация

[ редактировать ]

В машинном обучении алгоритм взвешенного большинства (WMA) представляет собой детерминированный алгоритм метаобучения для агрегирования экспертных прогнозов. В псевдокоде WMA выглядит следующим образом:

initialize all experts to weight 1
for each round:
    add each expert's weight to the option they predicted
    predict the option with the largest weighted sum
    multiply the weights of all experts who predicted wrongly by 


Предположим, есть эксперты и лучшие эксперты делают ошибки. Тогда алгоритм взвешенного большинства (WMA) дает не более ошибки. Эта оценка весьма проблематична в случае экспертов, склонных к ошибкам. Предположим, например, что лучший эксперт допускает ошибку в 20% случаев; то есть в раунды с использованием эксперты, лучший эксперт делает ошибки. Тогда алгоритм взвешенного большинства гарантирует только верхнюю границу ошибки.

Поскольку это известное ограничение алгоритма взвешенного большинства, были исследованы различные стратегии, чтобы улучшить зависимость от . В частности, мы можем добиться большего, введя рандомизацию.

Черпая вдохновение из алгоритма метода обновления мультипликативных весов , мы будем вероятностно делать прогнозы на основе того, как эксперты работали в прошлом. Как и в случае с WMA, каждый раз, когда эксперт делает неправильный прогноз, мы уменьшаем его вес. Отражая MWUM, мы затем будем использовать веса, чтобы составить распределение вероятностей действий и извлечь наши действия из этого распределения (вместо детерминированного выбора большинства голосов, как это делает WMA). [2]

Алгоритм рандомизированного взвешенного большинства (RWMA)

[ редактировать ]

Алгоритм рандомизированного взвешенного большинства представляет собой попытку улучшить зависимость границы ошибки WMA от . Вместо прогнозирования на основе большинства голосов, веса используются как вероятности выбора экспертов в каждом раунде и обновляются с течением времени (отсюда и название «рандомизированное взвешенное большинство»).

Именно, если вес эксперта , позволять . Мы будем следовать за экспертом с вероятностью . В результате получается следующий алгоритм:

initialize all experts to weight 1.
for each round:
    add all experts' weights together to obtain the total weight 
    choose expert  randomly with probability  
    predict as the chosen expert predicts
    multiply the weights of all experts who predicted wrongly by 

Цель состоит в том, чтобы ограничить ожидаемое количество ошибок для наихудшего случая. предполагая, что противник должен выбрать один из ответов как правильно, прежде чем мы подбросим монету. Это разумное предположение, например, в приведенном выше примере фондового рынка: отклонение цены акции не должно зависеть от мнений экспертов, которые влияют на частные решения о покупке или продаже, поэтому мы можем рассматривать изменение цены так, как если бы оно было решил до того, как эксперты дали свои рекомендации на день.

Рандомизированный алгоритм в худшем случае лучше, чем детерминированный алгоритм ( алгоритм взвешенного большинства ): в последнем худший случай был тогда, когда веса были разделены 50/50. Но в рандомизированной версии, поскольку веса используются как вероятности, вероятность того, что все будет сделано правильно, все равно будет 50/50. Кроме того, если обобщить умножение весов неверных экспертов на вместо строго позволяет нам найти компромисс между зависимостью от и . Этот компромисс будет определен количественно в разделе анализа.

Позволять обозначают общий вес всех экспертов в раунде . Также пусть обозначают долю веса, придаваемую экспертам, которые предсказывают неправильный ответ в раунде . Наконец, позвольте быть общим количеством раундов в процессе.

По определению, вероятность того, что алгоритм допустит ошибку в раунде . Из линейности ожидания следует, что если обозначает общее количество ошибок, допущенных в течение всего процесса, .

После раунда , общий вес уменьшается на , поскольку все веса, соответствующие неправильному ответу, умножаются на . Отсюда следует, что . Телескопируя, поскольку , отсюда следует, что общий вес после завершения процесса равен

С другой стороны, предположим, что — это количество ошибок, допущенных наиболее эффективным экспертом. В конце концов, этот эксперт имеет вес . Отсюда следует, что общий вес составляет по крайней мере столько же; другими словами, . Из этого неравенства и приведенного выше результата следует

Взяв натуральный логарифм обеих частей, получим

Теперь ряд Тейлора натурального логарифма равен

В частности, отсюда следует, что .
Таким образом,

напоминая, что и переставляя, отсюда следует, что

Теперь, как снизу первая константа стремится к ; однако вторая константа имеет тенденцию . Чтобы количественно оценить этот компромисс, определите быть наказанием, связанным с неверным прогнозом. Затем, снова применяя ряд Тейлора по натуральному логарифму:

Отсюда следует, что ошибка связана при малых , можно записать в виде .

Говоря по-английски, чем меньше мы наказываем экспертов за их ошибки, тем больше дополнительные эксперты будут приводить к первоначальным ошибкам, но тем ближе мы со временем приближаемся к точности прогнозирования лучшего эксперта. В частности, при достаточно малом значении При достаточном количестве раундов алгоритм рандомизированного взвешенного большинства может сколь угодно близко приблизиться к правильному значению прогноза лучшего эксперта.

В частности, пока достаточно велик по сравнению с (так что их отношение достаточно мало), можно присвоить

мы можем получить верхнюю оценку числа ошибок, равную

Это означает, что «граница сожаления» алгоритма (то есть, насколько хуже он работает, чем лучший эксперт) является сублинейной, т.е. .

Пересматривая мотивацию

[ редактировать ]

Напомним, что мотивацией для алгоритма рандомизированного взвешенного большинства послужил пример, где лучший эксперт допускает ошибку в 20% случаев. Именно в раунды, с эксперты, где лучший эксперт делает ошибок, детерминированный алгоритм взвешенного большинства гарантирует только верхнюю границу . Из приведенного выше анализа следует, что минимизация числа ожидаемых ошибок в худшем случае эквивалентна минимизации функции

Вычислительные методы показывают, что оптимальное значение составляет примерно , что приводит к минимальному числу ожидаемых ошибок в худшем случае . При увеличении количества раундов (скажем, до ) хотя уровень точности лучшего эксперта остается прежним, улучшение может быть еще более значительным; алгоритм взвешенного большинства гарантирует только наихудший уровень ошибок в размере 48,0%, но алгоритм рандомизированного взвешенного большинства, если он правильно настроен на оптимальное значение , достигает наихудшего уровня ошибок 20,2%.

Использование алгоритма рандомизированного взвешенного большинства (RWMA)

[ редактировать ]

Алгоритм рандомизированного взвешенного большинства можно использовать для объединения нескольких алгоритмов, и в этом случае можно ожидать, что RWMA будет работать почти так же хорошо, как и лучшие из исходных алгоритмов в ретроспективе. Обратите внимание, что RWMA можно обобщить для решения задач, в которых нет двоичных переменных ошибок, что делает его полезным для широкого класса задач.

Кроме того, можно применить алгоритм рандомизированного взвешенного большинства в ситуациях, когда эксперты делают выбор, который невозможно объединить (или невозможно легко объединить). Например, RWMA можно применить к повторяющимся играм или к задаче поиска кратчайшего пути в Интернете. В онлайн-задаче о кратчайшем пути каждый эксперт предлагает вам свой способ добраться до работы. Вы выбираете один путь, используя RWMA. Позже вы узнаете, насколько хорошо вы бы справились, используя все предложенные пути, и накажете соответствующим образом. Цель состоит в том, чтобы ожидаемая потеря не намного превышала потерю лучшего эксперта.

Приложения в программном обеспечении

[ редактировать ]

Алгоритм рандомизированного взвешенного большинства был предложен в качестве нового метода для нескольких практических программных приложений, особенно в области обнаружения ошибок и кибербезопасности. [3] [4] Например, Варша и Мадхаву (2021) описывают, как алгоритм рандомизированного взвешенного большинства может использоваться для замены обычного голосования в рамках подхода классификации случайного леса для обнаружения внутренних угроз. Используя экспериментальные результаты, они показывают, что этот подход обеспечивает более высокий уровень точности и полноты по сравнению со стандартным алгоритмом случайного леса. Мустафа и др. (2018) изучили, как ансамблевый классификатор , основанный на алгоритме рандомизированного взвешенного большинства, можно использовать для обнаружения ошибок на более ранних этапах процесса разработки программного обеспечения, после обучения на существующих репозиториях программного обеспечения.

Расширения

[ редактировать ]

См. также

[ редактировать ]
  1. ^ Литлстоун, Н.; Вармут, М. (1994). «Алгоритм взвешенного большинства» . Информация и вычисления . 108 (2): 212–261. дои : 10.1006/inco.1994.1009 .
  2. ^ «COS 511: Основы машинного обучения» (PDF) . 20 марта 2006 г.
  3. ^ Суреш, П. Варша; Мадхаву, Мину Лалита (2021). «Инсайдерская атака: обнаружение внутренних кибератак с использованием машинного обучения». 2021 12-я Международная конференция по вычислительным коммуникативным и сетевым технологиям (ICCCNT) . стр. 1–7. дои : 10.1109/ICCCNT51525.2021.9579549 . ISBN  978-1-7281-8595-8 .
  4. ^ Мустафа, Саммар; Эль-Найнай, Мустафа Ю; Эль Макки, я упал; Абугабал, Мохаммед С. (2018). «Прогнозирование ошибок программного обеспечения с использованием методов взвешенного большинства» . Александрийский инженерный журнал . 57 (4): 2763–2774. дои : 10.1016/август 2018.01.003 .

Дальнейшее чтение

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 7ddbd68b6b33d7af9a6debb3a0bc0c8a__1703902500
URL1:https://arc.ask3.ru/arc/aa/7d/8a/7ddbd68b6b33d7af9a6debb3a0bc0c8a.html
Заголовок, (Title) документа по адресу, URL1:
Randomized weighted majority algorithm - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)