Jump to content

Усреднение по ансамблю (машинное обучение)

В машинном обучении , особенно при создании искусственных нейронных сетей , усреднение по ансамблю — это процесс создания нескольких моделей и их объединения для получения желаемого результата, а не создания только одной модели. Зачастую совокупность моделей работает лучше, чем любая отдельная модель, поскольку различные ошибки моделей «усредняются».

Усреднение по ансамблю — один из простейших типов комитетных машин . Наряду с повышением , это один из двух основных типов статических комитетов. [1] В отличие от стандартного проектирования сети, при котором создается множество сетей, но сохраняется только одна, усреднение по ансамблю сохраняет менее удовлетворительные сети, но с меньшим весом. [2] Теория усреднения по ансамблю опирается на два свойства искусственных нейронных сетей: [3]

  1. В любой сети смещение можно уменьшить за счет увеличения дисперсии.
  2. В группе сетей дисперсию можно уменьшить без ущерба для предвзятости.

Усреднение по ансамблю создает группу сетей, каждая с низким смещением и высокой дисперсией, а затем объединяет их в новую сеть с (надеюсь) низким смещением и низкой дисперсией. Таким образом, это решение дилеммы смещения-дисперсии . [4] Идея объединения экспертов восходит к Пьеру-Симону Лапласу . [5]

Упомянутая выше теория предлагает очевидную стратегию: создать набор экспертов с низкой предвзятостью и высокой дисперсией, а затем усреднить их. Как правило, это означает создание набора экспертов с различными параметрами; часто это начальные синаптические веса, хотя другие факторы (такие как скорость обучения, импульс и т. д.) также могут варьироваться. Некоторые авторы рекомендуют не менять вес тела и не досрочно прекращать его. [3] Таким образом, шаги следующие:

  1. Сгенерируйте N экспертов, каждый со своими начальными значениями. (Начальные значения обычно выбираются случайным образом из распределения.)
  2. Обучайте каждого специалиста отдельно.
  3. Объедините экспертов и усредните их значения.

Альтернативно, знания предметной области могут использоваться для создания нескольких классов экспертов. Специалист от каждого класса обучается, а затем объединяется.

Более сложная версия ансамблевого среднего рассматривает окончательный результат не как просто среднее всех экспертов, а скорее как взвешенную сумму. Если каждый эксперт , то общий результат можно определить как:

где представляет собой набор гирь. Проблема оптимизации поиска альфы легко решается с помощью нейронных сетей, следовательно, можно обучить «метасеть», в которой каждый «нейрон» фактически представляет собой целую нейронную сеть, а синаптические веса конечной сети — это веса, приложенные к каждому эксперт. Это известно как линейная комбинация экспертов . [2]

Видно, что большинство форм нейронных сетей представляют собой некое подмножество линейной комбинации: стандартная нейронная сеть (где используется только один эксперт) представляет собой просто линейную комбинацию со всеми и один . Необработанное среднее значение – это то, где все равны некоторой постоянной величине, а именно единице от общего числа экспертов. [2]

Более поздний метод усреднения по ансамблю — это обучение с отрицательной корреляцией. [6] предложенный Ю. Лю и С. Яо. Сейчас этот метод широко используется в эволюционных вычислениях .

Преимущества

[ редактировать ]
  • Получаемый в результате комитет почти всегда менее сложен, чем отдельная сеть, которая достигла бы того же уровня производительности. [7]
  • Полученный комитет можно будет легче обучить на меньших наборах входных данных. [1]
  • Полученный комитет часто улучшает производительность в любой отдельной сети. [2]
  • Риск переобучения снижается, поскольку необходимо установить меньше параметров (весов). [1]

См. также

[ редактировать ]
  1. ^ Перейти обратно: а б с Хайкин, Саймон. Нейронные сети: комплексная основа. 2-е изд. Аппер-Сэддл-Ривер, штат Нью-Джерси: Прентис-Холл, 1999.
  2. ^ Перейти обратно: а б с д Хашем, С. «Оптимальные линейные комбинации нейронных сетей». Нейронные сети 10, вып. 4 (1997): 599–614.
  3. ^ Перейти обратно: а б Нафталий У., Н. Интратор и Д. Хорн. «Оптимальное ансамблевое усреднение нейронных сетей». Сеть: вычисления в нейронных системах 8, вып. 3 (1997): 283–296.
  4. ^ Геман, С., Э. Биненшток и Р. Дурса. «Нейронные сети и дилемма предвзятости/дисперсии». Нейронные вычисления 4, вып. 1 (1992): 1–58.
  5. ^ Клемен, RT «Объединение прогнозов: обзор и аннотированная библиография». Международный журнал прогнозирования 5, вып. 4 (1989): 559–583.
  6. ^ Ю. Лю и X. Яо, Ансамблевое обучение с помощью нейронных сетей с отрицательной корреляцией, том 12, выпуск 10, декабрь 1999 г., стр. 1399-1404. два : 10.1016/S0893-6080(99)00073-8
  7. ^ Перлмуттер, бакалавр наук, и Р. Розенфельд. «Сложность и обобщение Чайтина – Колмогорова в нейронных сетях». В материалах конференции 1990 года по достижениям в области нейронных систем обработки информации 3, 931. Morgan Kaufmann Publishers Inc., 1990.

Дальнейшее чтение

[ редактировать ]
  • Перроне, член парламента (1993), Улучшение оценки регрессии: методы усреднения для уменьшения дисперсии с расширением общей оптимизации выпуклых мер.
  • Вулперт, Д.Х. (1992), «Сложенное обобщение», Neural Networks , 5 (2): 241–259, CiteSeerX   10.1.1.133.8090 , doi : 10.1016/S0893-6080(05)80023-1
  • Хашем, С. (1997), «Оптимальные линейные комбинации нейронных сетей», Neural Networks , 10 (4): 599–614, doi : 10.1016/S0893-6080(96)00098-6 , PMID   12662858
  • Хашем, С. и Б. Шмайсеры (1993), «Аппроксимация функции и ее производных с использованием MSE-оптимальных линейных комбинаций обученных нейронных сетей прямого распространения», Proceedings of the Joint Conference on Neural Networks , 87 : 617–620
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 229928d825a59872584d413673046376__1638225420
URL1:https://arc.ask3.ru/arc/aa/22/76/229928d825a59872584d413673046376.html
Заголовок, (Title) документа по адресу, URL1:
Ensemble averaging (machine learning) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)