Jump to content

Сеть гипербазисных функций

В машинном обучении сеть базисных функций Hyper или сеть HyperBF представляет собой обобщение концепции сетей радиальных базисных функций (RBF) , где Махаланобису вместо евклидовой меры расстояния используется расстояние, подобное . Сети гипербазисных функций были впервые представлены Поджо и Джирози в статье 1990 года «Сети для аппроксимации и обучения». [1] [2]

Сетевая архитектура

[ редактировать ]

Типичная сетевая структура HyperBF состоит из реального входного вектора. , скрытый слой функций активации и слой линейного вывода. Выход сети является скалярной функцией входного вектора, , определяется

где количество нейронов в скрытом слое, и центр и вес нейрона . Функция активации в сети HyperBF принимает следующий вид

где является положительно определенным матрица. В зависимости от применения используются следующие типы матриц обычно считаются [3]

  • , где . Этот случай соответствует обычной сети RBF.
  • , где . В этом случае базисные функции радиально симметричны, но масштабируются с разной шириной.
  • , где . Каждый нейрон имеет эллиптическую форму и разный размер.
  • Положительно определенная матрица, но не диагональная.

Обучение

[ редактировать ]

Обучение сетей HyperBF включает оценку весов. , форма и центры нейронов и . Поджио и Джирози (1990) описывают метод обучения с использованием движущихся центров и адаптируемой формы нейронов. Краткое описание метода представлено ниже.

Рассмотрим квадратичные потери сети . В оптимальном случае должны быть соблюдены следующие условия:

, ,

где . Тогда в методе градиентного спуска значения которые минимизируют можно найти как устойчивую неподвижную точку следующей динамической системы:

, ,

где определяет скорость сходимости.

В целом, обучение сетей HyperBF может оказаться сложной вычислительной задачей. Более того, высокая степень свободы HyperBF приводит к переобучению и плохому обобщению. Однако сети HyperBF имеют важное преимущество: для обучения сложным функциям достаточно небольшого количества нейронов. [2]

  1. ^ Т. Поджо и Ф. Джирози (1990). «Сети для аппроксимации и обучения». Учеб. IEEE Том. 78, № 9 : 1481-1497.
  2. ^ Jump up to: а б Р.Н. Махди, ЕС.Рушка (2011). «Сокращенные сети HyperBF: регуляризация путем явного снижения сложности и масштабированного обучения на основе Rprop» . Транзакции нейронных сетей IEEE 2 : 673–686.
  3. ^ Ф. Швенкер, Х. А. Кестлер и Г. Палм (2001). «Три фазы обучения для сети с радиальными базисными функциями» Neural Netw. 14 :439-458.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: ecc7bdab66bedd752a6af62eae18ab43__1722387000
URL1:https://arc.ask3.ru/arc/aa/ec/43/ecc7bdab66bedd752a6af62eae18ab43.html
Заголовок, (Title) документа по адресу, URL1:
Hyper basis function network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)