Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В машинном обучении , в функции сети Hyper основы , или сети HyperBF , представляет собой обобщение радиальной базисной функции (RBF) сети концепции, где Махаланобис -кака расстояние используется вместо евклидова расстояние меры. Сети с гипербазисными функциями были впервые представлены Поджио и Джирози в статье 1990 года «Сети для приближения и обучения». [1] [2]

Сетевая архитектура [ править ]

Типичная сетевая структура HyperBF состоит из реального входного вектора , скрытого слоя функций активации и линейного выходного слоя. Выход сети является скалярной функцией входного вектора, определяется выражением

где - количество нейронов в скрытом слое, а - центр и вес нейрона . Функция активации в сети HyperBF принимает следующий вид

где - положительно определенная матрица. В зависимости от области применения обычно рассматриваются следующие типы матриц [3]

  • , где . Этот случай соответствует обычной сети RBF.
  • , где . В этом случае базисные функции радиально симметричны, но масштабируются с разной шириной.
  • , где . Каждый нейрон имеет эллиптическую форму разного размера.
  • Положительно определенная матрица, но не диагональная.

Обучение [ править ]

Обучение сетей HyperBF включает в себя оценку веса , формы и центров нейронов и . Поджио и Джирози (1990) описывают метод обучения с движущимися центрами и адаптируемыми формами нейронов. Схема метода представлена ​​ниже.

Рассмотрим квадратичные потери в сети . Следующие условия должны выполняться оптимально:

, ,

где . Тогда в методе градиентного спуска значения этого минимума можно найти как устойчивую фиксированную точку следующей динамической системы:

, ,

где определяет скорость сходимости.

В целом, обучение сетей HyperBF может быть сложным с вычислительной точки зрения. Более того, высокая степень свободы HyperBF приводит к переобучению и плохому обобщению. Однако у сетей HyperBF есть важное преимущество: небольшого количества нейронов достаточно для обучения сложным функциям. [2]

Ссылки [ править ]

  1. ^ Т. Поджо и Ф. Girosi (1990). «Сети для приближения и обучения». Proc. IEEE Vol. 78, № 9 : 1481-1497.
  2. ^ а б Р. Махди, EC Rouchka (2011). «Уменьшенные сети HyperBF: регуляризация за счет явного уменьшения сложности и масштабированного обучения на основе Rprop» . IEEE-транзакции нейронных сетей 2 : 673–686.
  3. F. Schwenker, HA Kestler и G. Palm (2001). Нейронная сеть "Три этапа обучения радиальной сети базисных функций" . 14 : 439-458.