[ссылки] [литература] [проекты] [программы] [методические указания] [монографии и статьи] [вопросы и ответы] [школы] [учебники] [новости]
ENG  |   Карта сайта
Информация
Проект преследует цель популяризации идей применения природных механизмов функционирования для решения задач прогнозирования, оптимизации и поддержки принятия решений

Cписок рассылки
Открыть в новом окне

  1. Введение
  2. Генетические алгоритмы (1)
  3. Генетические алгоритмы (2)
  4. Генетические алгоритмы (3)
  5. Тренды
  6. Полиномиальные тренды
  7. Тригонометрические тренды
  8. Нейронные сети
  9. Метод наименьших квадратов
  10. Метод обратного распространения ошибки
  11. Множественная линейная модель
  12. Нестандартный выпуск. Анкета
  13. МЛМ. Пример расчета
  14. RBF-сеть
  15. Сеть встречного распространения
  16. Первая интерполяционная формула Ньютона
  17. МГУА (1)
  18. Вторая интерполяционная формула Ньютона
  19. Метод Брандона
  20. МГУА (2)
  21. Интерполяционные формулы Гаусса
  22. Интерполяционные формулы Стирлинга и Лагранжа
  23. МГУА (3)
  24. МГУА (4)
  25. Предварительная обработка данных (1)
  26. Предварительная обработка данных (2)
  27. Предварительная обработка данных (3)
  28. Box-counting
  29. Гетероскедастичность
  30. Введение в нечеткую логику
  31. Обобщённый метод наименьших квадратов
  32. Прогнозирование с помощью функций с гибкой структурой
  33. Автокорреляция
  34. Дистрибутивно-лаговые модели (1)
  35. Дистрибутивно-лаговые модели (2)
  36. Дистрибутивно-лаговые модели (3)
  37. Моделирование данных при помощи кривых для восстановления пробелов в таблицах (1)
  38. Нестандартный выпуск. Анонс книги Цейтлина Н.А."Опыт аналитического статистика"
  39. Алгоритм ZET
  40. Алгоритм ZetBraid
  41. Метод эволюционной кластеризации
  42. Эволюционный метод восстановления пропусков в данных
  43. Алгоритмы кластеризации класса FOREL

RBF - СЕТЬ.

 

        Сеть RBF [4] не содержит рекурсии и предназначена для аппроксимации функций, которые заданы в неявном виде набором шаблонов (обучающих обра­зов). Она характеризуется такими особенностями: имеет единственный скрытый шар, только нейроны скрытого шара имеют нелинейную активационную функ­цию, синаптические веса всех нейронов скрытого шара равняются единицы. Ра­ссмотрим следующие обозначения (см. рис.1):

 

 

 


                                                                                                  

                     Х1                                                                                                                   Y1

 

      

                     Х2

                                                        .............

                                                                                                              Y2 

                     Х3

 

                                                                                                  

 

 

 

Рис.1. Классическая RBF – сеть

 

-          - вектор координат центра активационной функции ней­рона скрытого шара;

-          - ширина окна активационной функции - го нейрона скрытого шара;

-          - радиально-симметричная активационная функция нейрона скрытого шара (рис.2);

-          - вес связи между -м нейроном исходного шара и -м нейроном скрытого пласта.

 

Алгоритм обучение сети RBF

1.      Выбрать размер скрытого шара  равным количеству тренировочных шаб­лонов . Синаптические веса нейронов скрытого шара принять равными 1.

2.      Разместить центры активационных функций нейронов скрытого шара в точ­ках пространства входных сигналов сети, которые входят в набор трениро­вочных шаблонов .

3.      Выбрать ширины окон активационных функций нейронов скрытого шара ,  достаточно большими, но так, чтобы они не накладывались одна на другую в пространстве входных сигналов сети.

4.      Определить весы нейронов исходного шара сети . Для этого предъявить сети весь набор тренировочных шаблонов. Выход -го нейрона исходного шара для -го шаблона будет равный:

                  

.

      Расписав это уравнение для всех выходов сети и всех шаблонов, получим следующее уравнение в матричной форме:

,                                              

      где  - интерполяционная матрица, ;

     - матрица исходных синаптических весов;

     - матрица исходных шаблонов.

     Решение

                                         

дает нам искомые значения исходных синаптических весов, что обеспечивает прохождения интерполяционной поверхности через тренировочные шаблоны в пространстве входных образов.

Замечания

            Сеть RBF очень чувствительна к величине ширины окон активационной функции . Двухмерный аналог ак­тивационной функции изображен на рис. 2. Для адекватного обучения и использования обученной сети RBF  необходимо провести некоторые по­дготовительные операции. Во-пер­вых, максимизировать совместную энтропию исходных образов, напри­мер, с помощью известных методов главных компонент или "выбелива­ния" (о нем в будущих выпусках). Преобразованные данные обеспечат качественное и быстрое обучение на множестве данных минимальной      Рис.2. Активационная функция               мощности. Поскольку указанные ме-

 

тоды до­статочно трудоемкие, можно выбрать из всего множества входных образов те, которые дадут максимальное эвклидово расстояние. Следующим шагом должно стать нормирование.  Далее, во избежания пара­лича сети (см. рис.2) и больших ошибок аппроксимации, будем требовать выпо­лнения следующего условия:   (выбор 2 достаточно произволен, но его рациональность подтверждена экспериментами), или, ограничившись вы­бором положительного : . Учитывая, что после норми­рования , получим:  для всех начальных обра­зов. Тогда . Но при возрастании  уменьшается эксцесс и растут "хво­сты" графика функции, что опять-таки приводит к параличу сети. Хорошие ре­зультаты были получены в реальных задачах при .

     Процесс функционирование сети RBF имеет очень много особенностей, когда-нибудь я еще буду об этом писать. Но одно обязательно упомянуть: такая сеть лучше всего решает задачи интерполяции (прогнозирования внутри пространства исследования). 

 

РЕКЛАМА:

Администрация сайта: ()
Используются технологии uCoz