[ссылки] [литература] [проекты] [программы] [методические указания] [монографии и статьи] [вопросы и ответы] [школы] [учебники] [новости]
ENG  |   Карта сайта
Информация
Проект преследует цель популяризации идей применения природных механизмов функционирования для решения задач прогнозирования, оптимизации и поддержки принятия решений

Cписок рассылки
Открыть в новом окне

  1. Введение
  2. Генетические алгоритмы (1)
  3. Генетические алгоритмы (2)
  4. Генетические алгоритмы (3)
  5. Тренды
  6. Полиномиальные тренды
  7. Тригонометрические тренды
  8. Нейронные сети
  9. Метод наименьших квадратов
  10. Метод обратного распространения ошибки
  11. Множественная линейная модель
  12. Нестандартный выпуск. Анкета
  13. МЛМ. Пример расчета
  14. RBF-сеть
  15. Сеть встречного распространения
  16. Первая интерполяционная формула Ньютона
  17. МГУА (1)
  18. Вторая интерполяционная формула Ньютона
  19. Метод Брандона
  20. МГУА (2)
  21. Интерполяционные формулы Гаусса
  22. Интерполяционные формулы Стирлинга и Лагранжа
  23. МГУА (3)
  24. МГУА (4)
  25. Предварительная обработка данных (1)
  26. Предварительная обработка данных (2)
  27. Предварительная обработка данных (3)
  28. Box-counting
  29. Гетероскедастичность
  30. Введение в нечеткую логику
  31. Обобщённый метод наименьших квадратов
  32. Прогнозирование с помощью функций с гибкой структурой
  33. Автокорреляция
  34. Дистрибутивно-лаговые модели (1)
  35. Дистрибутивно-лаговые модели (2)
  36. Дистрибутивно-лаговые модели (3)
  37. Моделирование данных при помощи кривых для восстановления пробелов в таблицах (1)
  38. Нестандартный выпуск. Анонс книги Цейтлина Н.А."Опыт аналитического статистика"
  39. Алгоритм ZET
  40. Алгоритм ZetBraid
  41. Метод эволюционной кластеризации
  42. Эволюционный метод восстановления пропусков в данных
  43. Алгоритмы кластеризации класса FOREL

МГУА (часть 2)

МГУА (часть 2)

 

   Таким образом, критерий регулярности, заключающийся в минимизации средне­квадратической ошибки на точках контрольной последовательности:

                                                           ;                                              (5)

максимизации коэффициента корреляции:

                                                            .                                                     (6)

Для получения результатов, сравнимых для различных моделей, величины в вышепри­ведённых выражениях необходимо нормировать:

                                                                     ,   .                                    (7)     

      Преимуществом критерия регулярности есть плавность его изменения при увеличе­нии сложности модели. Недостатком его есть низкая точность при решении экстрапо­ляционных задач. Поэтому  рекомендуется его применять для краткосрочного прогноза или идентификации.

                                                                                                                        Таблица 3

      По-прежнему считаем исходные данные задан-                                           

ными в таблице 3 и . Для применения        критерия регулярности данные необходимо разде­лить на обучающую последовательность и прове­рочную. Очевидно, что в обучающую последова­тельность  необходимо собрать узлы с большей дисперсией, а в проверочную - с меньшей. Это вы­звано тем, что область обучения должна быть как можно шире, а контрольные узлы, в большинстве своём находится внутри неё.

Алгоритм разделения имеет такой вид:

Шаг 0. Определить процентное соотношение между количеством элементов в обучаю­щей и контрольной последовательности.

Шаг 1. Для каждого столбца ,  рассчитать среднее значение его элементов

                                                                 ;                                                        (8)  

получим середину множества узлов (, ,.., ).

Шаг 2. Найти выборочные дисперсии для каждого узла таблицы по формуле

                                                           .                                                  (9)

Шаг 3. Для упорядочивания таблицы переставить строки так, чтобы первой была строка с наибольшей дисперсией, а последней – с наименьшей.

Шаг 4. В соответствии с допущением шага 0, разделить данные в таблице на обучаю­щую и контрольную последовательности.

      Если решается задача краткосрочного прогноза (на один такт времени вперёд), то ищут ещё и оптимальное соотношение количества узлов в обучающей последователь­ности к количеству узлов в проверочной с целью получения наиболее простой и досто­верной модели.

      Известны три вида критерия несмещённости: основанные на анализе решений, на анализе коэффициентов, и “критерий относительной несмещённости”.

  1. Критерий несмещённости, основанный на анализе решений (КН1).

            Для расчёта КН1 необходимо ранжировать по возрастанию или убыванию дис­персии все точки экспериментов. Процедура вычисления дисперсии описана выше.                              Пос-

ле ранжирования точки экспериментов нумеруют и делят на две последова­тельности:

-     к первой относят точки с чётными номерами, их ;

-     ко второй – с нечётными, их ;   .

      На первом ряду селекции первая последовательность является обучающей, вто­рая – контрольной. Полученные на обучающей последовательности () уравнения регрессии обозначим . Далее первая последовательность будет кон­трольной, вторая – обучающей. На обучающей последовательности находим уравнения регрессии . Количество уравнений  и  должно совпадать, случай не­выполнения этого условия здесь не рассматриваем. Для каждого из  рассматриваем среднеквадратическое отклонение

                                                       .                                                   (10)

Из всех уравнений выбираем  уравнений, имеющих меньшую оценку   (можно из  или ).             Среднее значение критерия несмещённости на первом ряду селекции вычисляем по формуле:

                                                               .                                                        (11)

      На втором и последующих рядах селекции процедура остаётся той же. Селекция продолжается до тех пор, пока среднее значение  критерия несмещённости убывает.

  1. Критерий несмещённости, основанный на анализе коэффициентов (КН2).

            Точки коэффициентов ранжируем по дисперсии и делим на обучающую и кон­трольную последовательности пополам. Точки с большей дисперсией попадают в обу­чающую последовательность, с меньшей – в контрольную. Особенность критерия в том, что на каждом ряду селекции ранжирование и разделение точек выполняется за­ново. Кроме того, уменьшается свобода выбора, согласно формулы , где  - число переменных, пропущенных на этом ряду селекции,  - номер ряда,  - число входных переменных, , . Формула и процедура, с ней связан­ные дают возможность ускорения решения задач большой размерности.

 

 

РЕКЛАМА:

Администрация сайта: ()
Используются технологии uCoz