[ссылки] [литература] [проекты] [программы] [методические указания] [монографии и статьи] [вопросы и ответы] [школы] [учебники] [новости]
ENG  |   Карта сайта
Информация
Проект преследует цель популяризации идей применения природных механизмов функционирования для решения задач прогнозирования, оптимизации и поддержки принятия решений

Cписок рассылки
Открыть в новом окне

  1. Введение
  2. Генетические алгоритмы (1)
  3. Генетические алгоритмы (2)
  4. Генетические алгоритмы (3)
  5. Тренды
  6. Полиномиальные тренды
  7. Тригонометрические тренды
  8. Нейронные сети
  9. Метод наименьших квадратов
  10. Метод обратного распространения ошибки
  11. Множественная линейная модель
  12. Нестандартный выпуск. Анкета
  13. МЛМ. Пример расчета
  14. RBF-сеть
  15. Сеть встречного распространения
  16. Первая интерполяционная формула Ньютона
  17. МГУА (1)
  18. Вторая интерполяционная формула Ньютона
  19. Метод Брандона
  20. МГУА (2)
  21. Интерполяционные формулы Гаусса
  22. Интерполяционные формулы Стирлинга и Лагранжа
  23. МГУА (3)
  24. МГУА (4)
  25. Предварительная обработка данных (1)
  26. Предварительная обработка данных (2)
  27. Предварительная обработка данных (3)
  28. Box-counting
  29. Гетероскедастичность
  30. Введение в нечеткую логику
  31. Обобщённый метод наименьших квадратов
  32. Прогнозирование с помощью функций с гибкой структурой
  33. Автокорреляция
  34. Дистрибутивно-лаговые модели (1)
  35. Дистрибутивно-лаговые модели (2)
  36. Дистрибутивно-лаговые модели (3)
  37. Моделирование данных при помощи кривых для восстановления пробелов в таблицах (1)
  38. Нестандартный выпуск. Анонс книги Цейтлина Н.А."Опыт аналитического статистика"
  39. Алгоритм ZET
  40. Алгоритм ZetBraid
  41. Метод эволюционной кластеризации
  42. Эволюционный метод восстановления пропусков в данных
  43. Алгоритмы кластеризации класса FOREL

Метод группового учета аргументов

 

      Автором метода группового учёта аргументов (МГУА) есть Алексей Григорье­вич Ивахненко. Применение МГУА нашёл в самых различных областях знания, ис­пользующих структурную, параметрическую идентификацию и прогнозирование. Ра­нее считалось, что точность модели можно повысить исключительно за счёт учёта большего количества факторов и их композиции. Но такой подход требовал всё боль­шей и большей ретроспективы (периода рассмотрения статистических данных), что чаще всего было невозможным. Да и количество структурных элементов модели было ограниченным, что вследствие теоремы Геделя о неполноте (одна из ее формулировок: “Для любой системы суще­ствует теорема, которая не может быть доказана с помощью аксиом этой системы”) сви­детельствовало о существовании такой зависимости, таблично заданной, которая не могла бы быть аппроксимирована композицией данного набора элементов.

      Автор МГУА предложил использовать принцип внешнего дополнения. Базиру­ясь на теореме Вейерштрасса о том, что любую непрерывную функцию можно как угодно точно представить полиномом, он предложил следующую схему.

Пусть в качестве исходных данных выбрана матрица , где  и  - векторы-столбцы размерностью .  - входные факторы,  - выходная характеристика. Задача заключается в идентифика­ции зависимости

                                                                                                                  (1)

 полиномом Колмогорова-Габора

                                                                   (2)

Известно, что при увеличении степени этого полинома точность приближения им функции  возрастает, а потом убывает. В момент, когда точность максимальна, процесс усложнения полинома заканчивается. Количество точек экспериментов может быть значи­тельно меньше количества членов полинома.

        На первом этапе выбирается опорная функция. Чаще используются зависимости вида:

1. ,

2. ,

3. ,

4. .

      Для первой функции необходимы данные хотя бы трёх экспериментов, для (2) – 4, для (3) – 5, для (4) – 7. Это вызвано тем, что для определения коэффициентов будет исполь­зован метод наименьших квадратов (см. архив рассылки). Обозначим , где  - одна из указан­ных зависимостей, или, возможно,  подобная.

       Следующим шагом будет определение МНК коэффициентов уравнений (2), , .. , , , .. , , где . Объяснить, почему  такое, можно исходя из следующих соображений. Всевозможные пары индексов составляют матрицу (табл. 1). Те пары, которые мы ис­пользуем, образуют верхнедиагональную матрицу.

 

 

Таблица 1

(1,1)

(1,2)

(1,3)

(1,4)

(1,n-1)

(1,n)

(2,1)

(2,2)

(2,3)

(2,4)

(2,n-1)

(2,n)

(3,1)

(3,2)

(3,3)

(3,4)

(3,n-1)

(3,n)

(n,1)

(n,2)

(n,3)

(n,4)

(n,n-1)

(n,n)

Количество элементов в ней .

       После того, как все зависимости ,  идентифицированы, по внешнему критерию отбирают лучшие. Определение их коли­чества относят на свободу выбора, обычно 40-60%. Те зависимости, которые остались, перенумеровываем и получаем , где  - количество отобранных зависимо­стей. Первый шаг селекции закончен.

        На следующем шаге с помощью МНК определяем коэффициенты таких зависи­мостей:

                          , , .. , , .                  (3)

Дальнейшая процедура аналогична вышеизложенной. Если значение внешнего крите­рия улучшается, то селекция продолжается, в противном случае модель оптимальной сложности получена.

            Опишем внешние критерии, которые базируются на принципе внешнего допол­нения. Этот принцип после работ А.Н. Тихонова, В.И. Иванова получил название принципа регуляризации. В зависимости от типа задачи А.Г. Ивахненко предложил рассматривать такие критерии: регулярности, несмещённости и баланса переменных. Известны два критерия регулярности:

-        минимум среднеквадратической ошибки на новых точках отдельной провероч­ной последовательности;

-        максимум коэффициента корреляции на тех же точках.

Рассмотрим процедуру их применения. В качестве исходных данных имеем выделен­ную часть таблицы 2.

Таблица 2

...

...

...

 

Разделим её на две части (примерно 60% на 40%) .  - количество точек экспе­риментов в первой (обучающей) выборке,  - во второй (контрольной).  должно быть меньше числа  слагаемых в опорной функции . На элементах обучающей выборки находим коэффициенты зависимостей (2). Так, например, . Далее рас­сматриваем значения ошибок на элементах контрольной выборки

                                                  , ,                                           (4)

упорядочиваем  по возрастанию ошибок  и оставляем левые  функций. После перенумерации они составят значения функций следующего ряда селекции. Условия окончания итераций не “канонизированы” и могут быть, например, такими:

-        среднее значение ошибки  для следующего ряда селекции больше значения ошибки для предыдущего ряда;

-        минимальное значение ошибки следующего ряда больше минимального значе­ния  ошибки предыдущего ряда;

-        максимальное значение ошибки следующего ряда больше максимального зна­чения  ошибки предыдущего ряда;

-        модуль отклонения ошибок следующего и предыдущего ряда меньше некото­рого числа .

РЕКЛАМА:

Администрация сайта: ()
Используются технологии uCoz