4.5. Нечеткий метод группового учета аргументов.

Принципы самоорганизации метода группового учета аргументов

Построение систем самоорганизации по методу группового учета аргументов (МГУА) базируется на следующих принципах:

  1. Принцип самоорганизации модели. При последовательном увеличении сложности структуры модели значения внешних критериев сначала уменьшаются, достигают минимума, а затем или остаются неизменными или начинают увеличиваться. Первое наименьшее значение комбинации критериев определяет единственную модель оптимальной сложности.
  2. Принцип внешнего дополнения. Задачи интерполяции относятся к некорректно поставленным задачам, которые имеют многозначное решение. Для однозначного их решения необходимо задание адекватного внешнего дополнения - внешнего критерия оптимальности. Под внешним критерием будем понимать критерий, который вычисляется с использованием информации, не использованной при оценке параметров. Внутренние дополнения, то есть критерии, не использующие никакой дополнительной информации, при действии помех не могут решить задачу выбора модели оптимальной сложности.
  3. Гёделевский подход при самоорганизации моделей. Теорема утверждает, что для любой системы исходных аксиом (внешних дополнений первого уровня) всегда можно задать такую теорему, для доказательства которой недостаточно данной системы аксиом и необходимы новые аксиомы – внешние дополнения. Применительно к моделям самоорганизации идеи Гёделя можно интерпретировать таким образом: по минимуму заданного внешнего критерия можно решить все вопросы о выборе опорных функций, структуры и параметров модели, кроме вопросов, связанных с алгоритмом вычисления и способами использования самих критериев.
  4. Внешние критерии селекции моделей. Уравнение регрессии выбирается по критерию минимума смещения – непротиворечивости, в соответствии с которым требуется, чтобы модели, построенные по части таблицы А, как можно меньше отклонялись от моделей, построенных по части В. Критерий минимума смещения является базовым, потому что непротиворечивость моделей является обязательным свойством оптимальной модели.
  5. Разбиение таблицы данных на части. Основной критерий минимума смешения требует разбиения таблицы данных на две равные части А и В. Обычно таблица исходных данных делится на три части: обучающая А, проверочная В и экзаменационная выборка С. Обучающая выборка используется для получения оценок параметров модели (например, коэффициентов регрессии), а проверочная– для выбора структуры модели.
  6. Гипотеза селекции. При использовании принципа селекции в кибернетике необходимо придерживаться следующих правил:
  1. Принцип сохранения свободы выбора. Свобода выбора обеспечивается тем, что на каждый следующий ряд селекции передается не одно решение, а несколько лучших, отобранных на последнем ряде. Д.Габор сформулировал этот принцип следующим образом: принимать решение в данный момент времени необходимо таким образом, чтобы в следующий момент времени, когда возникнет необходимость в очередном решении, сохранялась бы свобода выбора решений.
  2. Применение эвристических методов. Эвристический характер самоорганизации моделей особенно проявляется при выборе опорной функции отдельных моделей, критериев селекции моделей, способа регуляризации, способа нормирования переменных, конкретной реализации последовательного увеличения сложности моделей-претендентов.
  3. Одновременное моделирование на разных уровнях общности языка математического описания объектов. Основным моментом в этом принципе является использование многоуровневого моделирования для решения задачи прогнозирования.

Самоорганизация относится к эмпирическим методам моделирования. Эти методы в своей области применения имеют некоторые преимущества по сравнению с теоретическими и полуэмпирическими методами построения моделей. В тех случаях, когда мы наблюдаем параметры исследуемого объекта, но не знаем структуры и механизма взаимодействия между элементами сложной системы, поведение которой определяет значения параметров, подход самоорганизации оказывается единственным надежным средством построения моделей прогноза. С помощью самоорганизации решение можно определить, даже если другими способами получить результаты невозможно. Модели, полученные с помощью самоорганизации, имеют специфическую область применения и особенно эффективны для долгосрочного прогноза. Физические модели, полученные на основе математической теории наблюдаемых объектов, могут преследовать только полностью определенные опознавательные цели (идентификация и долгосрочный прогноз). Поэтому построение моделей в соответствии с новыми объективными методами самоорганизации делает возможным вместо допущений и грубых ошибок предложить модели, которые основываются на надежной информации и получены с помощью самоорганизации.

Постановка задачи

Задано множество исходных данных , где n – количество переменных, а M – количество точек наблюдения. Необходимо с помощью нечеткого МГУА (НМГУА) синтезировать уравнение регрессии , адекватное исходному множеству данных, причем полученная модель должна быть наименьшей сложности.

В качестве экспериментальных данных для вычисления инфляционных процессов были взяты следующие макроэкономические показатели на период с января 1995 года по февраль 1997 года:

В результате выполнения работы необходимо построить адекватную модель, определяющую зависимость показателя ИПЦ от других макроэкономических показателей, которая имеет наименьшую сложность и используется для прогнозирования инфляционных процессов.

Основная идея метода группового учета аргументов

Метод группового учета аргументов (МГУА) базируется на задании правил усложнения модели, системе опорных функций, селекции и методах регуляризации по внешним критериям. ЭВМ проводит генерацию моделей-претендентов, селекцию в соответствии с внешними критериями и отсев моделей, которые не прошли селекцию. В связи с этим основную структуру алгоритмов самоорганизации можно привести в таком виде [1]:

  1. предварительная обработка наблюдений с учетом системы избранных опорных функций (сокращается количество претендентов);
  2. генерация множества моделей-претендентов;
  3. вычисление критериев селекции, которые являются внешними дополнениями, и поиск модели оптимальной сложности.

Основная идея МГУА состоит в следующем [2]: утверждается, что для задачи однократного прогноза целесообразно снизить точность определения оценок коэффициентов уравнения регрессии, но за счет этого увеличить его регулярность. Поэтому нашей целью в этой задаче является не минимизация ошибок на уже известных узлах интерполяции, а минимизация ошибок на новых точках, которых в момент синтеза уравнения регрессии еще не существовало.

Рассмотрим полиномиальные алгоритмы МГУА [2,3]. Последовательность исходных данных делится на обучающую и проверочную. Как определено выше – М – количество узлов интерполяции; m – количество членов полного полинома регрессии. При решение можно получить только с помощью МГУА.

Пусть полное описание объекта задается некоторой зависимостью . Заменим это выражение несколькими рядами частичных описаний. Первый ряд селекции:

Второй ряд селекции:

Разнообразные алгоритмы МГУА различаются по виду функции . В нашем случае эта функция имеет следующий вид:

,

где – нечеткое число, которое задается парой – центром и шириной интервала, которому принадлежит нечеткое число.

Из одного в другой ряд селекции с помощью пороговых отборов передается только некоторое количество самых регулярных или несмещенных переменных. Обычно это количество одинаково на всех радах селекции и равно F.

Правило остановки селекции: ряды селекции наращиваются до тех пор, пока критерий несмещенности решений уменьшается, такое количество называется свободой выбора. Для предотвращения индуцита необходимо остановить селекцию при достижении минимума.

Внешние критерии оптимальности

Реализация выборки делится на реализацию начальной выборки , с помощью которой оцениваются параметры модели, о реализацию проверочной выборки , с помощью которой осуществляется выбор подходящей модели. Критерий регулярности определяет среднеквадратичное отклонение модели на проверочной последовательности:

Если исходить из того, что при постоянном комплексе условий качественная аппроксимация в прошлом гарантирует качественную аппроксимацию в ближайшем будущем, то критерий регулярности можно рекомендовать для краткосрочного прогноза, потому что решение, полученное по новым реализациям дает только небольшое отклонение от исходных данных. При этом в процессе селекции можно потерять важные переменные, влияние которых будет учтено косвенно, через другие переменные.

Очень важным оказывается критерий несмещенности (непротиворечивости) модели. Довольно часто аналитики с большим опытом работы в предметной области даже не подозревают, что они оперируют, по сути, с противоречивой системой уравнений. В основе критерия непротиворечивости лежит довольно простой факт, что для одного объекта исследования по разным выборкам данных, полученных от него при прочих равных условиях, должны быть получены близкие модели, которые определяют поведение объекта.

Критерий можно записать следующим образом:

,

где – размеры первой и второй подвыборок данных соответственно; – значения прогноза первой и второй модели относительно всех точек выборок. Критерий смещения обращается в нуль на истинной модели. Но бывают случаи, когда этот критерий принимает нулевое значение и на неистинных моделях. В этом случае выборку следует разбить на три, четыре и более подвыборок, пока не останется только одна несмещенная модель – она и будет истинной.

В данной работе для отсева моделей на итерации селекции использовался критерий, который представляет собой выпуклую комбинацию критерия непротиворечивости и критерия регулярности в следующем виде:

,

где – весовой коэффициент.

Построение частичной модели НМГУА

Для построения частичной модели НМГУА использовалась линейная интервальная регрессионная модель [4], которая задается следующим образом:

,

где – некоторые известные переменные, – интервалы, которые можно задать треугольными нечеткими числами и записать следующим образом в виде центра и ширины :

.

Исходя из этого, Y можно рассчитать следующим образом:

Отношение вложенности двух интервалов и () можно задать следующими неравенствами:

В нашем случае переменные связаны с переменными и для соответствующей частичной модели НМГУА таким образом:

Рассмотрим метод оценивания линейной интервальной регрессионной модели. Пусть имеется М наблюдений n+1 переменной, причем n из них – независимые величины, а (n+1)-ая зависит от остальных, и эту зависимость мы пытаемся определить. При этом и - исходные вектора точек наблюдения. Тогда оценочная линейная интервальная модель для частичной модели НМГУА:

Построение производится с учетом следующих требований:

  1. Заданные значения , которые наблюдаются, включаются в оценочный интервал .
  2. Ширина оценочного интервала должна быть минимальной.

Эти требования можно свести к задаче линейного программирования в следующем виде (для k-той точки наблюдения):

Исходя из этого, при известных значениях переменных и величины y, полученных в результате М измерений, мы приходим к задаче поиска коэффициентов модели (для всех точек наблюдения) в таком виде:

где k - номер измерения, данные из которого используются.

Задача состоит в том, чтобы минимизировать область изменения исходных значений Y за счет отыскания таких значений ширины интервалов искомых коэффициентов и таких значений центров интервалов , , которые обеспечивали бы минимальное рассеивание величины Y одновременно с выполнением условия, что измерянные значения искомой величины находятся в этом интервале. Эта задача является задачей линейного программирования. Для ее решения перейдем к двойственной задаче. Она запишется следующим образом:

Это задача линейного программирования. Решив двойственную задачу симпликс-методом и получив оптимальные значения двойственных переменных, мы сможем найти и оптимальные значения искомых переменных и , , а вместе с этим и определить искомую модель математической зависимости.

Описание ряда селекции

Чтобы получить модели второго ряда необходимо задать опорную функцию, аргументами которой являются функции-модели, полученные на предыдущем ряде.

В нашем случае опорная функция задавалась также полиномом второй (r-той) степени от двух переменных, то есть , где k – номер ряда.

На каждом ряде после генерации всех возможных моделей по комплексному критерию в плоскости критериев отбирались F лучших моделей, которые принимают участие в дальнейшей генерации. Критерием останова процесса генерации является близость среднего критерия моделей ряда на двух соседних рядах работы метода, то есть:

 

При генерации моделей может возникнуть явление индуцита, которое связано с тем, что после ряда итераций F моделей k-го ряда будут почти неразличимы между собой (станут колиниерными). Для борьбы с этим явлением вид опорной функции не изменяют, а вместо одного из аргументов берут модель предыдущего ряда, то есть .

Общее описание алгоритма

  1. Выбор общего вида модели, которым будет описываться искомая зависимость.
  2. Выбор внешних критериев оптимальности и свободы выбора.
  3. Выбор общего вида опорной функции (для многорядных алгоритмов МГУА).
  4. Присваиваем нулевые значения счетчику числа моделей k и счетчику числа рядов r.
  5. Генерируем новую частичную модель. Определяем значения основных критериев на ней. Присваиваем k=k+1.
  6. Если , то k=0, r=r+1. Составляем средний критерий моделей . Если r=1, то переходим на шаг 5, иначе – на шаг 7.
  7. Если , то идем на шаг 8, иначе отбираем F лучших моделей согласно внешним критериям и переходим на шаг 5.
  8. Из F лучших моделей по критерию регуляризации выбираем лучшую модель. Восстанавливаем аналитический вид лучшей модели, используя геделевскую нумерацию.