2.8. Вероятностные итеративные алгоритмы самообучения, основанные на применении метода стохастической аппроксимации
Требуется разбить исходное пространство признаков на такие непересекающиеся области , чтобы минимизировать следующий функционал (средний риск распознавания):
, (1)
где - функция потерь при классификации ; - параметры областей , например, средние; - априорные вероятности классов.
Минимизация (1) эквивалентна минимизации средних потерь при распознавании.
Было доказано, что для того, чтобы функционал (1) был минимален, необходимо выполнение следующих условий:
(2)
где - градиент по , - граница между областями и .
Для перехода от интегрирования по области к интегрированию по всему пространству вводятся характеристические функции
.
Тогда (2) будет иметь следующий вид:
(3)
Поскольку в (3) неизвестно , то решить уравнения относительно искомых параметров областей не представляется возможным. Поэтому предлагается адаптивный алгоритм для нахождения оценок , основанный на применении стохастической аппроксимации.
Пусть на (n-1)-ом шаге построены оценки для параметров . Тогда если на n-том шаге приходит , то
(4)
Если подает в область , то все , за исключением , равны нулю.
В этом случае алгоритм самообучения (4) приобретет следующий вид:
(5)
Замечательная особенность данного подхода заключается в том, что, выбирая различные функции риска , можно получить из (4) как известные к настоящему времени, так и новые алгоритмы самообучения рекуррентного типа.
Это позволяет считать алгоритм самообучения (4) наиболее универсальным рекуррентным алгоритмом самообучения, известным до настоящего времени. Критерий же в виде функции риска должен задавать учитель.
Следует подчеркнуть, что все рекуррентные алгоритмы самообучения страдают общим существенным недостатком. Они сходятся к тому или иному стационарному решению в зависимости от начального состояния, например, начального положения границ.