Как известно, градиентний метод основан на предположении непрерывной дифференцируемости целевой функции . Для минимизации негладких функций его применить невозможно. Вместе с тем, целевые функции, не имеющие непрерывных частных производных, весьма часто возникают в задачах исследования операций. Поэтому проблема оптимизации негладких функций является черезвычайно актуальной.
Рассмотрим, например, динамическую задачу управления запасами.
Пусть какое-то предприятие планирует свою работу на месяцев. Обозначим через план производства продукта в -м месяце: – фактический объем производства продукта в -м месяце: – остаток запаса продукта к концу -го месяца. Поскольку планы производства каждого месяца неодинаковы, то предприятие может изготовить часть продукции преждевременно для покрытия плана следующего месяца и хранить ее в виде запасов.
Пусть – удельные затраты по хранению единицы продукта в -м месяце: – функция производственных затрат, связанных с сокращением или расширением производства:
(6.9.1)
Необходимо найти такие объемы производства и запасов в каждом месяце , для которых
(6.9.2)
при условиях
(6.9.3)
Эта задача является частным случаем общей минимаксной задачи поскольку может быть представлена в виде
. (6.9.4)
Введя вспомогательные переменные , данную задачу можно привести к следующему виду:
. (6.9.5)
Для минимизации негладких выпуклых (или квазивыпуклых) функций вводится понятия субградиента (или обобщенного градиента) [56].
|
. (6.9.6)
Если дифференцируема в точке , то субградиент совпадает с градиентом .
Дадим геометрическую интерпретацию субградиента. Для этого рассмотрим сначала гладкую функцию (рис. 6.20, а).
Градиент непрерывно дифференцируемой выпуклой функции направлен вдоль вектора нормали по линиям уровня .
Субградиент выпуклой функции, не имеющей в точке непрерывных производных, направлен вдоль вектора нормали к опорной гиперплоскости уровня, и также имеет направление внешней нормали (рис. 6.20, б). Обозначим через множество субградиентов в точке . Это множество является выпуклым и замкнутым. На понятии субградиента основан метод обобщенных градиентов (МОГ), впервые предложенный Н. З. Шором [56].
Пусть требуется найти . Пусть – начальная точка. В соответствии с методом ОГ поиск осуществляется согласно следующему рекуррентному соотношению:
, (6.9.7)
где – величина шага; – нормирующий множитель;
,
Делая шаг в указанном направлении в соответствии с методом ОГ, получаем точку . Она ближе к точке минимума , чем , хотя может выходить за границы допустимой области.
Возникает вопрос о сходимости метода ОГ. Если выбирать из условий
а) при ; б) , (6.9.8)
будет обеспечена сходимость метода , т.е.
.
Рассмотрим теперь более общую задачу:
минимизировать
при ограничении .
В этом случае используется метод проекции градиентов [56]
, (6.9.9)
где – проекция градиента на допустимую область , оператор проектирования удовлетворяет следующим условиям:
а) ; б) . (6.9.10)
Рассмотрим частный случай, когда =1, и пусть – множество точек минимума функции , которые принадлежат допустимой области решений .
Пусть для минимизации используется метод проекции обобщенных градиентов вида
. (6.9.11)
Справедлива следующая теорема [56].
Теорема 6.6. Если при , , а , то найдется такая подпоследовательность последовательности , что при .
|
Рассмотрим некоторое достаточно малое . При каждом возможны два случая:
1), (6.9.13)
2). (6.9.14)
Покажем, что не существует такого , что при будет выполнятся (6.9.13). Действительно, если бы это имело место, то при
, (6.9.15)
и при правая часть (6.9.15) неограниченно убывает, что противоречит неотрицательности модуля . Поэтому существуют как угодно большие номера , при которых
.
Так как , то отсюда следует, что для любого найдется такая последовательность и такое , что при всех
,
и тем более
, (6.9.16)
или ,
Откуда .
Итак, теорема доказана.
Пример 6.10. Пусть – выпуклая функция скалярного аргумента . Тогда
, (6.9.17)
где – производные справа и слева от точки , т.е. .
Соотношение (6.9.17) является непосредственным следствием выпуклости множества и того, что и . Следовательно, если можно вычислить , , то для минимизации в области можно использовать процедуру (6.9.17) при или .
Пример 6.11. Пусть , где функции выпуклы по . Тогда ,
где – правая и левая производные функции .
Пример 6.12. При решении задач теории игр зачастую приходится решать задачу об отыскании минимакса [36]:
(6.9.18)
при условии, что
Допустим, что функция при каждом является выпуклой по и существует такое, что
,
и при каждом известен обобщенный градиент функции по переменным . Тогда
. (6.9.19)
Доказательство. Так как функция при каждом выпукла (вниз), то .
Пример 6.13. Рассмотрим задачу о наилучшем Чебышевском приближении. Необходимо найти такой для которого
. (6.9.20)
Пусть максимум в (6.2.20) достигается при , т.е..
Функции выпуклы; в этом случае субградиент равен .
Используя (6.9.20), получим
(6.9.21)
Пример 6.14. Для задачи динамического планирования и управления запасами, сформулированной выше, целевая функция имеет вид
, (6.9.22)
где .
|
,
где (6.9.23)
(6.9.24)
Пример 6.15
Минимизировать . (6.9.25)
Очевидно, можно представить в виде
. (6.9.26)
Тогда, используя (6.9.19), получаем
|