Субградиентный метод - Subgradient method

Субградиентные методы - это итерационные методы решения задач выпуклой минимизации . Методы субградиента, изначально разработанные Наумом З. Шором и другими в 1960-х и 1970-х годах, сходятся при применении даже к недифференцируемой целевой функции. Когда целевая функция дифференцируема, методы субградиента для неограниченных задач используют то же направление поиска, что и метод наискорейшего спуска .

Субградиентные методы работают медленнее, чем метод Ньютона, когда они применяются для минимизации дважды непрерывно дифференцируемых выпуклых функций. Однако метод Ньютона не может сойтись на задачах с недифференцируемыми изломами.

В последние годы были предложены некоторые методы внутренней точки для задач выпуклой минимизации, но методы субградиентной проекции и связанные с ними связочные методы спуска остаются конкурентоспособными. Для задач выпуклой минимизации с очень большим количеством измерений подходят методы субградиентной проекции, поскольку они требуют небольшого объема памяти.

Методы субградиентной проекции часто применяются к крупномасштабным задачам с методами декомпозиции. Такие методы декомпозиции часто позволяют использовать простой распределенный метод для задачи.

Классические правила субградиента

Позвольте быть выпуклой функцией с областью определения . Классический субградиентный метод повторяет

где обозначает любую субградиент из в , и это итерация . Если дифференцируемый, то его единственный субградиент - это сам вектор градиента . Может случиться так, что это не направление спуска для at . Поэтому мы ведем список, в котором отслеживается наименьшее найденное значение целевой функции, т. Е.

Правила размера шага

Субградиентные методы используют множество различных типов правил размера шага. В этой статье отмечается пять классических правил размера шага, для которых известны доказательства сходимости :

  • Постоянный размер шага,
  • Постоянная длина шага , что дает
  • Суммируемый квадрат, но не суммируемый размер шага, т. Е. Любые размеры шага, удовлетворяющие
  • Несчетное уменьшение, то есть любой размер шага, удовлетворяющий
  • Несуммируемые уменьшающиеся длины шага, т. Е. Где

Для всех пяти правил размеры шага определяются "в автономном режиме" перед повторением метода; размеры шага не зависят от предыдущих итераций. Это "автономное" свойство субградиентных методов отличается от "интерактивных" правил размера шага, используемых для методов спуска для дифференцируемых функций: многие методы минимизации дифференцируемых функций удовлетворяют достаточным условиям Вульфа для сходимости, где размеры шага обычно зависят от текущая точка и текущее направление поиска. Подробное обсуждение правил шага для субградиентных методов, включая инкрементные версии, дается в книгах Бертсекаса и Бертсекаса, Недича и Оздаглара.

Результаты сходимости

Для постоянной длины шага и масштабированных субградиентов, имеющих евклидову норму, равную единице, метод субградиента сходится к произвольно близкому приближению к минимальному значению, то есть

по результату Шора .

Эти классические субградиентные методы имеют низкую производительность и больше не рекомендуются для общего использования. Тем не менее, они по-прежнему широко используются в специализированных приложениях, поскольку они просты и могут быть легко адаптированы для использования преимуществ специальной структуры решаемой задачи.

Методы субградиентной проекции и связки

В 1970-е годы Клод Лемарешаль и Фил Вульф предложили «методы расслоения» спуска для задач выпуклой минимизации. С тех пор значение термина «пакетные методы» значительно изменилось. Современные версии и полный анализ сходимости предоставлены Kiwiel. Современные связки-методы часто используют правила « контроля уровня » для выбора размеров шага, развивая методы из метода «субградиентной проекции» Бориса Т. Поляка (1969). Однако есть проблемы, в которых методы пакета не имеют большого преимущества перед методами субградиентной проекции.

Ограниченная оптимизация

Прогнозируемый субградиент

Одним из расширений метода субградиента является метод прогнозируемого субградиента , который решает задачу оптимизации с ограничениями.

минимизировать при условии

где - выпуклое множество . Прогнозируемый субградиентный метод использует итерацию

где - проекция на, а - любой субградиент при

Общие ограничения

Метод субградиента может быть расширен для решения задачи с ограничениями по неравенству

минимизировать при условии

где выпуклые. Алгоритм имеет ту же форму, что и безусловный случай.

где - размер шага, а - субградиент целевой или одной из функций ограничения в Take

где обозначает субдифференциалом из . Если текущая точка возможна, алгоритм использует целевой субградиент; если текущая точка недопустима, алгоритм выбирает субградиент любого нарушенного ограничения.

Рекомендации

дальнейшее чтение

Внешние ссылки

  • EE364A и EE364B , последовательность курсов по выпуклой оптимизации Стэнфорда.