Структурированная опорная векторная машина - Structured support vector machine

Структурирован опорные векторы машина является машинным обучением алгоритма , который обобщает Опорно-Vector Machine (SVM) классификатор. В то время как классификатор SVM поддерживает двоичную классификацию , многоклассовую классификацию и регрессию , структурированная SVM позволяет обучать классификатор для общих структурированных выходных меток .

В качестве примера образец экземпляра может быть предложением естественного языка, а метка вывода - аннотированным деревом синтаксического анализа . Обучение классификатора состоит из показа пар правильных пар меток выборки и выходных меток. После обучения структурированная модель SVM позволяет прогнозировать для новых экземпляров выборки соответствующую выходную метку; то есть, учитывая предложение на естественном языке, классификатор может создать наиболее вероятное дерево синтаксического анализа.

Обучение

Для набора учебных экземпляров , из выборочного пространства и пространства меток , структурированная SVM минимизирует следующий исправленное функцию риска.

Функция выпукла по, потому что максимум набора аффинных функций выпуклый. Функция измеряет расстояние в пространстве меток и является произвольной функцией (не обязательно метрикой ), удовлетворяющей и . Функция является функцией функции, извлекающей некоторый вектор признаков из заданного образца и метки. Дизайн этой функции во многом зависит от приложения.

Поскольку приведенная выше регуляризованная функция риска недифференцируема, ее часто переформулируют в терминах квадратичной программы , вводя одну переменную резерва для каждой выборки, каждая из которых представляет значение максимума. Стандартная структурированная первичная формулировка SVM приведена ниже.

Вывод

Во время тестирования известен только образец , и функция прогнозирования сопоставляет его с прогнозируемой меткой из пространства меток . Для структурированных SVM с учетом вектора, полученного в результате обучения, функция прогнозирования следующая.

Следовательно, максимайзер над пространством меток - это предсказанная метка. Решением этого максимизатора является так называемая проблема вывода, аналогичная построению максимального апостериорного предсказания (MAP) в вероятностных моделях. В зависимости от структуры функции решение для максимайзера может быть сложной задачей.

Разделение

Вышеупомянутая квадратичная программа включает в себя очень большое, возможно, бесконечное количество ограничений линейного неравенства. В общем, количество неравенств слишком велико, чтобы их можно было оптимизировать явно. Вместо этого проблема решается путем использования отложенной генерации ограничений, когда используется только конечное и небольшое подмножество ограничений. Оптимизация подмножества ограничений увеличивает допустимый набор и дает решение, которое обеспечивает нижнюю границу цели. Чтобы проверить, нарушает ли решение ограничения неравенств полного набора, необходимо решить проблему разделения. Поскольку неравенства разлагаются по выборкам, для каждой выборки необходимо решить следующую проблему.

Правая часть цели, которая должна быть максимизирована, состоит из константы и члена, зависящего от оптимизируемых переменных, а именно . Если достигнутый целевой показатель правой части меньше или равен нулю, для этого образца не существует никаких нарушенных ограничений. Если оно строго больше нуля, то было выявлено наиболее нарушенное ограничение по отношению к этой выборке. Проблема усугубляется этим ограничением и решается. Процесс продолжается до тех пор, пока не будут выявлены нарушения неравенства.

Если исключить константы из указанной выше проблемы, мы получим следующую проблему, которую необходимо решить.

Эта проблема очень похожа на проблему вывода. Единственное отличие - это добавление термина . Чаще всего его выбирают таким образом, чтобы он имел естественное разложение в пространстве меток. В этом случае влияние может быть закодировано в задачу вывода, и решение для наиболее нарушающего ограничения эквивалентно решению проблемы вывода.

использованная литература