Генеративная модель на основе потоков - Flow-based generative model

Порождающая модель потока на основе является порождающей моделью используется в машинном обучении , которые явно моделирует распределение вероятностей за счетом использования потока нормализующего , который представляет собой статистический метод , использующий переключающие из переменного закона вероятностей превратить простое распределение в сложный.

Прямое моделирование вероятности дает много преимуществ. Например, отрицательное логарифмическое правдоподобие может быть непосредственно вычислено и минимизировано как функция потерь . Кроме того, новые выборки могут быть созданы путем выборки из начального распределения и применения преобразования потока.

Напротив, многие альтернативные методы генеративного моделирования, такие как вариационный автокодировщик (VAE) и генеративная состязательная сеть , явно не представляют функцию правдоподобия.

Методика

Позвольте быть (возможно, многомерной) случайной величиной с распределением .

Для , пусть будет последовательность случайных величин, преобразованных из . Функции должны быть обратимыми, т.е. обратная функция существует. Конечный результат моделирует целевое распределение.

Логарифмическая вероятность (см. Вывод ):

Для эффективного вычисления логарифма правдоподобия функции должны быть 1. легко инвертировать и 2. легко вычислять определитель своего якобиана. На практике функции моделируются с использованием глубоких нейронных сетей и обучаются минимизировать отрицательную логарифмическую вероятность выборок данных из целевого распределения. Эти архитектуры обычно проектируются так, что требуется только прямой проход нейронной сети как для обратных вычислений, так и для вычислений определителя Якоби. Примеры таких архитектур включают NICE, RealNVP и Glow.

Вывод логарифма правдоподобия

Считайте и . Обратите внимание на это .

По формуле замены переменной распределение составляет:

Где это определитель из матрицы Якоби в .

По теореме об обратной функции :

По тождеству (где - обратимая матрица ) имеем:

Таким образом, логарифмическая вероятность:

В общем, сказанное выше относится к любым и . Поскольку равно вычтенному на нерекурсивный член, по индукции можно вывести, что:

Варианты

Непрерывный нормализующий поток (CNF)

Вместо построения потока по композиции функций, другой подход состоит в том, чтобы сформулировать поток как динамику с непрерывным временем. Позвольте быть скрытой переменной с распределением . Сопоставьте эту скрытую переменную с пространством данных с помощью следующей функции потока:

Где - произвольная функция, которую можно смоделировать, например, с помощью нейронных сетей.

Тогда обратная функция естественно будет:

И логарифмическая вероятность может быть найдена как:

Из-за использования интеграции на практике могут потребоваться такие методы, как Neural ODE.

Приложения

Генеративные модели на основе потоков применялись для решения множества задач моделирования, в том числе:

  • Генерация звука
  • Генерация изображения
  • Генерация молекулярного графа
  • Моделирование облака точек
  • Генерация видео

Рекомендации

Внешние ссылки