Условная взаимная информация - Conditional mutual information

Диаграмма Венна теоретико-информационных мер для трех переменных , и , представленных нижним левым, нижним правым и верхним кружками, соответственно. Условные взаимные сведения , и представлены в желтых, голубых, пурпурных и регионов, соответственно.

В теории вероятностей , в частности теории информации , то условная взаимная информация в своей самой основной форме, то ожидаемое значение от взаимной информации два случайных величин с учетом стоимости одной трети.

Определение

Для случайных величин , и с опорными наборами , и мы определяем условную взаимную информацию как

Это может быть записано в терминах оператора ожидания: .

Таким образом, ожидаемое (по отношению к ) расхождение Кульбака – Лейблера от условного совместного распределения к произведению условных маргиналов и . Сравните с определением взаимной информации .

В терминах PMF для дискретных распределений

Для дискретных случайных величин , и с опорными множествами , и условная взаимная информация выглядит следующим образом

где предельная, совместная и / или условная массовые функции вероятности обозначены соответствующим нижним индексом. Это можно упростить как

С точки зрения pdf для непрерывных распределений

Для (абсолютно) непрерывных случайных величин , и с опорными множествами , и условная взаимная информация выглядит следующим образом

где маргинальная, совместная и / или условная функции плотности вероятности обозначены соответствующим нижним индексом. Это можно упростить как

Некоторые личности

В качестве альтернативы мы можем записать в терминах совместной и условной энтропий как

Его можно переписать, чтобы показать его отношение к взаимной информации.

обычно перестраивается как цепное правило для взаимной информации

или же

Другой эквивалентной формой вышеизложенного является


Как и взаимная информация, условная взаимная информация может быть выражена как расхождение Кульбака – Лейблера :

Или как математическое ожидание более простых расхождений Кульбака – Лейблера:

,
.

Более общее определение

Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции регулярной условной вероятности . (Смотрите также.)

Позвольте быть вероятностным пространством , и пусть случайные величины , и каждая определяется как измеримая по Борелю функция от до некоторого пространства состояний, наделенного топологической структурой.

Рассмотрим борелевскую меру (на σ-алгебре, порожденной открытыми множествами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому борелевскому множеству -меры его прообраза в . Это называется прямой мерой . Опора случайной величины определяется как топологическая опора этой меры, т. Е.

Теперь мы можем формально определить меру условной вероятности с учетом значения одной (или, через топологию продукта , нескольких) случайных величин. Позвольте быть измеримым подмножеством (т.е. ) и пусть Тогда, используя теорему дезинтеграции :

где предел берется по открытым окрестностям в , так как они могут стать сколь угодно меньше по отношению к включению множеств .

Наконец, мы можем определить условную взаимную информацию с помощью интеграции Лебега :

где подынтегральное выражение - это логарифм производной Радона – Никодима, включающей некоторые условные вероятностные меры, которые мы только что определили.

Примечание к обозначениям

В таком выражении, как и, необязательно должно быть ограничение на представление отдельных случайных величин, но оно может также представлять совместное распределение любого набора случайных величин, определенных в одном и том же вероятностном пространстве . Как это принято в теории вероятностей , мы можем использовать запятую для обозначения такого совместного распределения, например, отсюда использование точки с запятой (или иногда двоеточия или даже клина ) для разделения основных аргументов символа взаимной информации. (В символе совместной энтропии такое различие не требуется , поскольку совместная энтропия любого числа случайных величин совпадает с энтропией их совместного распределения.)

Характеристики

Неотрицательность

Это всегда правда, что

,

для дискретных, совместно распределенных случайных величин , и . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации , в частности, тех, которые известны как неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности.

Информация о взаимодействии

Условие по третьей случайной величине может увеличивать или уменьшать взаимную информацию: то есть разница , называемая информацией о взаимодействии , может быть положительной, отрицательной или нулевой. Это так даже тогда, когда случайные величины попарно независимы. Так бывает, когда:

в этом случае , и попарно независимы и , в частности , но

Цепное правило для взаимной информации

Информация о взаимодействии

Условная взаимная информация используется для индуктивного определения информации о взаимодействии , обобщения взаимной информации следующим образом:

где

Поскольку условная взаимная информация может быть больше или меньше ее безусловного аналога, информация о взаимодействии может быть положительной, отрицательной или нулевой, что затрудняет ее интерпретацию.

Рекомендации

  1. ^ Wyner, AD (1978). «Определение условной взаимной информации для произвольных ансамблей» . Информация и контроль . 38 (1): 51–59. DOI : 10.1016 / s0019-9958 (78) 90026-8 .
  2. ^ Добрушин, RL (1959). «Общая формулировка основной теоремы Шеннона в теории информации». Успехи матем. Наук . 14 : 3–104.
  3. Обложка, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience . ISBN 0-471-24195-4.
  4. ^ Регулярная условная вероятность на PlanetMath
  5. ^ D. Leao, Jr. et al. Регулярная условная вероятность, распад вероятности и радоновые пространства. Proyecciones. Vol. 23, No. 1, pp. 15–29, май 2004 г., Католический университет дель Норте, Антофагаста, Чили PDF
  6. ^ Полянский, Юрий; Ву, Ихонг (2017). Конспект лекций по теории информации (PDF) . п. 30.