В теории вероятностей , в частности теории информации , то условная взаимная информация в своей самой основной форме, то ожидаемое значение от взаимной информации два случайных величин с учетом стоимости одной трети.
Определение
Для случайных величин , и с опорными наборами , и мы определяем условную взаимную информацию как
Это может быть записано в терминах оператора ожидания: .
Таким образом, ожидаемое (по отношению к ) расхождение Кульбака – Лейблера от условного совместного распределения к произведению условных маргиналов и . Сравните с определением взаимной информации .
В терминах PMF для дискретных распределений
Для дискретных случайных величин , и с опорными множествами , и условная взаимная информация выглядит следующим образом
где предельная, совместная и / или условная массовые функции вероятности обозначены соответствующим нижним индексом. Это можно упростить как
С точки зрения pdf для непрерывных распределений
Для (абсолютно) непрерывных случайных величин , и с опорными множествами , и условная взаимная информация выглядит следующим образом
где маргинальная, совместная и / или условная функции плотности вероятности обозначены соответствующим нижним индексом. Это можно упростить как
Некоторые личности
В качестве альтернативы мы можем записать в терминах совместной и условной энтропий как
Его можно переписать, чтобы показать его отношение к взаимной информации.
обычно перестраивается как цепное правило для взаимной информации
или же
Другой эквивалентной формой вышеизложенного является
Как и взаимная информация, условная взаимная информация может быть выражена как расхождение Кульбака – Лейблера :
Или как математическое ожидание более простых расхождений Кульбака – Лейблера:
-
,
-
.
Более общее определение
Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции регулярной условной вероятности . (Смотрите также.)
Позвольте быть вероятностным пространством , и пусть случайные величины , и каждая определяется как измеримая по Борелю функция от до некоторого пространства состояний, наделенного топологической структурой.
Рассмотрим борелевскую меру (на σ-алгебре, порожденной открытыми множествами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому борелевскому множеству -меры его прообраза в . Это называется прямой мерой . Опора случайной величины определяется как топологическая опора этой меры, т. Е.
Теперь мы можем формально определить меру условной вероятности с учетом значения одной (или, через топологию продукта , нескольких) случайных величин. Позвольте быть измеримым подмножеством (т.е. ) и пусть Тогда, используя теорему дезинтеграции :
где предел берется по открытым окрестностям в , так как они могут стать сколь угодно меньше по отношению к включению множеств .
Наконец, мы можем определить условную взаимную информацию с помощью интеграции Лебега :
где подынтегральное выражение - это логарифм производной Радона – Никодима, включающей некоторые условные вероятностные меры, которые мы только что определили.
Примечание к обозначениям
В таком выражении, как и, необязательно должно быть ограничение на представление отдельных случайных величин, но оно может также представлять совместное распределение любого набора случайных величин, определенных в одном и том же вероятностном пространстве . Как это принято в теории вероятностей , мы можем использовать запятую для обозначения такого совместного распределения, например, отсюда использование точки с запятой (или иногда двоеточия или даже клина ) для разделения основных аргументов символа взаимной информации. (В символе совместной энтропии такое различие не требуется , поскольку совместная энтропия любого числа случайных величин совпадает с энтропией их совместного распределения.)
Характеристики
Неотрицательность
Это всегда правда, что
-
,
для дискретных, совместно распределенных случайных величин , и . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации , в частности, тех, которые известны как неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности.
Информация о взаимодействии
Условие по третьей случайной величине может увеличивать или уменьшать взаимную информацию: то есть разница , называемая информацией о взаимодействии , может быть положительной, отрицательной или нулевой. Это так даже тогда, когда случайные величины попарно независимы. Так бывает, когда:
в этом случае , и попарно независимы и , в частности , но
Цепное правило для взаимной информации
Информация о взаимодействии
Условная взаимная информация используется для индуктивного определения информации о взаимодействии , обобщения взаимной информации следующим образом:
где
Поскольку условная взаимная информация может быть больше или меньше ее безусловного аналога, информация о взаимодействии может быть положительной, отрицательной или нулевой, что затрудняет ее интерпретацию.
Рекомендации
-
^
Wyner, AD (1978). «Определение условной взаимной информации для произвольных ансамблей» . Информация и контроль . 38 (1): 51–59. DOI : 10.1016 / s0019-9958 (78) 90026-8 .
-
^ Добрушин, RL (1959). «Общая формулировка основной теоремы Шеннона в теории информации». Успехи матем. Наук . 14 : 3–104.
-
↑ Обложка, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience . ISBN 0-471-24195-4.
-
^ Регулярная условная вероятность на PlanetMath
-
^ D. Leao, Jr. et al. Регулярная условная вероятность, распад вероятности и радоновые пространства. Proyecciones. Vol. 23, No. 1, pp. 15–29, май 2004 г., Католический университет дель Норте, Антофагаста, Чили PDF
-
^ Полянский, Юрий; Ву, Ихонг (2017). Конспект лекций по теории информации (PDF) . п. 30.