Закон полной дисперсии - Law of total variance

В теории вероятностей , то закон общей дисперсии или разложение дисперсии формулы или условной дисперсия формул или закона повторных дисперсий также известные как права Евы , утверждает , что если X и Y являются случайными величинами на то же вероятностном пространстве , и дисперсия из Y конечна , тогда

На языке, который, возможно, лучше известен статистикам, чем теоретикам вероятности, эти два термина представляют собой «необъяснимый» и «объясненный» компоненты дисперсии соответственно (ср. Долю необъяснимой дисперсии , объясненную вариацию ). В актуарной науке , в частности в теории достоверности , первый компонент называется ожидаемым значением дисперсии процесса ( EVPV ), а второй - дисперсией гипотетических средних ( VHM ). Эти два компонента также являются источником термина «закон Евы», от инициалов EV VE, означающих «ожидание дисперсии» и «дисперсия ожидания».

Формулировка

Существует общая формула разложения дисперсии для c  ≥ 2 компонентов (см. Ниже). Например, с двумя условными случайными величинами:

что следует из закона полной условной дисперсии:

Обратите внимание , что условное математическое ожидание E ( Y | X ) является случайной величиной в своем собственном праве, значение которого зависит от величины X . Обратите внимание, что условное ожидаемое значение Y для события X  =  x является функцией x (именно здесь становится важным соблюдение общепринятых и строго чувствительных к регистру обозначений теории вероятностей!). Если мы напишем E (  Y  |  X  =  x ) =  g ( x ), то случайная величина E ( Y | X ) будет просто g ( X ). Подобные комментарии относятся к условной дисперсии .

Один особый случай (аналогичный закону полного ожидания ) гласит, что если это раздел всего пространства результатов, т.е. эти события являются взаимоисключающими и исчерпывающими, то

В этой формуле первый компонент - это математическое ожидание условной дисперсии; два других компонента - это дисперсия условного ожидания.

Доказательство

Закон полной дисперсии можно доказать с помощью закона полного ожидания . Первый,

из определения дисперсии. Опять же, исходя из определения дисперсии и применения закона полного ожидания, мы имеем

Теперь мы перепишем условный второй момент Y в терминах его дисперсии и первого момента и применим закон полного математического ожидания с правой стороны:

Поскольку ожидание суммы - это сумма ожиданий, теперь можно перегруппировать условия:

Наконец, мы распознаем члены во втором наборе круглых скобок как дисперсию условного ожидания E [ Y  | X ]:

Разложение общей дисперсии, применимое к динамическим системам

Следующая формула показывает, как применить общую теоретико-мерную формулу разложения дисперсии к стохастическим динамическим системам. Пусть Y ( t ) будет значением системной переменной в момент времени t . Предположим, у нас есть внутренние истории ( естественные фильтрации ) , каждая из которых соответствует истории (траектории) различного набора системных переменных. Коллекции не обязательно должны быть непересекающимися. Дисперсия Y ( t ) для всех моментов времени t может быть разложена  на c  ≥ 2 компонентов следующим образом:

Разложение не уникально. Это зависит от порядка кондиционирования при последовательном разложении.

Квадрат корреляции и объясненная (или информационная) вариация

В случаях, когда ( YX ) таковы, что условное ожидаемое значение является линейным; т.е. в случаях, когда

из билинейности ковариантности следует, что

а также

и объясненный компонент дисперсии, деленный на общую дисперсию, представляет собой просто квадрат корреляции между Y и X ; т.е. в таких случаях

Одним из примеров такой ситуации является случай, когда ( X , Y ) имеют двумерное нормальное (гауссово) распределение.

В более общем смысле, когда условное ожидание E ( Y | X ) является нелинейной функцией от  X

который можно оценить как квадрат R из нелинейной регрессии Y по X , используя данные, полученные из совместного распределения ( X , Y ). Когда E ( Y | X ) имеет гауссово распределение (и является обратимой функцией от X ) или Y сам имеет (маргинальное) гауссово распределение, этот объясненный компонент вариации устанавливает нижнюю границу взаимной информации :

Высшие моменты

Аналогичный закон для третьего центрального момента μ 3 говорит

Для более высоких кумулянтов существует обобщение. См. Закон полной совокупности .

Смотрите также

Рекомендации