В теории вероятностей , то закон общей дисперсии или разложение дисперсии формулы или условной дисперсия формул или закона повторных дисперсий также известные как права Евы , утверждает , что если X и Y являются случайными величинами на то же вероятностном пространстве , и дисперсия из Y конечна , тогда
На языке, который, возможно, лучше известен статистикам, чем теоретикам вероятности, эти два термина представляют собой «необъяснимый» и «объясненный» компоненты дисперсии соответственно (ср. Долю необъяснимой дисперсии , объясненную вариацию ). В актуарной науке , в частности в теории достоверности , первый компонент называется ожидаемым значением дисперсии процесса ( EVPV ), а второй - дисперсией гипотетических средних ( VHM ). Эти два компонента также являются источником термина «закон Евы», от инициалов EV VE, означающих «ожидание дисперсии» и «дисперсия ожидания».
Формулировка
Существует общая формула разложения дисперсии для c ≥ 2 компонентов (см. Ниже). Например, с двумя условными случайными величинами:
что следует из закона полной условной дисперсии:
Обратите внимание , что условное математическое ожидание E ( Y | X ) является случайной величиной в своем собственном праве, значение которого зависит от величины X . Обратите внимание, что условное ожидаемое значение Y для события X = x является функцией x (именно здесь становится важным соблюдение общепринятых и строго чувствительных к регистру обозначений теории вероятностей!). Если мы напишем E ( Y | X = x ) = g ( x ), то случайная величина E ( Y | X ) будет просто g ( X ). Подобные комментарии относятся к условной дисперсии .
Один особый случай (аналогичный закону полного ожидания ) гласит, что если это раздел всего пространства результатов, т.е. эти события являются взаимоисключающими и исчерпывающими, то
В этой формуле первый компонент - это математическое ожидание условной дисперсии; два других компонента - это дисперсия условного ожидания.
Доказательство
Закон полной дисперсии можно доказать с помощью закона полного ожидания . Первый,
из определения дисперсии. Опять же, исходя из определения дисперсии и применения закона полного ожидания, мы имеем
Теперь мы перепишем условный второй момент Y в терминах его дисперсии и первого момента и применим закон полного математического ожидания с правой стороны:
Поскольку ожидание суммы - это сумма ожиданий, теперь можно перегруппировать условия:
Наконец, мы распознаем члены во втором наборе круглых скобок как дисперсию условного ожидания E [ Y | X ]:
Разложение общей дисперсии, применимое к динамическим системам
Следующая формула показывает, как применить общую теоретико-мерную формулу разложения дисперсии к стохастическим динамическим системам. Пусть Y ( t ) будет значением системной переменной в момент времени t . Предположим, у нас есть внутренние истории ( естественные фильтрации ) , каждая из которых соответствует истории (траектории) различного набора системных переменных. Коллекции не обязательно должны быть непересекающимися. Дисперсия Y ( t ) для всех моментов времени t может быть разложена на c ≥ 2 компонентов следующим образом:
Разложение не уникально. Это зависит от порядка кондиционирования при последовательном разложении.
Квадрат корреляции и объясненная (или информационная) вариация
В случаях, когда ( Y , X ) таковы, что условное ожидаемое значение является линейным; т.е. в случаях, когда
из билинейности ковариантности следует, что
а также
и объясненный компонент дисперсии, деленный на общую дисперсию, представляет собой просто квадрат корреляции между Y и X ; т.е. в таких случаях
Одним из примеров такой ситуации является случай, когда ( X , Y ) имеют двумерное нормальное (гауссово) распределение.
В более общем смысле, когда условное ожидание E ( Y | X ) является нелинейной функцией от X
-
который можно оценить как квадрат R из нелинейной регрессии Y по X , используя данные, полученные из совместного распределения ( X , Y ). Когда E ( Y | X ) имеет гауссово распределение (и является обратимой функцией от X ) или Y сам имеет (маргинальное) гауссово распределение, этот объясненный компонент вариации устанавливает нижнюю границу взаимной информации :
Высшие моменты
Аналогичный закон для третьего центрального момента μ 3 говорит
Для более высоких кумулянтов существует обобщение. См. Закон полной совокупности .
Смотрите также
Рекомендации