Информационный критерий отклонения - Deviance information criterion
Информационный критерий девиации ( ДВС - синдром ) представляет собой иерархическое моделирование обобщение информационного критерия Акаика (АИК). Это особенно полезно в байесовской выбора модели задач , где задние распределения этих моделей были получены с помощью цепи Маркова Монте - Карло моделирования (MCMC). DIC - это асимптотическое приближение по мере увеличения размера выборки, как и AIC. Это справедливо только тогда, когда апостериорное распределение является приблизительно многомерным нормальным .
Определение
Определение девиантности как , где находятся данные, неизвестные параметры модели и является функцией правдоподобия . - это константа, которая сокращается во всех расчетах, сравнивающих разные модели, и поэтому ее не нужно знать.
Обычно используются два расчета эффективного числа параметров модели. Первый, как описано в Spiegelhalter et al. (2002 , с. 587) , где находится ожидание . Второй, как описано у Gelman et al. (2004 , с. 182), есть . Чем больше эффективное количество параметров, тем легче модели подобрать данные, и поэтому отклонение необходимо штрафовать.
Информационный критерий отклонения рассчитывается как
или эквивалентно как
Из этой последней формы более очевидна связь с AIC.
Мотивация
Идея состоит в том, что модели с меньшим DIC следует предпочесть моделям с большим DIC. Модели наказываются как значением , которое способствует хорошей подгонке, так и (аналогично AIC) эффективным количеством параметров . Поскольку будет уменьшаться по мере увеличения числа параметров в модели, этот член компенсирует этот эффект, отдавая предпочтение моделям с меньшим числом параметров.
Преимущество DIC по сравнению с другими критериями в случае выбора байесовской модели состоит в том, что DIC легко вычисляется из выборок, сгенерированных симуляцией цепи Маркова методом Монте-Карло. AIC требует вычисления максимального правдоподобия , которое не всегда доступно при моделировании MCMC. Но чтобы вычислить DIC, просто вычислите как среднее значение по выборкам , и как значение, оцененное как среднее значение выборок . Тогда ДИК следует непосредственно из этих приближений. Клаескенс и Хьорт (2008, гл. 3.5) показывают, что DIC эквивалентен для большой выборки естественной модельно-устойчивой версии AIC.
Предположения
При выводе DIC предполагается, что указанное параметрическое семейство распределений вероятностей, которые генерируют будущие наблюдения, включает истинную модель. Это предположение не всегда выполняется, и в этом сценарии желательно рассмотреть процедуры оценки модели.
Кроме того, наблюдаемые данные используются как для построения апостериорного распределения, так и для оценки оцененных моделей. Поэтому DIC склонен выбирать модели с избыточным подогревом .
Расширения
Решение вышеперечисленных проблем было предложено Андо (2007) с предложением байесовского критерия прогнозирующей информации (BPIC). Андо (2010, гл. 8) представил обсуждение различных критериев выбора байесовской модели. Чтобы избежать чрезмерных проблем DIC, Андо (2011) разработал критерии выбора байесовской модели с точки зрения прогнозирования. Критерий рассчитывается как
Первый член - это мера того, насколько хорошо модель соответствует данным, а второй член - это штраф за сложность модели. Обратите внимание, что p в этом выражении - это прогнозируемое распределение, а не вероятность, указанная выше.
Смотрите также
- Информационный критерий Акаике (AIC)
- Байесовский информационный критерий (BIC)
- Критерий сфокусированной информации (FIC)
- Информационный критерий Ханнана-Куинна
- Дивергенция Кульбака – Лейблера.
- Расхождение Дженсена – Шеннона
- Информационный критерий Ватанабэ – Акаике (WAIC)
использованная литература
- Андо, Томохиро (2007). «Байесовский прогнозный информационный критерий для оценки иерархических байесовских и эмпирических байесовских моделей». Биометрика . 94 (2): 443–458. DOI : 10.1093 / Biomet / asm017 .
- Андо, Т. (2010). Выбор байесовской модели и статистическое моделирование , CRC Press. Глава 7.
- Андо, Томохиро (2011). «Прогнозирующий выбор байесовской модели» . Американский журнал математических и управленческих наук . 31 (1–2): 13–38. DOI : 10.1080 / 01966324.2011.10737798 . S2CID 123680697 .
- Клаескенс, Дж. , И Хьорт, Н. Л. (2008). Выбор модели и усреднение модели , Кембридж. Раздел 3.5.
- Гельман, Андрей ; Карлин, Джон Б.; Стерн, Хэл С .; Рубин, Дональд Б. (2004). Байесовский анализ данных: второе издание . Тексты в статистической науке. CRC Press . ISBN 978-1-58488-388-3. LCCN 2003051474 . Руководство по ремонту 2027492 .
- ван дер Линде, А. (2005). «DIC в выборке переменных», Statistica Neerlandica , 59: 45-56. DOI: 10.1111 / j.1467-9574.2005.00278.x
- Шпигельхальтер, Дэвид Дж .; Бест, Никола Г .; Карлин, Брэдли П.; ван дер Линде, Анжелика (2002). «Байесовские меры сложности модели и соответствия (с обсуждением)» . Журнал Королевского статистического общества, Series B . 64 (4): 583–639. DOI : 10.1111 / 1467-9868.00353 . JSTOR 3088806 . MR 1979380 .
- Шпигельхальтер, Дэвид Дж .; Бест, Никола Г .; Карлин, Брэдли П.; ван дер Линде, Анжелика (2014). «Критерий отклонения информации: 12 лет спустя (с обсуждением)». Журнал Королевского статистического общества, Series B . 76 (3): 485–493. DOI : 10.1111 / rssb.12062 .
внешние ссылки
- Макэлрит, Ричард (29 января 2015 г.). «Статистическое переосмысление, лекция 8 (по DIC и другим информационным критериям)» - через YouTube .