Байесовский вывод - Bayesian inference


Из Википедии, свободной энциклопедии

Байесовский вывод является методом статистического вывода , в котором теорема Байеса используется для обновления вероятности гипотезы как более доказательство или информация становится доступным. Байесовский вывод представляет собой важный метод в статистике , и особенно в математической статистике . Байесовское обновление является особенно важным в динамическом анализе последовательности данных . Байесовский вывод нашел применение в широком спектре видов деятельности, в том числе науки , техники , философии , медицины , спорта и права . В философии теории принятия решений , байесовский вывод тесно связан с субъективной вероятности, часто называют « байесовский вероятности ».

содержание

Введение в правила Байеса

Геометрическая визуализация теоремы Байеса. В таблице, значение 2, 3, 6 и 9 приведены относительные веса каждого соответствующего состояния и случай. Цифры обозначают ячейки таблицы , участвующую в каждой метрике, вероятность того доля каждой фигуры, которая затененная. Это показывает , что Р (А | В) Р (В) = Р (В | А) Р (А) , то есть Р (А | В) = Р (В | А) Р (А) / Р (В) . Аналогичные рассуждения могут быть использованы , чтобы показать , что P (A | B) = P (B | A) P (A) / P (B) и т.д.

Формальное объяснение

Байесовский вывод выводит вероятность задней как следствие двух предшественников : в предшествующем уровне вероятности и « правдоподобие функция » , полученной из статистической модели для наблюдаемых данных. Байесовский вывод вычисляет вероятность задней согласно теореме Байеса :

где

  • обозначает любую гипотезу , вероятность которого может быть затронуты данными ( так называемых доказательства ниже). Часто конкурирующие гипотезы, и задача состоит в том, чтобы определить , что является наиболее вероятным.
  • , То априорная вероятность , является оценка вероятности гипотезы , прежде чем данные , имеющиеся фактические данные, не наблюдается.
  • свидетельство соответствует новым данным , которые не использовались при расчете априорной вероятности.
  • , То апостериорная вероятность , вероятность учитывая , т.е. после того, как наблюдается. Это то , что мы хотим знать: вероятность гипотезы дала наблюдаемое доказательство.
  • вероятность наблюдения дается , и называется вероятность . В зависимости от с фиксированной, это указывает на совместимость данных с данной гипотезой. Функция правдоподобия является функцией доказательства, а вероятность задней является функцией гипотезы, .
  • иногда называют предельную вероятность или «модель доказательства». Этот фактор является одинаковым для всех возможных гипотез , которые рассматриваются (как это видно из того факта , что гипотеза не появляется в любом месте в символе, в отличие от всех других факторов), так что этот фактор не входит в определении относительных вероятностей различного гипотезы.

Для разных значений , только факторы и , как в числителе, влияет на величину - апостериорная вероятность гипотезы пропорциональна его уровень вероятности (присущая вероятность) и вновь приобретенные правдоподобия (его совместимость с новыми наблюдаемыми доказательствами ).

Правило Байеса можно записать следующим образом:

где фактор можно интерпретировать как влияние на вероятность .

Альтернативы байесовского обновления

Байесовское обновление широко используется и вычислительно удобно. Однако, это не единственное правило обновления, которые можно было бы считать рациональным.

Ян Хакинг отметил , что традиционные « голландские книги » аргументы не уточнили байесовское обновление: они оставили возможность того, что небайезианские правила обновления могут избежать голландских книг. Взлом написал «И ни голландская книга аргумент , ни любые другой в персоналистическом арсенале доказательств аксиом теории вероятностей предполагает динамическое предположение. Не одна влечет за собой Bayesianism. Так персоналист требует динамического предположения, что байесовские. Это правда , что в Консистенция персоналист может отказаться от байесовской модели обучения на основе опыта. Соль может потерять свою силу «.

Действительно, существует небайезианским обновление правил , которые также избежать голландских книг (как описано в литературе по « вероятности кинематике ») после публикации Richard C. Джеффри 's правило, которое применяется правилом Байеса к случаю , когда само доказательство присваивается вероятность. Дополнительные условия , необходимые для однозначных требуют байесовского обновления было считаться существенными, сложными и неудовлетворительными.

Формальное описание байесовского умозаключения

Определения

  • , Точка данных в целом. Это на самом деле может быть вектором значений.
  • , То параметр распределения точки данных, то есть, . Это на самом деле может быть вектором параметров.
  • , То гиперпараметр распределения параметра, то есть . Это на самом деле может быть вектором из гиперпараметров.
  • является образцом, набор наблюдаемых точек данных, то есть .
  • , Новая точка данных, распределение должно быть предсказано.

байесовский вывод

  • Априорное распределение является распределением параметра (ов) , прежде чем наблюдаются какие - либо данные, то есть . Априорное распределение не может быть легко определена. В этом случае мы можем использовать Джеффрис до получения апостериорного распределения перед обновлением их с новыми наблюдениями.
  • Распределение выборки является распределение наблюдаемых данных условных от его параметров, то есть . Это также называют вероятность , особенно если рассматривать как функцию параметра (ов), иногда написанное .
  • Предельная вероятность (иногда также называет доказательство ) является распределением наблюдаемых данных маргинальных по параметру (ов), то есть .
  • Апостериорное распределение является распределением параметра (ов) после того, принимая во внимание наблюдаемые данные. Это определяется правилом Байеса , который формирует сердце байесовского умозаключения:

Следует отметить, что это выражается в словах, как «задняя пропорциональна времени правдоподобия предыдущего», а иногда как «задние разы = правдоподобия перед, над доказательствами».

байесовское прогнозирование

Байесовская теория требует использование заднего предсказательного распределения делать прогнозное умозаключение , то есть , чтобы предсказать распределение новой, ненаблюдаемой точку данных. То есть, вместо фиксированной точки в качестве предсказания, распределение по возможным точкам возвращаются. Только этот путь всего апостериорное распределения параметра (ов) , используемый. Для сравнения, прогнозирование в частотных статистиках часто включает в себя поиске оптимальной точечной оценки параметра (ов) -eg, с помощью максимального правдоподобия или максимальной апостериорной оценки (MAP) й затем подключить эту оценку в формулу для распределения точки данных , Это имеет тот недостаток , что он не учитывает какую - либо неопределенность в значении параметра, и , следовательно , будет недооценивать дисперсии прогнозирующего распределения.

(В некоторых случаях, частотная статистика может обойти эту проблему. Например, доверительные интервалы и интервалы предсказания в частотных статистиках , когда строятся из нормального распределения с неизвестными средним и дисперсией построены с использованием Распределения Стьюдента . Это правильно оценивает дисперсию, из - за того , что (1) среднее значение нормально распределенных случайных величин также нормально распределенной; (2) предиктивного распределение нормально распределенной точки данных с неизвестным средним и дисперсией, с использованием конъюгата или неинформативные априорные, имеет т-распределение студента . в байесовской статистике, однако, заднее предсказание распределение всегда может быть определенно точно , или , по крайней мере, до произвольного уровня точности, когда используются численные методы.)

Следует отметить , что оба типа прогнозирующих распределений имеет форму распределения вероятностей соединения (как это делает предельную вероятность ). В самом деле, если априорное распределение является конъюгат до , и , следовательно, предшествующие и задних распределения приходят из того же семейства, он может быть легко видеть , что оба предыдущих и задние прогнозирующие распределения также приходят из того же семейства составных распределений. Единственное отличие состоит в том , что заднее предсказании распределение использует обновленные значения гиперпараметров (применяющего Байес правило обновления , приведенное в сопряженном ранее статью), в то время как до интеллектуального распределение использует значение гиперпараметров , которые появляются в априорном распределении.

Выведение более и исчерпывающие возможности

Если доказательства одновременно используются для обновления верования над набором эксклюзивных и исчерпывающих положений, байесовский вывод можно рассматривать как действующие на этом распределении веры в целом.

Общая постановка

Диаграмма , иллюстрирующая пространство для проведения в общей постановке байесовского вывода. Хотя эта диаграмма показывает дискретные модели и события, непрерывный случай может быть визуализированы аналогично с использованием плотности вероятности.

Предположим, что процесс создания независимых и одинаково распределенных событий , но распределение вероятностей неизвестно. Пусть пространство события представляет текущее состояние веры для этого процесса. Каждая модель представлена событием (что «м» здесь? Его диапазон и его значение не очевидны). Условные вероятности задаются для определения модели. является степень веры в . Перед первым шагом логического вывода, представляет собой набор исходных априорных вероятностей . Они должны подвести к 1, но в остальном произвольно.

Предположим , что процесс наблюдается для генерации . Для каждого , предшествующий обновляются до заднего . Из теоремы Байеса :

При исследовании дополнительных доказательств, эта процедура может быть повторена.

Несколько наблюдений

Для последовательности независимых одинаково распределенных наблюдений , можно показать по индукции , что многократное применение вышеуказанного эквивалентно

куда


Для последовательности, где условная независимость наблюдений не может быть гарантирована, Rachael Бонд, Ян-Hui он, и Томас Ormerod показал из квантовой механики,

такой, что

Параметрический формулировка

По параметризуя пространство моделей, вера во всех моделях может быть обновлена ​​в одном шаге. Распределение веры по модели пространства, то можно рассматривать как распределение веры по параметру пространства. Распределения в этом разделе выражаются в виде непрерывной, представленная плотности вероятности, так как это обычная ситуация. Метод, однако, в равной степени применим к дискретным распределениям.

Пусть вектор охватывает пространство параметров. Пусть начальное априорное распределение будет , где это набор параметров , сам до или гиперпараметров . Пусть последовательность независимых одинаково распределенных наблюдений событий, где все распределены , как для некоторых . Теорема Байеса применяется , чтобы найти распределение задней над :

куда

Математические свойства

Интерпретация фактора

, То есть, если модель верна, доказательство будет более вероятным , чем предсказывается текущее состояние веры. Обратный применяется для уменьшения веры. Если вера не меняется, . То есть, доказательства не зависят от модели. Если модель верна, доказательство будет именно так , как , вероятно , как и предсказывает текущее состояние веры.

Правило Кромвеля

Если потом . Если , то . Это может быть истолковано как означающее , что твердые убеждения нечувствительны к контрпоказание.

Первое непосредственно следует из теоремы Байеса. Последние могут быть получены путем применения первого правила к событию «не » вместо « », получая « если , то », из которого непосредственно следует.

Асимптотическое поведение задней

Рассмотрим поведение распределения веры , как он обновляется большое количество раз с независимыми и одинаково распределенными испытаниями. При достаточно хороших априорных вероятностей, то теорема Бернштейн-Мизеса дает , что в пределе бесконечных испытаний, задняя сходится к гауссовскому распределению не зависит от начального до при некоторых условиях , во - первых , изложенных и строго проверенных с помощью Джозефа Л. Дуба в 1948 году, а именно : если случайная величина с учетом имеет конечное вероятностное пространство . Более общие результаты были получены позже статистиком Дэвид А. Фридмана , который опубликовал в двух семенных научно - исследовательских работ в 1963 и 1965 годах , когда и при каких обстоятельствах асимптотическое поведение задней гарантируется. Его 1963 бумага лечит, как Дуб (1949), конечное дело и приходят к удовлетворительному результату. Однако, если случайная величина имеет бесконечное , но счетное вероятностное пространство (то есть, что соответствует фильере с бесконечными числом граней) 1965 документа показывает , что для плотного подмножества априорий теорема Бернштейн-Мизес не применяется. В этом случае нет почти наверняка нет асимптотической сходимости. Позже , в 1980 - х и 1990 - х годах Фридман и Перси Диаконис продолжал работать на случай бесконечных счетных вероятностных пространств. Подводя итог, может оказаться недостаточно для испытания , чтобы подавить влияние первоначального выбора, и особенно для больших (но конечных) систем сходимость может быть очень медленной.

Сопряженные приоры

В параметризованной форме, априорное распределение часто предполагаются исходить из семейства распределений называемых сопряженными априорными . Полезность конъюгата до является то , что соответствующее распределение задней будет находиться в одной и той же семьи, и вычисление может быть выражена в замкнутой форме .

Оценки параметров и прогнозов

Часто желательно использовать апостериорное распределение для оценки параметра или переменной. Несколько методов байесовской оценки выбор измерения центральной тенденции из апостериорного распределения.

Для одномерных задач, уникальная Медиана существует для практических непрерывных задач. Задний срединный является привлекательным как надежной оценки .

Если существует конечное среднее для апостериорного распределения, то задние средний представляет собой метод оценки.

Принимая значение с наибольшей вероятностью определяет максимальные апостериорную (MAP) оценки:

Есть примеры , когда нет максимума не достигаются, и в этом случае набор оценок МАР является пустым .

Существует и другие методы оценки , которые минимизируют задний риск (ожидаемый задней убыток) по отношению к функции потерь , и они представляют интерес для статистической теории принятия решений с использованием распределения выборки ( «статистика» частотной).

Заднее предсказание распределения нового наблюдения (т.е. не зависит от предыдущих наблюдений) определяются

Примеры

Вероятность гипотезы

Предположим, что есть два полных миски печенья. Чаша # 1 имеет 10 шоколадного чип и 30 скольжения печенье, а чаша # 2 имеет 20 каждого из них. Наш друг Фред выбирает шар наугад, а затем выбирает печенье в случайном порядке. Мы можем предположить, что нет никаких оснований полагать, Фред рассматривает один шар отличается от другого, аналогично для печенья. Печенье оказывается простой один. Какова вероятность того, что Фред выбрал его из чаши # 1?

Наглядно, представляется очевидным , что ответ должен быть больше половины, так как есть более простые печенья в миске # 1. Точный ответ дается теоремой Байеса. Пусть соответствуют чаша # 1, и в миску # 2. Дано , что чаши идентичны с точки Фреда зрения, таким образом , и два должны добавить до 1, так как равны 0,5. Это событие является наблюдение простого печенья. Из содержания чаши, мы знаем , что и Байеса формула , то урожайность

Перед тем как мы наблюдали печенье, вероятность того, мы назначенную для Фреда избрав чаша # 1 была априорная вероятность, , который был 0,5. После наблюдения печенья, мы должны пересмотреть вероятность , что является 0,6.

Создание прогноза

Пример результатов, например археология. Это моделирование было получено с помощью с = 15,2.

Археолог работает на месте подумал, что от средневекового периода, между 11-м веке в 16-м веке. Однако, остается неясным, когда именно в этот период был заселен сайт. Фрагменты керамики найдены, некоторые из которых застеклены и некоторые из которых украшены. Ожидается, что если сайт был заселен еще во времена раннего средневековья, то 1% из керамики будет застеклен и 50% его площади украшены, в то время как если бы она была заселена в период позднего средневековья, то 81% будет застеклен и 5% его площади, украшенной. Как уверен археолог может быть в день обитания, как фрагменты раскопали?

Степень веры в непрерывной переменной (века) должна быть рассчитана с дискретным множеством событий в качестве доказательства. Предполагая , что линейное изменение глазури и украшения со временем, и что эти переменные являются независимыми,

Предположим , униформу настоятелем , и что испытания независимы и одинаково распределены . Когда новый фрагмент типа обнаружен, теорема Байеса применяется для обновления степень веры для каждого :

Компьютерное моделирование изменяющихся вер как 50 фрагментов незаземленных показано на графике. При моделировании, сайт был заселен около 1420, или . При расчете площади под соответствующей части графика на 50 исследований, археолог может сказать , что нет практически никаких шансов сайт был заселен в 11 - м и 12 - м веках, около 1% шанс , что она была заселена в течение 13 - го века, 63 % шанс в течение 14 - го века и 36% в течение 15 - го века. Заметим , что теорема Бернштейна Мизес утверждает здесь асимптотическую сходимость к «истинной» распределения , так как вероятностное пространство , соответствующее дискретного множества событий конечен (см выше раздел об асимптотике задней).

В статистике и частотной теории принятия решений

Решение теоретико- обоснование использования байесовского умозаключения было дано Авраам Wald , который доказал , что каждая уникальная байесовская процедура допустима . С другой стороны , каждая допустимая статистическая процедура является либо байесовская процедурой или предел байесовских процедур.

Wald характеризуется как допустимые процедуры байесовских процедур (и пределы байесовских процедур), что делает байесовский формализм центральную технику в таких областях частотного логического вывода в качестве оценки параметров , проверок гипотез и вычислительных доверительных интервалов . Например:

  • «В некоторых условиях, все допустимые процедуры либо процедуры Байеса или пределы процедур Байеса (в различных смыслах). Эти замечательные результаты, по крайней мере, в их первоначальном виде, обусловлены существенно Wald. Они полезны, потому что свойство быть Байеса является легче анализировать, чем приемлемости «.
  • «В теории принятия решений, весьма общий метод для доказательства допустимости состоит в выставлении процедуру в качестве единственного решения Байеса.»
  • «В первых главах этой работы были использованы предыдущие распределения с конечным носителем и соответствующих процедур байесовских установить некоторые основные теоремы, относящиеся к сравнению экспериментов. Процедуры Байеса относительно более общих априорных распределений играют очень важную роль в развитии статистики, в том числе ее асимптотической теории «. «Есть много проблем, где взгляд на распределениях задних, подходящие настоятель, немедленно дает интересную информацию. Кроме того, этот метод вряд ли можно избежать последовательного анализа.»
  • «Полезное в том, что любое правило Байеса решения получено путем принятия надлежащих до по всему пространству параметра должно быть допустимым»
  • «Важное направление исследования в развитии приемлемости идей в том, что из обычных процедур отбора проб-теории, и многих интересных результатов были получены.»

выбор модели

Приложения

Компьютерные приложения

Байесовский вывод имеет приложение в искусственном интеллекте и экспертных системах . Байесовской методы логического вывода были основной частью компьютеризированных распознавания образов методов , начиная с конца 1950 - х годов. Существует также постоянно растущая связь между байесовской методов и моделирования на основе метода Монте - Карло методов , так как сложные модели не могут быть обработаны в замкнутой форме с помощью байесовского анализа, в то время как графическая модель структуры может обеспечить эффективные алгоритмы моделирования как выборки Гиббса и другие Метрополис -Hastings алгоритм схемы. Недавно байесовский вывод приобрел популярность среди Филогенетики сообщества по этим причинам; ряд приложений позволяет многие демографические и эволюционные параметры должны быть оценены одновременно.

Применительно к статистической классификации , байесовский вывод используется в последние годы для разработки алгоритмов идентификации электронной почты от спама . Приложения , которые используют байесовский вывод для фильтрации спама включают CRM114 , DSPAM , BogoFilter , SpamAssassin , SpamBayes , Mozilla , XEAMS и другие. Классификация спама рассматривается более подробно в статье на наивного байесовского классификатора .

Индуктивный вывод Соломонов в это теория предсказания на основе наблюдений; например, предсказание следующего символа , основываясь на данной серии символов. Единственное предположение , что окружающая среда вытекает какое - то неизвестное , но вычисляемое распределение вероятностей. Это формальная индуктивный структура , которая сочетает в себе два хорошо изученные принципы индуктивного вывода: байесовской статистики и бритвой Оккама . Универсальная априорная вероятность Соломонов в любой приставке р вычислимой последовательности х есть сумма вероятностей всех программ (для универсального компьютера) , которые вычисляют что - то , начиная с р . Учитывая некоторый р и любое вычислимое , но неизвестное распределение вероятностей , из которых х дискретизируются, универсальная до и Байеса теорема может быть использована для прогнозирования невиданных частей х оптимальным образом.

Биоинформационные приложения

Байесовский вывод был применен в различных приложениях биоинформатики, в том числе экспрессии генного анализа дифференциально ,, классификации одноклеточных, подтипов рака, и т.д.

В зале суда

Байесовский вывод может быть использован присяжными когерентно накапливаются доказательства за и против ответчика, и видеть в совокупности, она отвечает ли, их личный порог для « вне разумного сомнения ». Теорема Байеса применяется последовательно ко всем доказательствам , представленным, с задним от одной стадии становится до следующего. Преимущество байесовского подхода заключается в том, что она дает присяжной непредвзятый, рациональный механизм для объединения доказательств. Это может быть целесообразным , чтобы объяснить теорему Байеса присяжным в фор форме , а ставки шансы более широкое понимание , чем вероятности. С другой стороны , логарифмическая подход , заменив умножение того, может быть проще для присяжных для обработки.

Суммируя доказательства.

Если существование преступления не вызывает сомнения, только личность виновного, было высказано предположение о том, что перед должно быть равномерным по отборочному населению. Например, если 1000 человек мог совершить преступление, априорная вероятность вины будет 1/1000.

Использование теоремы Байеса на присяжных заседателей , является спорным. В Соединенном Королевстве, защита свидетелей эксперт объяснил теорему Байеса присяжным в Р против Адамса . Суд присяжных признал, но дело пошло на апелляцию на том основании , что никакие средства накопления доказательств не было предоставлено для присяжных заседателей , которые не желают использовать теорему Байеса. Апелляционный суд оставил в силу приговора, но он также дал заключение , что «Внедрить теорему Байеса, или любой подобный метод, в уголовный процесс погружает присяжный в неподходящие и ненужные сферы теории и сложности, отклоняя их от правильной задачи «.

Гарднер-Медуин утверждает , что критерий , на котором должен быть основан приговор в уголовном процессе не вероятность вины, а скорее вероятность доказательства, учитывая , что ответчик невиновен (родственный частотной р-значение ). Он утверждает , что если апостериорная вероятность вины должны быть вычислена по теореме Байеса, априорная вероятность вины должна быть известна. Это будет зависеть от частоты преступления, что является необычной уликой для рассмотрения в уголовном процессе. Рассмотрим следующие три предложения:

A Известные факты и свидетельства могли бы возникнуть , если бы ответчик виновен
B Известные факты и свидетельства могли бы возникнуть , если бы ответчик невиновен
C Подсудимый виновным.

Гарднер-Медуин утверждает , что присяжные должны верить как А , так и не-B для того , чтобы уличить. А и не-В означает истинность C, но обратное неверно. Вполне возможно , что B и C оба являются истинными, но в этом случае он утверждает , что присяжные должны оправдать, даже если они знают , что они будут дать некоторые виновные выйти на свободу. Смотрите также парадокс Линдли в .

байесовская эпистемология

Байесовские эпистемологии являются движением , которое выступает за байесовский вывод в качестве средства обоснования правил индуктивной логики.

Карл Поппер и Дэвид Миллер отвергли идею байесовского рационализма, то есть , используя правило Байеса , чтобы сделать гносеологические выводы: Он склонен к тому же порочному кругу , как и любой другой justificationist эпистемологии, поскольку она предполагает , что он пытается оправдать. Согласно этой точке зрения, рациональная интерпретация байесовского умозаключения бы видеть его лишь как вероятностный вариант фальсификации , отвергая веру, обычно проводится с помощью Bayesians, что высокая вероятность достигается за счет ряда Байесовских обновлений будет доказать гипотезу , вне всякого сомнения, или даже с вероятностью большей , чем 0.

Другой

Байеса и байесовский вывод

Проблема рассматривается Байесом в предложении 9 его эссе « Эссе в направлении решения проблемы в Доктрине Возможностей », является распределением задним для параметра (показатель успешности) от биномиального распределения .

история

Термин байесовский относится к Томас Байеса (1702-1761), который доказал частный случай того , что теперь называется теоремой Байеса . Тем не менее, он был Лаплас (1749-1827) , который ввел общую версию теоремы и использовал его , чтобы подходить к решению проблем в небесной механике , медицинской статистике, надежности и юриспруденции . Ранний байесовский вывод, который используется равномерными априорным следующим Лаплас принципа недостаточного основания , был назван « обратной вероятностью » (потому что он выводит в обратном направлении от наблюдений к параметрам, или от воздействия на причины). После 1920 - х лет, «обратная вероятность» была в значительной степени вытеснена коллекцией методов , которые стали называть частотную статистику .

В 20 - м века, идеи Лапласа получили дальнейшее развитие в двух разных направлениях, что приводит к объективным и субъективным токам в байесовской практике. В цели или «не-информативного» ток, статистический анализ зависит только от модели, предполагается , данные анализируются, и метод , присваивающий до, который отличается от одного объективных байесовского другому объективного байесовским. В субъективном или «информативном» токе, спецификация предшествующего зависит от веры (то есть, предложения по которым осуществляется анализ готов действовать), которые могут обобщать информацию от экспертов, предыдущих исследований и т.д.

В 1980 году произошел резкий рост в области исследований и применения байесовских методов, в основном , приписанных к открытию цепи Маркова Монте - Карло методы, которые удалены многие из вычислительных задач, а также возрастающий интерес к нестандартным, сложных приложений. Несмотря на рост Байеса исследований, большинство Вузовский по - прежнему базируется на статистике частотная. Тем не менее, байесовские методы широко приняты и использованы, например , как, например , в области машинного обучения .

Смотрите также

Рекомендации

Цитирование

источники

дальнейшее чтение

  • Полный отчет об истории байесовской статистики и дискуссиях с frequentists подходами, читайте Vallverdu, Jordi (2016). Bayesians Versus Frequentists философских дебатов по статистическому Рассуждению . Нью - Йорк: Springer. ISBN  978-3-662-48638-2 .

элементарный

Следующие книги перечислены в порядке возрастания сложности вероятностного:

  • Камень, СП (2013), «Правило Байеса: Учебное пособие Введение в байесовский анализ», скачать первую главу здесь , Sebtel Press, Англия.
  • Деннис В. Линдли (2013). Понимание неопределенности, пересмотренное издание (2 изд.). John Wiley. ISBN  978-1-118-65012-7 .
  • Колин Howson и Питер Урбах (2005). Научное Обоснование: Байесова подход (3 - е изд.). Open Court Publishing Company . ISBN  978-0-8126-9578-6 .
  • Берри, Дональд А. (1996). Статистика: байесовская Перспектива . Duxbury. ISBN  978-0-534-23476-8 .
  • Моррис Х. ДеГрут & Mark J. Schervish (2002). Вероятность и статистика (третье издание). Addison-Wesley. ISBN  978-0-201-52488-8 .
  • Болстад, Уильям М. (2007) Введение в байесовской статистике : второе издание, John Wiley ISBN  0-471-27020-2
  • Уинклер, Роберт Л. (2003). Введение в байесовские умозаключения и решение (2 - й изд.). Вероятностный. ISBN  978-0-9647938-4-2 .Обновленный классический учебник. Байесовская теория четко представлена.
  • Ли, Питер М. байесовской статистики: Введение . Четвертое издание (2012), John Wiley ISBN  978-1-1183-3257-3
  • Carlin, Брэдли П. и Луи, Томас А. (2008). Байесовская метода анализа данных, третье издание . Бока - Ратон, штат Флорида: Чепмен и Холл / CRC. ISBN  978-1-58488-697-6 .
  • Гельман, Эндрю ; Карлина, John B .; Стерн, Хал S .; Дансон, David B .; Vehtari, Aki; Рубин, Дональд В. (2013). Байесовский анализ данных, третье издание . Чапмен и Холл / CRC. ISBN  978-1-4398-4095-5 .

Средний или продвинутый

внешняя ссылка