Энциклопедия маркетинга. Методы распознавания Анализ и проверка домашней работы

Эта формула относится к случаю, когда обследование проводится по комплексу признаков К , включающему признаки k 1 ,k 2 , ..., k v . Каждый из признаков k j имеет m j разрядов (k j l , k j 2 , ..., k js , ...,). В результате обследования становится известной реализация признака

k j * = k js (1.5.)

и всего комплекса признаков K *. Индекс *, как и раньше, означает конкретное значение (реализацию) признака. Формула Байеса для комплекса признаков имеет вид

P (D i /К * )= P (D i )P (К */D i )/P (К * )(i = 1, 2, ..., n ), (1.6.)

где P (D i /К * ) --вероятность диагноза D i после того, как стали известны результаты обследования по комплексу признаков К , P (D i ) --предварительная вероятность диагноза D i (по предшествующей статистике).

Формула (1.6.) относится к любому из n возможных состояний (диагнозов) системы. Предполагается, что система находится только в одном из указанных состояний и потому

В практических задачах нередко допускается возможность существования нескольких состояний А1, ….., Аr, причем некоторые из них могут встретиться в комбинации друг с другом.

P (К */ D i ) = P(k 1 */D i )P (k 2 */k 1 *D i )...P (k v */k l *...k* v- 1 D i ), (1.8.)

где k j * =k js --разряд признака, выявившийся в результате обследования. Для диагностически независимых признаков

P (К */ D i ) = P (k 1 */D i ) P (k 2 */D i )... P (k v * / D i ). (1.9.)

В большинстве практических задач, особенно при большом числе признаков, можно принимать условие независимости признаков даже при наличии существенных корреляционных связей между ними.

Вероятность появления комплекса признаков К*

P (К *)= P (D s )P (К */D s ) .(1.10.)

Обобщенная формула Байеса может быть записана так :

P (D i /K * ) (1.11.)

где P (К */ D i )определяется равенством (1.8.) или (1.9.). Из соотношения (1.11.) вытекает

P (D i /К *)=l, (1.12.)

что, разумеется, и должно быть, так как один из диагнозов обязательно реализуется, а реализация одновременно двух диагнозов невозможна. Следует обратить внимание на то, что знаменатель формулы Байеса для всех диагнозов одинаков. Это позволяет сначала определить вероятности совместного появления i-гo диагноза и данной реализации комплекса признаков

P (D i К *) = P (D i )P (К */D i ) (1.13.)

и затем апостериорную вероятность диагноза

P (D i /К *) = P (D i К *)/P (D s К *). (1.14.)

Отметим, что иногда целесообразно использовать предварительное логарифмирование формулы (1.11.), так как выражение (1.9.) содержит произведения малых величин.

Если реализация некоторого комплекса признаков К * является детерминирующей для диагноза D p , то этот комплекс не встречается при других диагнозах:

Тогда, в силу равенства (1.11.)

Таким образом, детерминистская логика установления диагноза является частным случаем вероятностной логики. Формула Байеса может использоваться и в том случае, когда часть признаков имеет дискретное распределение, а другая часть -- непрерывное. Для непрерывного распределения используются плотности распределения. Однако в расчетном плане указанное различие признаков несущественно, если задание непрерывной кривой осуществляется с помощью совокупности дискретных значений.

МЕТОД ПОСЛЕДОВАТЕЛЬНОГО АНАЛИЗА

МЕТОД БАЙЕСА

План лекции

Анализ и проверка домашней работы

Организационный момент.

Ход лекции.

Лекция 9

Тема. СТАТИСТИЧЕСКИЕ МЕТОДЫ РАСПОЗНАВАНИЯ

Цель. Дать понятие распознавания цифрового сигнала.

1. Учебная. Разъяснить процесс распознавания цифрового сигнала.

2. Развивающая. Развивать логическое мышление и естественное - научное мировоззрение.

3. Воспитательная . Воспитывать интерес к научным достижениям и открытиям в отрасли телекоммуникации.

Межпредметные связи:

· Обеспечивающие: информатика, математика, вычислительная техника и МП, системы программирования.

· Обеспечиваемые: Стажерская практика

Методическое обеспечение и оборудование:

1. Методическая разработка к занятию.

2. Учебный план.

3. Учебная программа

4. Рабочая программа.

5. Инструктаж по технике безопасности.

Технические средства обучения: персональный компьютер.

Обеспечение рабочих мест:

· Рабочие тетради

3. Ответьте на вопросы:

1. В чем заключается отличие цифровых сигналов от аналоговых?

2. Какие классы диаграмм используются при проведении измерений?

3. Дайте краткое описание каждому классу.

4. Что используется для построения глазковой диаграммы?

5. Поясните суть глазковой диаграммы.

· Основы метода

  • Обобщенная формула Байеса.

· Диагностическая матрица.

· Решающее правило

· Основы метода.

· Общая процедура метода.

· Связь границ принятия решения с вероятностями ошибок пер­вого и второго рода.

Основное преимущество статистических методов распознавания состоит в возможности одновременного учета признаков различной физической природы, так как они характеризуются безразмерными величинами - вероятностями их появления при различных состояниях системы .

Среди методов технической диагностики метод, основанный на обобщенной формуле Байеса (Теорема Байеса (или формула Байеса) - одна из основных теорем теории вероятностей, которая позволяет определить вероятность того, что произошло какое-либо событие(гипотеза) при наличии лишь косвенных тому подтверждений (данных), которые могут быть неточны ), занимает особое место благо­даря простоте и эффективности.

Метод Байеса имеет недостатки: большой объем предварительной информации, «угнетение» редко встречающихся диагнозов и др. Однако в случаях, когда объем статистических данных позволяет применить метод Байеса, его целесообразно использовать как один из наиболее надежных и эффективных методов.

Основы метода. Метод основан на простой формуле Байеса. Если имеется диагноз D i и простой признак ki, встре­чающийся при этом диагнозе, то вероятность совместного появ­ления событий (наличие у объекта состояния Di и признака ki)



Из этого равенства вытекает формула Байеса

(3.2)

Очень важно определить точный смысл всех входящих в эту формулу величин.

P(Di)- априорная вероятность гипотезы D

P(ki/Di) - вероятность гипотезы ki при наступлении события D (апостериорная вероятность - вероятность случайного события при условии того, что известны апостериорные данные, т.е. полученные после опыта.)

P(ki) - полная вероятность наступления события ki

P(Di/ki) - вероятность наступления события Di при истинности гипотезы ki

Р(D)- вероятность диагноза D , определяемая по стати­стическим данным (априорная вероятность диагноза). Так, если предварительно обследовано N объектов и у W,- объектов имелось состояние D, то

P(D i) = N i /N. (3.3)

Р (kj/Di) - вероятность появления признака k j ; у объектов с со­стоянием Di. Если среди Ni, объектов, имеющих диагноз Di, у N ij проявился признак k j то

(3.4)

Р (kj) - вероятность появления признака kj во всех объектах независимо от состояния (диагноза) объекта . Пусть из общего числа N объектов признак к } был обнаружен у Nj объектов, тогда

(3.5)

В равенстве (3.2) Р ( Di/kj) - вероятность диагноза D после того, как стало известно наличие у рассматриваемого объекта признака kj (апостериорная вероятность диагноза ).

Формула Байеса

Теорема Байеса - одна из основных теорем элементарной теории вероятностей , которая определяет вероятность наступления события в условиях, когда на основе наблюдений известна лишь некоторая частичная информация о событиях. По формуле Байеса можно более точно пересчитывать вероятность, беря в учёт как ранее известную информацию, так и данные новых наблюдений.

«Физический смысл» и терминология

Формула Байеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.

События, отражающие действие «причин», в данном случае обычно называют гипотезами , так как они - предполагаемые события, повлекшие данное. Безусловную вероятность справедливости гипотезы называют априорной (насколько вероятна причина вообще ), а условную - с учетом факта произошедшего события - апостериорной (насколько вероятна причина оказалась с учетом данных о событии ).

Следствие

Важным следствием формулы Байеса является формула полной вероятности события, зависящего от нескольких несовместных гипотез (и только от них! ).

- вероятность наступления события B , зависящего от ряда гипотез A i , если известны степени достоверности этих гипотез (например, измерены экспериментально);

Вывод формулы

Если событие зависит только от причин A i , то если оно произошло, значит, обязательно произошла какая-то из причин, т.е.

По формуле Байеса

Переносом P (B ) вправо получаем искомое выражение.

Метод фильтрации спама

Метод, основанный на теореме Байеса, нашел успешное применение в фильтрации спама .

Описание

При обучении фильтра для каждого встреченного в письмах слова высчитывается и сохраняется его «вес» - вероятность того, что письмо с этим словом - спам (в простейшем случае - по классическому определению вероятности: «появлений в спаме / появлений всего» ).

При проверке вновь пришедшего письма вычисляется вероятность того, что оно - спам, по указанной выше формуле для множества гипотез. В данном случае «гипотезы» - это слова, и для каждого слова «достоверность гипотезы» - % этого слова в письме, а «зависимость события от гипотезы» P (B | A i ) - вычисленнный ранее «вес» слова. То есть «вес» письма в данном случае - не что иное, как усредненный «вес» всех его слов.

Отнесение письма к «спаму» или «не-спаму» производится по тому, превышает ли его «вес» некую планку, заданную пользователем (обычно берут 60-80 %). После принятия решения по письму в базе данных обновляются «веса» для вошедших в него слов.

Характеристика

Данный метод прост (алгоритмы элементарны), удобен (позволяет обходиться без «черных списков» и подобных искусственных приемов), эффективен (после обучения на достаточно большой выборке отсекает до 95-97 % спама, и в случае любых ошибок его можно дообучать). В общем, есть все показания для его повсеместного использования, что и имеет место на практике - на его основе построены практически все современные спам-фильтры.

Впрочем, у метода есть и принципиальный недостаток: он базируется на предположении , что одни слова чаще встречаются в спаме, а другие - в обычных письмах , и неэффективен, если данное предположение неверно. Впрочем, как показывает практика, такой спам даже человек не в состоянии определить «на глаз» - только прочтя письмо и поняв его смысл.

Еще один, не принципиальный, недостаток, связанный с реализацией - метод работает только с текстом. Зная об этом ограничении, спамеры стали вкладывать рекламную информацию в картинку, текст же в письме либо отсутствует, либо не несет смысла. Против этого приходится пользоваться либо средствами распознавания текста («дорогая» процедура, применяется только при крайней необходимости), либо старыми методами фильтрации - «черные списки» и регулярные выражения (так как такие письма часто имеют стереотипную форму).

См. также

Примечания

Ссылки

Литература

  • Берд Киви. Теорема преподобного Байеса . // Журнал «Компьютерра», 24 августа 2001 г.
  • Paul Graham. A plan for spam (англ.). // Персональный сайт Paul Graham.

Wikimedia Foundation . 2010 .

Смотреть что такое "Формула Байеса" в других словарях:

    Формула, имеющая вид: где a1, А2,..., Ап несовместимые события, Общая схема применения Ф. в. г.: если событие В может происходить в разл. условиях, относительно которых сделано п гипотез А1, А2, ..., Аn с известными до опыта вероятностями P(A1),… … Геологическая энциклопедия

    Позволяет вычислить вероятность интересующего события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез. Формулировка Пусть дано вероятностное пространство, и полная группа попарно… … Википедия

    Позволяет вычислить вероятность интересующего события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез. Формулировка Пусть дано вероятностное пространство, и полная группа событий, таких… … Википедия

    - (или формула Байеса) одна из основных теорем теории вероятностей, которая позволяет определить вероятность того, что произошло какое либо событие (гипотеза) при наличии лишь косвенных тому подтверждений (данных), которые могут быть неточны … Википедия

    Теорема Байеса одна из основных теорем элементарной теории вероятностей, которая определяет вероятность наступления события в условиях, когда на основе наблюдений известна лишь некоторая частичная информация о событиях. По формуле Байеса можно… … Википедия

    Байес, Томас Томас Байес Reverend Thomas Bayes Дата рождения: 1702 год(1702) Место рождения … Википедия

    Томас Байес Reverend Thomas Bayes Дата рождения: 1702 год(1702) Место рождения: Лондон … Википедия

    Байесовский вывод один из методов статистического вывода, в котором для уточнения вероятностных оценок на истинность гипотез при поступлении свидетельств используется формула Байеса. Использование байесовского обновления особенно важно в… … Википедия

    Для улучшения этой статьи желательно?: Найти и оформить в виде сносок ссылки на авторитетные источники, подтверждающие написанное. Проставив сноски, внести более точные указания на источники. Пере … Википедия

    Будут ли заключенные друг друга предавать, следуя своим эгоистическим интересам, или будут молчать, тем самым минимизируя общий срок? Дилемма заключённого (англ. Prisoner s dilemma, реже употребляется название «дилемма … Википедия

Книги

  • Теория вероятностей и математическая статистика в задачах. Более 360 задач и упражнений , Борзых Д.А.. В предлагаемом пособии содержатся задачи различного уровня сложности. Однако основной акцент сделан на задачах средней сложности. Это сделано намеренно с тем, чтобы побудить студентов к…

Кто такой Байес? и какое отношение он имеет к менеджменту? – может последовать вполне справедливый вопрос. Пока поверьте мне на слово: это очень важно!.. и интересно (по крайней мере, мне).

В какой парадигме действуют большинство менеджеров: если я наблюдаю нечто, какие выводы могу из этого сделать? Чему учит Байес: что должно быть на самом деле, чтобы мне довелось наблюдать это нечто? Именно так развиваются все науки, и об этом пишет (цитирую по памяти): человек, у которого нет в голове теории, будет шарахаться от одной идеи к другой под воздействием различных событий (наблюдений). Не даром говорят: нет ничего более практичного, чем хорошая теория.

Пример из практики. Мой подчиненный совершает ошибку, и мой коллега (руководитель другого отдела) говорит, что надо бы оказать управленческое воздействие на нерадивого сотрудника (проще говоря, наказать/обругать). А я знаю, что этот сотрудник делает 4–5 тысяч однотипных операций в месяц, и совершает за это время не более 10 ошибок. Чувствуете различие в парадигме? Мой коллега реагирует на наблюдение, а я обладаю априорным знанием, что сотрудник допускает некоторое количество ошибок, так что еще одна не повлияла на это знание… Вот если по итогам месяца окажется, что таких ошибок, например, 15!.. Это уже станет поводом для изучения причин несоответствия стандартам.

Убедил в важности Байесовского подхода? Заинтриговал? Надеюсь, что «да». А теперь ложка дегтя. К сожалению, идеи Байеса редко даются с первого захода. Мне откровенно не повезло, так как я знакомился с этими идеями по популярной литературе, после прочтения которой оставалось много вопросов. Планируя написать заметку, я собрал всё, что ранее конспектировал по Байесу, а также изучил, что пишут в Интернете. Предлагаю вашему вниманию мое лучшее предположение на тему Введение в Байесовскую вероятность .

Вывод теоремы Байеса

Рассмотрим следующий эксперимент: мы называем любое число лежащее на отрезке и фиксируем, когда это число будет, например, между 0,1 и 0,4 (рис. 1а). Вероятность этого события равна отношению длины отрезка к общей длине отрезка , при условии, что появления чисел на отрезке равновероятны . Математически это можно записать p (0,1 <= x <= 0,4) = 0,3, или кратко р (X ) = 0,3, где р – вероятность, х – случайная величина в диапазоне , Х – случайная величина в диапазоне . То есть, вероятность попадания в отрезок равна 30%.

Рис. 1. Графическая интерпретация вероятностей

Теперь рассмотрим квадрат x (рис. 1б). Допустим, мы должны называть пары чисел (x , y ), каждое из которых больше нуля и меньше единицы. Вероятность того, что x (первое число) будет в пределах отрезка (синяя область 1), равна отношению площади синей области к площади всего квадрата, то есть (0,4 – 0,1) * (1 – 0) / (1 * 1) = 0,3, то есть те же 30%. Вероятность того, что y находится внутри отрезка (зеленая область 2) равна отношению площади зеленой области к площади всего квадрата p (0,5 <= y <= 0,7) = 0,2, или кратко р (Y ) = 0,2.

Что можно узнать о значениях одновременно x и y . Например, какова вероятность того, что одновременно x и y находятся в соответствующих заданных отрезках? Для этого надо посчитать отношение площади области 3 (пересечения зеленой и синей полос) к площади всего квадрата: p (X , Y ) = (0,4 – 0,1) * (0,7 – 0,5) / (1 * 1) = 0,06.

А теперь допустим мы хотим знать какова вероятность того, что y находится в интервале , если x уже находится в интервале . То есть фактически у нас есть фильтр и когда мы называем пары (x , y ), то мы сразу отбрасывает те пары, которые не удовлетворяют условию нахождения x в заданном интервале, а потом из отфильтрованных пар мы считаем те, для которых y удовлетворяет нашему условию и считаем вероятность как отношение количества пар, для которых y лежит в вышеупомянутом отрезке к общему количеству отфильтрованных пар (то есть для которых x лежит в отрезке ). Мы можем записать эту вероятность как p (Y |X у х попал в диапазоне ». Очевидно, что эта вероятность равна отношению площади области 3 к площади синей области 1. Площадь области 3 равна (0,4 – 0,1) * (0,7 – 0,5) = 0,06, а площадь синей области 1 (0,4 – 0,1) * (1 – 0) = 0,3, тогда их отношение равно 0,06 / 0,3 = 0,2. Другими словами, вероятность нахождения y на отрезке при условии, что x принадлежит отрезку p (Y |X ) = 0,2.

В предыдущем абзаце мы фактически сформулировали тождество: p (Y |X ) = p (X , Y ) / p(X ). Читается: «вероятность попадания у в диапазон , при условии, что х попал в диапазон , равна отношению вероятности одновременного попадания х в диапазон и у в диапазон , к вероятности попадания х в диапазон ».

По аналогии рассмотрим вероятность p (X |Y ). Мы называем пары (x , y ) и фильтруем те, для которых y лежит между 0,5 и 0,7, тогда вероятность того, что x находится в отрезке при условии, что y принадлежит отрезку равна отношению площади области 3 к площади зеленой области 2: p (X |Y ) = p (X , Y ) / p (Y ).

Заметим, что вероятности p (X , Y ) и p (Y, Х ) равны, и обе равны отношению площади зоны 3 к площади всего квадрата, а вот вероятности p (Y |X ) и p (X |Y ) не равны; при этом вероятность p (Y |X ) равна отношению площади области 3 к области 1, а p (X |Y ) – области 3 к области 2. Заметим также, что p (X , Y ) часто обозначают как p (X &Y ).

Итак, мы ввели два определения: p (Y |X ) = p (X , Y ) / p(X ) и p (X |Y ) = p (X , Y ) / p (Y )

Перепишем эти равенства виде: p (X , Y ) = p (Y |X ) * p(X ) и p (X , Y ) = p (X |Y ) * p (Y )

Поскольку левые части равны, равны и правые: p (Y |X ) * p(X ) = p (X |Y ) * p (Y )

Или мы можем переписать последнее равенство в виде:

Это и есть теорема Байеса!

Неужели столь несложные (почти тавтологические) преобразования рождают великую теорему!? Не спешите с выводами. Давайте еще раз проговорим, что же мы получили. Имелась некая исходная (априорная) вероятность р (Х), того, что случайная величина х равномерно распределенная на отрезке попадает в диапазон Х . Произошло некое событие Y , в результате которого мы получили апостериорную вероятность той же самой случайной величины х : р (Х|Y), и эта вероятность отличается от р (Х) на коэффициент . Событие Y называется свидетельством, в большей или меньшей степени подтверждающим или опровергающим Х . Указанный коэффициент иногда называют мощностью свидетельства . Чем мощнее свидетельство, тем больше факт наблюдения Y изменяет априорную вероятность, тем больше апостериорная вероятность отличается от априорной. Если свидетельство слабое, апостериорная вероятность почти равна априорной.

Формула Байеса для дискретных случайных величин

В предыдущем разделе мы вывели формулу Байеса для непрерывных случайных величин х и y, определенных на отрезке . Рассмотрим пример с дискретными случайными величинами, принимающими каждая по два возможных значения. В ходе проведения плановых медицинских осмотров установлено, что в сорокалетнем возрасте 1% женщин болеет раком молочной железы. 80% женщин больных раком получают положительные результаты маммографии. 9,6% здоровых женщин также получают положительные результаты маммографии. В ходе проведения осмотра женщина данной возрастной группы получила положительный результат маммографии. Какова вероятность того, что у неё на самом деле рак молочной железы?

Ход рассуждений/вычислений следующий. Из 1% больных раком маммография даст 80% положительных результатов = 1%*80% = 0,8%. Из 99% здоровых женщин маммография даст 9,6% положительных результатов = 99%*9,6% = 9,504%. Итого из 10,304% (9,504% + 0,8%) с положительными результатами маммографии, только 0,8% больных, а остальные 9,504% здоровых. Таким образом, вероятность того, что при положительном результате маммографии женщина больна раком составляет 0,8%/10,304% = 7,764%. А вы думали, что 80% или около того?

В нашем примере формула Байеса принимает следующий вид:

Давайте еще раз проговорим «физический» смысл этой формулы. Х – случайная величина (диагноз), принимающая значения: Х 1 – болен и Х 2 – здоров; Y – случайная величина (результат измерения –маммографии), принимающая значения: Y 1 – положительный результат и Y 2 – отрицательный результат; р(Х 1) – вероятность болезни до проведения маммографии (априорная вероятность), равная 1%; р(Y 1 |X 1 ) – вероятность положительного результата в случае, если пациентка больна (условная вероятность, так как она должна быть задана в условиях задачи), равная 80%; р(Y 1 |X 2 ) – вероятность положительного результата в случае, если пациентка здорова (также условная вероятность), равная 9,6%; р(Х 2) – вероятность того, что пациентка здорова до проведения маммографии (априорная вероятность), равная 99%; р(Х 1 |Y 1 ) – вероятность того, что пациентка больна, при условии положительного результата маммографии (апостериорная вероятность).

Видно, что апостериорная вероятность (то, что мы ищем) пропорциональна априорной вероятности (исходной) с несколько более сложным коэффициентом . Подчеркну еще раз. На мой взгляд, это фундаментальный аспект Байесовского подхода. Измерение (Y ) добавило некоторое количество информации к первоначально имевшейся (априорной), что уточнило наше знание об объекте.

Примеры

Для закрепления пройденного материала попробуйте решить несколько задач.

Пример 1. Имеется 3 урны; в первой 3 белых шара и 1 черный; во второй - 2 белых шара и 3 черных; в третьей - 3 белых шара. Некто подходит наугад к одной из урн и вынимает из нее 1 шар. Этот шар оказался белым. Найдите апостериорные вероятности того, что шар вынут из 1-й, 2-й, 3-й урны.

Решение. У нас есть три гипотезы: Н 1 = {выбрана первая урна), Н 2 = {выбрана вторая урна}, Н 3 = {выбрана третья урна}. Так как урна выбирается наугад, то априорные вероятности гипотез равны: Р(Н 1) = Р(Н 2) = Р(Н 3) = 1/3.

В результате опыта появилось событие А = {из выбранной урны вынут белый шар}. Условные вероятности события А при гипотезах Н 1 , Н 2 , Н 3: Р(A|Н 1) = 3/4, Р(A|Н 2) = 2/5, Р(A|Н 3) = 1. Например, первое равенство читается так: «вероятность вынуть белый шар, если выбрана первая урна равна 3/4 (так как всего шаров в первой урне 4, а белых из них – 3)».

Применяя формулу Бейеса, находим апостериорные вероятности гипотез:

Таким образом, в свете информации о появлении события А вероятности гипотез изменились: наиболее вероятной стала гипотеза Н 3 , наименее вероятной - гипотеза Н 2 .

Пример 2. Два стрелка независимо друг от друга стреляют по одной и той же мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для первого стрелка равна 0,8, для второго - 0,4. После стрельбы в мишени обнаружена одна пробоина. Найти вероятность того, что эта пробоина принадлежит первому стрелку (Исход {обе пробоины совпали} отбрасываем, как ничтожно маловероятный).

Решение. До опыта возможны следующие гипотезы: Н 1 = {ни первый, ни второй стрелки не попадут}, Н 2 = {оба стрелка попадут}, H 3 - {первый стрелок попадет, а второй - нет}, H 4 = {первый стрелок не попадет, а второй попадет). Априорные вероятности гипотез:

Р(H 1) = 0,2*0,6 = 0,12; Р(H 2) = 0,8*0,4 = 0,32; Р (H 3) = 0,8*0,6 = 0,48; Р(H 4) = 0,2*0,4 = 0,08.

Условные вероятности наблюденного события А = {в мишени одна пробоина} при этих гипотезах равны: P(A|H 1) = P(A|H 2) = 0; P(A|H 3) = P(A|H 4) = 1

После опыта гипотезы H 1 и H 2 становятся невозможными, а апостериорные вероятности гипотез H 3 , и H 4 по формуле Бейеса будут:

Байес против спама

Формула Байеса нашла широкое применение в разработке спам-фильтров. Предположим, вы хотите обучить компьютер определять, какие из писем являются спамом. Будем исходить из словаря и словосочетаний, используя байесовские оценки. Создадим вначале пространство гипотез. Пусть относительно любого письма у нас есть 2 гипотезы: H A – это спам, H B – это не спам, а нормальное, нужное, письмо.

Вначале «обучим» нашу будущую систему борьбы со спамом. Возьмем все имеющиеся у нас письма и разделим их на две «кучи» по 10 писем. В одну отложим спам-письма и назовем ее кучей H A , в другую – нужную корреспонденцию и назовем ее кучей H B . Теперь посмотрим: какие слова и словосочетания встречаются в спам- и нужных письмах и с какой частотой? Эти слова и словосочетания назовем свидетельствами и обозначим E 1 , E 2 … Выясняется, что общеупотребительные слова (например, слова «как», «твой») в кучах H A и H B встречаются примерно с одинаковой частотой. Таким образом, наличие этих слов в письме ничего не говорит нам о том, к какой куче его отнести (слабое свидетельство). Присвоим этим словам нейтральное значение оценки вероятности «спамности», скажем, 0,5.

Пусть словосочетание «разговорный английский» встречается всего в 10 письмах, причем чаще в спам-письмах (например, в 7 спам-письмах из всех 10), чем в нужных (в 3 из 10). Поставим этому словосочетанию для спама более высокую оценку 7/10, а для нормальных писем более низкую: 3/10. И наоборот, выяснилось, что слово «дружище» чаще встречалось в нормальных письмах (6 из 10). И вот мы получили коротенькое письмо: «Дружище! Как твой разговорный английский?» . Попробуем оценить его «спамность». Общие оценки P(H A), P(H B) принадлежности письма к каждой куче поставим, воспользовавшись несколько упрощенной формулой Байеса и нашими приблизительными оценками:

P(H A) = A/(A+B), где А = p a1 *p a2 *…*p an , B = p b1 *p b2 *…*p b n = (1 – p a1)*(1 – p a2)*… *(1 – p an).

Таблица 1. Упрощенная (и неполная) Байес-оценка письма

Таким образом, наше гипотетическое письмо получило оценку вероятности принадлежности с акцентом в сторону «спамности». Можем ли мы принять решение о том, чтобы бросить письмо в одну из куч? Выставим пороги принятия решений:

  • Будем считать, что письмо принадлежит куче H i , если P(H i) ≥ T.
  • Письмо не принадлежит куче, если P(H i) ≤ L.
  • Если же L ≤ P(H i) ≤ T, то нельзя принять никакого решения.

Можно принять T = 0,95 и L = 0,05. Поскольку для рассматриваемого письма и 0,05 < P(H A) < 0,95, и 0,05 < P(H В) < 0,95, то мы не сможем принять решение, куда отнести данное письмо: к спаму (H A) или к нужным письмам (H B). Можно ли улучшить оценку, используя больше информации?

Да. Давайте вычислим оценку для каждого свидетельства другим способом, так, как это, собственно, и предложил Байес. Пусть:

F a – это общее количество писем спама;

F ai – это количество писем со свидетельством i в куче спама;

F b – это общее количество нужных писем;

F bi – это количество писем со свидетельством i в куче нужных (релевантных) писем.

Тогда: p ai = F ai /F a , p bi = F bi /F b . P(H A) = A/(A+B), P(H B) = B/(A+B), где А = p a1 *p a2 *…*p an , B = p b1 *p b2 *…*p b n

Обратите внимание – оценки слов-свидетельств p ai и p bi стали объективными и их можно вычислять без участия человека.

Таблица 2. Более точная (но неполная) Байес-оценка по наличным признакам из письма

Мы получили вполне определенный результат – с большим перевесом с вероятностью письмо можно отнести к нужным письмам, поскольку P(H B) = 0,997 > T = 0,95. Почему результат изменился? Потому, что мы использовали больше информации – мы учли количество писем в каждой из куч и, кстати, гораздо более корректно определили оценки p ai и p bi . Определили их так, как это сделано у самого Байеса, вычислив условные вероятности. Другими словами, p a3 – это вероятность появления в письме слова «дружище» при условии того, что это письмо уже принадлежит спам-куче H A . Результат не заставил себя ждать – кажется, мы можем принять решение с большей определенностью.

Байес против корпоративного мошенничества

Любопытное применение Байесовского подхода описал MAGNUS8 .

В моем текущем проекте (ИС для выявления мошенничества на производственном предприятии) используется формула Байеса для определения вероятности фрода (мошенничества) при наличии/отсутствии нескольких фактов, косвенно свидетельствующих в пользу гипотезы о возможности совершения фрода. Алгоритм самообучаем (с обратной связью), т.е. пересчитывает свои коэффициенты (условные вероятности) при фактическом подтверждении или неподтверждении фрода при проверке службой экономической безопасности.

Стоит, наверное, сказать, что подобные методы при проектировании алгоритмов требуют достаточно высокой математической культуры разработчика, т.к. малейшая ошибка в выводе и/или реализации вычислительных формул сведет на нет и дискредитирует весь метод. Вероятностные методы особенно этим грешат, поскольку мышление человека не приспособлено для работы с вероятностными категориями и, соответственно, отсутствует «наглядность» и понимание «физического смысла» промежуточных и итоговых вероятностных параметров. Такое понимание есть лишь для базовых понятий теории вероятностей, а дальше нужно лишь очень аккуратно комбинировать и выводить сложные вещи по законам теории вероятностей - здравый смысл для композитных объектов уже не поможет. С этим, в частности, связаны достаточно серьезные методологические баталии, проходящие на страницах современных книг по философии вероятности, а также большое количество софизмов, парадоксов и задачек-курьезов по этой теме.

Еще один нюанс, с которым пришлось столкнуться - к сожалению, практически все мало-мальски ПОЛЕЗНОЕ НА ПРАКТИКЕ на эту тему написано на английском языке. В русскоязычных источниках в основном только общеизвестная теория с демонстрационными примерами лишь для самых примитивных случаев.

Полностью соглашусь с последним замечанием. Например, Google при попытке найти что-то типа «книги Байесовская вероятность», ничего внятного не выдал. Правда, сообщил, что книгу с байесовской статистикой запретили в Китае . (Профессор статистики Эндрю Гельман сообщил в блоге Колумбийского университета, что его книгу «Анализ данных с помощью регрессии и многоуровневых/иерархических моделей» запретили публиковать в Китае. Тамошнее издательство сообщило, что «книга не получила одобрения властей из-за различных политически чувствительных материалов в тексте».) Интересно, не аналогичная ли причина привела к отсутствию книг по Байесовской вероятности в России?

Консерватизм в процессе обработки информации человеком

Вероятности определяют степень неопределенности. Вероятность, как согласно Байесу, так и нашей интуиции, составляет просто число между нулем и тем, что представляет степень, для которой несколько идеализированный человек считает, что утверждение верно. Причина, по которой человек несколько идеализирован, состоит в том, что сумма его вероятностей для двух взаимно исключающих событий должна равняться его вероятности того, что произойдет любое из этих событий. Свойство аддитивности имеет такие последствия, что мало реальных людей могут соответствовать им всем.

Теорема Байеса – это тривиальное последствие свойства аддитивности, бесспорное и согласованное для всех сторонников вероятностей, как Байеса, так и других. Один их способов написать это следующий. Если Р(H А |D) – последующая вероятность того, что гипотеза А была после того, как данная величина D наблюдалась, Р(H А) – его априорная вероятность до того, как наблюдалась данная величина D, Р(D|H А) – вероятность того, что данная величина D будет наблюдаться, если верно Н А, а Р(D) – безусловная вероятность данной величины D, то

(1) Р(H А |D) = Р(D|H А) * Р(H А) / Р(D)

Р(D) лучше всего рассматривать как нормализующую константу, заставляющую апостериорные вероятности составить в целом единицу по исчерпывающему набору взаимно исключающих гипотез, которые рассматриваются. Если ее необходимо подсчитать, она может быть такой:

Но чаще Р(D) устраняется, а не подсчитывается. Удобный способ устранять ее состоит в том, чтобы преобразовать теорему Байеса в форму отношения вероятность–шансы.

Рассмотрим другую гипотезу, Н B , взаимно исключающую Н А, и изменим мнение о ней на основе той же самой данной величины, которая изменила ваше мнение о Н А. Теорема Байеса говорит, что

(2) Р(H B |D) = Р(D|H B) * Р(H B) / Р(D)

Теперь разделим Уравнение 1 на Уравнение 2; результат будет таким:

где Ω 1 – апостериорные шансы в пользу Н А через H B , Ω 0 – априорные шансы, a L – количество, знакомое статистикам как отношение вероятности. Уравнение 3 – это такая же соответствующая версия теоремы Байеса как и Уравнение 1, и часто значительно более полезная особенно для экспериментов, с участием гипотез. Сторонники Байеса утверждают, что теорема Байеса – формально оптимальное правило о том, как пересматривать мнения в свете новых данных.

Мы интересуемся сравнением идеального поведения, определенного теоремой Байеса, с фактическим поведением людей. Чтобы дать вам некоторое представление о том, что это означает, давайте попробуем провести эксперимент с вами как с испытуемым. Эта сумка содержит 1000 покерных фишек. У меня две такие сумки, причем в одной 700 красных и 300 синих фишек, а в другой 300 красных и 700 синих. Я подбросил монету, чтобы определить, какую использовать. Таким образом, если наши мнения совпадают, ваша вероятность в настоящее время, что выпадет сумка, в которой больше красных фишек – 0,5. Теперь, Вы наугад составляете выборку с возвращением после каждой фишки. В 12 фишках вы получаете 8 красных и 4 синих. Теперь, на основе всего, что вы знаете, какова вероятность того, что выпала сумка, где больше красных? Ясно, что она выше, чем 0,5. Пожалуйста, не продолжайте читать, пока вы не записали вашу оценку.

Если вы похожи на типичного испытуемого, ваша оценка попала в диапазон от 0,7 до 0,8. Если бы мы проделали соответствующее вычисление, тем не менее, ответ был бы 0,97. Действительно очень редко человек, которому предварительно не продемонстрировали влияние консерватизма, приходит к такой высокой оценке, даже если он был знаком с теоремой Байеса.

Если доля красных фишек в сумке – р , то вероятность получения r красных фишек и (n – r ) синих в n выборках с возвращением – p r (1– p) n– r . Так, в типичном эксперименте с сумкой и покерными фишками, если Н A означает, что доля красных фишек составляет р А и Н B – означает, что доля составляет р B , тогда отношение вероятности:

При применении формулы Байеса необходимо учитывать только вероятность фактического наблюдения, а, не вероятности других наблюдений, которые он, возможно, сделал бы, но не сделал. Этот принцип имеет широкое воздействие на все статистические и нестатистические применения теоремы Байеса; это самый важный технический инструмент размышления Байеса.

Байесовская революция

Ваши друзья и коллеги разговаривают о чем-то, под названием «Теорема Байеса» или «Байесовское правило», или о чем-то под названием байесовское мышление. Они действительно заинтересованы в этом, так что вы лезете в интернет и находите страницу о теореме Байеса и… Это уравнение. И все… Почему математическая концепция порождает в умах такой энтузиазм? Что за «байесианская революция» происходит в среде учёных, причем утверждается, что даже сам экспериментальный подход может быть описан, как её частный случай? В чём секрет, который знают последователи Байеса? Что за свет они видят?

Байесовская революция в науке произошла не потому, что все больше и больше когнитивных ученых внезапно начали замечать, что ментальные явления имеют байесовскую структуру; не потому, что ученые в каждой области начали использовать байесовский метод; но потому, что наука сама по себе является частным случаем теоремы Байеса; экспериментальное свидетельство есть байесовское свидетельство. Байесовские революционеры утверждают, что когда вы выполняете эксперимент и получаете свидетельство, которое «подтверждает» или «опровергает» вашу теорию, это подтверждение или опровержение происходит по байесовским правилам. Для примера, вы должны принимать во внимание не только то, что ваша теория может объяснить явление, но и то, что есть другие возможные объяснения, которые также могут предсказать это явление.

Ранее, наиболее популярной философией науки была – старая философия, которая была смещена байесовской революцией. Идея Карла Поппера, что теории могут быть полностью фальсифицированы, однако никогда не могут быть полностью подтверждены, это еще один частный случай байесовских правил; если p(X|A) ≈ 1 – если теория делает верные предсказания, тогда наблюдение ~X очень сильно фальсифицирует А. С другой стороны, если p(X|A) ≈ 1 и мы наблюдаем Х, это не очень сильно подтверждает теорию; возможно какое-то другое условие В, такое что p(X|B) ≈ 1, и при котором наблюдение Х не свидетельствует в пользу А но свидетельствует в пользу В. Для наблюдения Х определенно подтверждающего А, мы должны были бы знать не то, что p(X|A) ≈ 1, а что p(X|~A) ≈ 0, что мы не можем знать, поскольку мы не можем рассматривать все возможные альтернативные объяснения. Например, когда эйнштейновская теория общей относительности превзошла ньютоновскую хорошо подтверждаемую теорию гравитации, это сделало все предсказания ньютоновской теории частным случаем предсказаний эйнштейновской.

Похожим образом, попперовское заявление, что идея должна быть фальсифицируема может быть интерпретировано как манифестация байесовского правила о сохранении вероятности; если результат Х является положительным свидетельством для теории, тогда результат ~Х должен опровергать теорию в каком-то объеме. Если вы пытаетесь интерпретировать оба Х и ~Х как «подтверждающие» теорию, байесовские правила говорят, что это невозможно! Чтобы увеличить вероятность теории вы должны подвергнуть ее тестам, которые потенциально могут снизить ее вероятность; это не просто правило, чтобы выявлять шарлатанов в науке, но следствие из теоремы байесовской вероятности. С другой стороны, идея Поппера, что нужна только фальсификация и не нужно подтверждение является неверной. Теорема Байеса показывает, что фальсификация это очень сильное свидетельство, по сравнению с подтверждением, но фальсификация все еще вероятностна по своей природе; она не управляется фундаментально другими правилами и не отличается в этом от подтверждения, как утверждает Поппер.

Таким образом, мы обнаруживаем, что многие явления в когнитивных науках, плюс статистические методы, используемые учеными, плюс научный метод сам по себе – все они являются частными случаями теоремы Байеса. В этом и состоит Байесовская революция.

Добро пожаловать в Байесовский Заговор!

Литература по Байесовской вероятности

2. Очень много различных применений Байеса описывает нобелевский лауреат по экономике Канеман (со товарищи) в замечательной книге . Только в моем кратком конспекте этой очень большой книги я насчитал 27 упоминаний имени пресвитерианского священника. Минимум формул. (.. Мне очень понравилась. Правда, сложноватая, много математики (а куда без нее), но отдельные главы (например, глава 4. Информация), явно по теме. Советую всем. Даже, если математика для вас сложна, читайте через строку, пропуская математику, и выуживая полезные зерна…

14. (дополнение от 15 января 2017 г. ) , глава из книги Тони Крилли. 50 идей, о которых нужно знать. Математика.

Физик Нобелевский лауреат Ричарда Фейнмана, отзываясь об одном философе с особо большим самомнением, как-то сказал: «Меня раздражает вовсе не философия как наука, а та помпезность, которая создана вокруг нее. Если бы только философы могли сами над собой посмеяться! Если бы только они могли сказать: «Я говорю, что это вот так, а Фон Лейпциг считал, что это по-другому, а ведь он тоже кое-что в этом смыслит». Если бы только они не забывали пояснить, что это всего лишь их .

В настоящее время Байесовские методы получили достаточно широкое распространение и активно используются в самых различных областях знаний. Однако, к сожалению, не так много людей имеют представление о том, что же это такое и зачем это нужно. Одной из причин является отсутствие большого количества литературы на русском языке. Поэтому здесь попытаюсь изложить их принципы настолько просто, насколько смогу, начав с самых азов (прошу прощения, если кому-то это покажется слишком простым).

В дальнейшем я бы хотел перейти к непосредственно Байесовскому анализу и рассказать об обработке реальных данных и о, на мой взгляд, отличной альтернативе языку R (о нем немного писалось ) - Python с модулем pymc . Лично мне Python кажется гораздо более понятным и логичным, чем R с пакетами и BUGS , к тому же Python дает гораздо бо льшую свободу и гибкость (хотя в Python есть и свои трудности, но они преодолимы, да и в простом анализе встречаются нечасто).

Немного истории

В качестве краткой исторической справки скажу, что формула Байеса была опубликована аж в 1763 году спустя 2 года после смерти ее автора, Томаса Байеса. Однако, методы, использующие ее, получили действительно широкое распространение только к концу ХХ века. Это объясняется тем, что расчеты требуют определенных вычислительных затрат, и они стали возможны только с развитием информационных технологий.

О вероятности и теореме Байеса

Формула Байеса и все последующее изложение требует понимания вероятности. Подробнее о вероятности можно почитать на Википедии .
На практике вероятность наступления события есть частота наступления этого события, то есть отношение количества наблюдений события к общему количеству наблюдений при большом (теоретически бесконечном) общем количестве наблюдений.
Рассмотрим следующий эксперимент: мы называем любое число из отрезка и смотрим за тем, что это число будет между, например, 0.1 и 0.4. Как нетрудно догадаться, вероятность этого события будет равна отношению длины отрезка к общей длине отрезка (другими словами, отношение «количества» возможных равновероятных значений к общему «количеству» значений), то есть (0.4 - 0.1) / (1 - 0) = 0.3, то есть вероятность попадания в отрезок равна 30%.

Теперь посмотрим на квадрат x .

Допустим, мы должны называть пары чисел (x, y), каждое из которых больше нуля и меньше единицы. Вероятность того, что x (первое число) будет в пределах отрезка (показан на первом рисунке как синяя область, на данный момент для нас второе число y не важно), равна отношению площади синей области к площади всего квадрата, то есть (0.4 - 0.1) * (1 - 0) / (1 * 1) = 0.3, то есть 30%. Таким образом можно записать, что вероятность того, что x принадлежит отрезку равна p(0.1 <= x <= 0.4) = 0.3 или для краткости p(X) = 0.3.
Если мы теперь посмотрим на y, то, аналогично, вероятность того, что y находится внутри отрезка равна отношению площади зеленой области к площади всего квадрата p(0.5 <= y <= 0.7) = 0.2, или для краткости p(Y) = 0.2.
Теперь посмотрим, что можно узнать о значениях одновременно x и y.
Если мы хотим знать, какова вероятность того, что одновременно x и y находятся в соответствующих заданных отрезках, то нам нужно посчитать отношение темной площади (пересечения зеленой и синей областей) к площади всего квадрата: p(X, Y) = (0.4 - 0.1) * (0.7 - 0.5) / (1 * 1) = 0.06.

А теперь допустим мы хотим знать какова вероятность того, что y находится в интервале , если x уже находится в интервале . То есть фактически у нас есть фильтр и когда мы называем пары (x, y), то мы сразу отбрасывает те пары, которые не удовлетворяют условию нахождения x в заданном интервале, а потом из отфильтрованных пар мы считаем те, для которых y удовлетворяет нашему условию и считаем вероятность как отношение количества пар, для которых y лежит в вышеупомянутом отрезке к общему количеству отфильтрованных пар (то есть для которых x лежит в отрезке ). Мы можем записать эту вероятность как p(Y|X). Очевидно, что эта вероятность равна отношению площади темной области (пересечение зеленой и синей областей) к площади синей области. Площадь темной области равна (0.4 - 0.1) * (0.7 - 0.5) = 0.06, а площадь синей (0.4 - 0.1) * (1 - 0) = 0.3, тогда их отношение равно 0.06 / 0.3 = 0.2. Другими словами, вероятность нахождения y на отрезке при том, что x уже принадлежит отрезку равна p(Y|X) = 0.2.
Можно заметить, что с учетом всего вышесказанного и всех приведенных выше обозначений, мы можем написать следующее выражение
p(Y|X) = p(X, Y) / p(X)

Кратко воспроизведем всю предыдущую логику теперь по отношению к p(X|Y): мы называем пары (x, y) и фильтруем те, для которых y лежит между 0.5 и 0.7, тогда вероятность того, что x находится в отрезке при условии, что y принадлежит отрезку равна отношению площади темной области к площади зеленой:
p(X|Y) = p(X, Y) / p(Y)

В двух приведенных выше формулах мы видим, что член p(X, Y) одинаков, и мы можем его исключить:

Мы можем переписать последнее равенство как

Это и есть теорема Байеса.
Интересно еще заметить, что p(Y) это фактически p(X,Y) при всех значениях X. То есть, если мы возьмем темную область и растянем ее так, что она будет покрывать все значения X, она будет в точности повторять зеленую область, а значит, она будет равна p(Y). На языке математики это будет означать следующее:
Тогда мы можем переписать формулу Байеса в следующем виде:

Применение теоремы Байеса

Давайте рассмотрим следующий пример. Возьмем монетку и подкинем ее 3 раза. С одинаковой вероятностью мы можем получить следующие результаты (О - орел, Р - решка): ООО, ООР, ОРО, ОРР, РОО, РОР, РРО, РРР.

Мы можем посчитать какое количество орлов выпало в каждом случае и сколько при этом было смен орел-решка, решка-орел:

Мы можем рассматривать количество орлов и количество изменений как две случайные величины. Тогда таблица вероятностей будет иметь следуюший вид:

Теперь мы можем увидеть формулу Байеса в действии.
Но прежде проведем аналогию с квадратом, который мы рассматривали ранее.
Можно заметить, что p(1O) есть сумма третьего столбца («синяя область» квадрата) и равна сумме всех значений ячеек в этом столбце: p(1O) = 2/8 + 1/8 = 3/8
p(1С) есть сумма третьей строки («зеленая область» квадрата) и, аналогично, равна сумме всех значений ячеек в этой строке p(1С) = 2/8 + 2/8 = 4/8
Вероятность того, что мы получили одного орла и одну смену равна пересечению этих областей (то есть значение в клетке пересечения третьего столбца и третьей строки) p(1С, 1О) = 2/8
Тогда, следуя формулам описанным выше, мы можем посчитать вероятность получить одну смену, если мы получили одного орла в трех бросках:
p(1С|1О) = p(1С, 1О) / p(1О) = (2/8) / (3/8) = 2/3
или вероятность получить одного орла, если мы получили одну смену:
p(1О|1С) = p(1С, 1О) / p(1С) = (2/8) / (4/8) = 1/2
Если мы посчитаем вероятность получить одну смену при наличии одного орла p(1О|1С) через формулу Байеса, то получим:
p(1О|1С) = p(1С|1О) * p(1О) / p(1С) = (2/3) * (3/8) / (4/8) = 1/2
Что мы и получили выше.

Но какое практическое значение имеет приведенный выше пример?
Дело в том, что, когда мы анализируем реальные данные, обычно нас интересует какой-то параметр этих данных (например, среднее, дисперсия и пр.). Тогда мы можем провести следующую аналогию с вышеприведенной таблицей вероятностей: пусть строки будут нашими экспериментальными данными (обозначим их Data), а столбцы - возможными значениями интересующего нас параметра этих данных (обозначим его ). Тогда нас интересует вероятность получить определенное значение параметра на основе имеющихся данных .
Мы можем применить формулу Баейса и записать следующее:

А вспомнив формулу с интегралом, можно записать следующее:

То есть фактически как результат нашего анализа мы имеет вероятность как функцию параметра. Теперь мы можем, например, максимизировать эту функцию и найти наиболее вероятное значение параметра, посчитать дисперсию и среднее значение параметра, посчитать границы отрезка, внутри которого интересующий нас параметр лежит с вероятностью 95% и пр.

Вероятность называют апостериорной вероятностью. И для того, чтобы посчитать ее нам надо иметь
- функцию правдоподобия и - априорную вероятность.
Функция правдоподобия определяется нашей моделью. То есть мы создаем модель сбора данных, которая зависит от интересующего нас параметра. К примеру, мы хотим интерполировать данные с помощью прямой y = a * x + b (таким образом мы предполагаем, что все данные имеют линейную зависимость с наложенным на нее гауссовым шумом с известной дисперсией). Тогда a и b - это наши параметры, и мы хотим узнать их наиболее вероятные значения, а функция правдоподобия - гаусс со средним, заданным уравнением прямой, и данной дисперсией.
Априорная вероятность включает в себя информацию, которую мы знаем до проведения анализа. Например, мы точно знаем, что прямая должна иметь положительный наклон, или, что значение в точке пересечения с осью x должно быть положительным, - все это и не только мы можем инкорпорировать в наш анализ.
Как можно заметить, знаменатель дроби является интегралом (или в случае, когда параметры могут принимать только определенные дискретные значения, суммой) числителя по всем возможным значениям параметра. Практически это означает, что знаменатель является константой и служит для того, что нормализировать апостериорную вероятность (то есть, чтобы интеграл апостериорной вероятности был равен единице).

На этом я бы хотел закончить свой пост (продолжение