Основы теории вероятности

Вероятностное пространство и события

Дискретное вероятностное пространство

Дискретное вероятностное пространство

Дискретное вероятностное пространство — пара (Ω,p)(\Omega, p), где Ω\Omega — множество элементарных исходов и p ⁣:Ω[0,1]p \colon \Omega \to [0, 1] — функция вероятности на множестве Ω\Omega.

Функция вероятности удовлетворяет условию нормировки: ω   ⁣   ⁣Ωp(ω)=1\sum\limits_{\omega \;\! \in \;\! \Omega} p(\omega) = 1.

Множество элементарных исходов Ω\Omega — конечное или счетное множество.

Элементы ωΩ\omega \in \Omega называются элементарными исходами или элементарными событиями. Смысл этих элементарных исходов в том, что в рамках какого-то эксперимента может произойти один и только один исход, который и называется элементарным.

Например, при броске монеты может выпасть или орел, или решка. Тогда пространство элементарных исходов

Ω={орел,решка}\Omega = \big\{ \text{орел}, \text{решка} \big\}

При броске кубика может выпасть любое целое число от 11 до 66. При таком эксперименте

Ω={1,2,3,4,5,6}\Omega = \{ 1, 2, 3, 4, 5, 6 \}

Если мы бросаем две монеты, то исходов у нас 44, поскольку всего различных комбинаций результатов бросков 44.

Ω={орел и орел,орел и решка,решка и орел,решка и решка}\Omega = \{ \text{орел и орел}, \text{орел и решка}, \text{решка и орел}, \text{решка и решка} \}

Событие AA — подмножество AΩA \subseteq \Omega множества элементарных исходов

Например, для броска кубика с Ω={1,2,3,4,5,6}\Omega = \{1, 2, 3, 4, 5, 6\} событиями могут являться множества «выпало 44» — {4}\{4\}; «выпало нечётное число» — {1,3,5}\{1, 3, 5\}; «куб брошен» (выпало хоть что-то) — Ω\Omega.

Над событиями можно совершать те же операции, что и над множествами

AB=событие, означающее, что случилось событие A или событие BAB=событие, означающее, что случилось и событие A, и событие BΩA=A=событие, означающее, что событие A не случилосьAB=событие, означающее, что случилось либо событие A, либо событие B\align{ A \union B &= \text{событие, означающее, что случилось событие}~ A ~\text{или событие}~ B \\ A \sect B &= \text{событие, означающее, что случилось и событие}~ A\text{,} ~\text{и событие}~ B \\ \Omega \without A = \overline{A} &= \text{событие, означающее, что событие}~ A ~\text{не случилось} \\ A \symdiff B &= \text{событие, означающее, что случилось либо событие}~ A\text{,} ~\text{либо событие}~ B }

События умеют происходить, и делают это с какой-то вероятностью. Вероятность наступления события AA — величина

P(A)   ⁣=def   ⁣ω   ⁣   ⁣Ap(ω)\prob(A) \defeq \sum\limits_{\omega \;\! \in \;\! A} p(\omega)

Можно дать не такое детское определение вероятности: P ⁣:2Ω[0,1]\prob \colon 2^\Omega \to [0, 1] — аддитивная мера на множестве Ω\Omega.

Непрерывное вероятностное пространство

Давайте посмотрим на круг радиуса 11. Выберем в круге случайную точку. С какой вероятностью эта точка попадёт в круг радиуса 1/21/2, который концентричен исходному кругу? С одной стороны, площадь исходного круга π\pi, площадь целевого круга π/4\pi/4, значит вероятность того, что точка попадёт в маленький круг равна 1/41/4. С другой стороны, точка попадёт в маленький круг, если расстояние от неё до центра не больше 1/21/2, значит вероятность того, что точка попадёт в маленький круг равна 1/21/2.

Ошибок в рассуждениях нет. Оба рассуждения верны. В чём прикол? Прикол в том, что мы рассматриваем пространство элементарных исходов совершенно другой природы: оно несчётное. Более того, в этом примере совсем непонятно, как считать сами вероятности. Мы не можем приписать каждой точке нашего круга какую-то вероятность, ведь вероятность попасть в конкретный элемент несчётного множества всегда равна 00. Мы с вами столкнулись с необходимостью определять саму вероятностную меру на несчётных множествах.

Андрей Николаевич Колмогоров в 1929 – 1933 годах разработал аксиоматику для корректного и строгого описания теории вероятностей. Аксиоматика Колмогорова может быть применена к любым пространствам элементарных исходов, а также она позволяет в едином стиле работать с дискретными и непрерывными вероятностными пространствами.

Вероятностное пространство по Колмогорову

Пространство элементарных исходов — любое множество Ω\Omega, состоящее из элементарных исходов. Может быть как дискретным, так и непрерывным (несчётным).

Сигма-алгебра событий — сигма-алгебра A2Ω\AAA \subset 2^\Omega. Каждый элемент сигма-алгебры A\AAA называется событием. Грубо говоря, в множестве A\AAA содержатся все легитимные события, которые могут происходить при нашем эксперименте.

Вероятностная мера — счётно-аддитивная мера P ⁣:AR+\prob \colon \AAA \to \RR_+, заданная на сигма-алгебре событий. При этом P(Ω)=1\prob (\Omega) = 1. Вероятностная мера измеряет вероятности событий из сигма-алгебры A\AAA.

Тройка этих трёх объектов (Ω,A,P)(\Omega, \AAA, \prob) называется вероятностным пространством.

Давайте научимся работать с вероятностями и событиями в новой аксиоматике. Хорошая новость: все интуитивно понятные свойства и операции остаются в силе.

Начнём с операциями над событиями. Все операции остаются такими же, как и в дискретном случае:

AB=событие, означающее, что случилось событие A или событие BAB=событие, означающее, что случилось и событие A, и событие BΩA=A=событие, означающее, что событие A не случилосьAB=событие, означающее, что случилось либо событие A, либо событие B\align{ A \union B &= \text{событие, означающее, что случилось событие}~ A ~\text{или событие}~ B \\ A \sect B &= \text{событие, означающее, что случилось и событие}~ A\text{,} ~\text{и событие}~ B \\ \Omega \without A = \overline{A} &= \text{событие, означающее, что событие}~ A ~\text{не случилось} \\ A \symdiff B &= \text{событие, означающее, что случилось либо событие}~ A\text{,} ~\text{либо событие}~ B }

Вероятностная мера является счётно-аддитивной нормированной мерой, а значит, выполняются все привычные свойства.

Вероятность невозможного события равна 00, а вероятность достоверного события равна 11.

P()=0иP(Ω)=1\prob (\nothing) = 0 \quad\text{и}\quad \prob (\Omega) = 1

Два события AA и BB называются несовместными, если AB=A \sect B = \nothing, и, как следствие, P(AB)=0\prob (A \sect B) = 0.

Несовместность событий означает, что они не могут произойти одновременно в рамках одного испытания. Происхождение одного из двух несовместных событий полностью запрещает происхождение другого.

Если событие AA влечёт за собой событие BB, то есть всякий раз, когда происходит AA, обязательно происходит и BB, то вероятность события AA не может быть больше вероятности события BB.

AB    P(A)P(B)A \subset B \implies \prob(A) \le \prob (B)

Грубо говоря, меньшее событие не может быть более вероятным, чем то большее событие, в которое оно входит. Если вы оказались в Москве, то вы автоматически оказались в России. Очевидно, что вероятность оказаться в Москве не может быть выше, чем вероятность оказаться в России.

Вероятностная мера счётно-аддитивна, а значит

P(AB)=P(A)+P(B)или, по-другому,P(AB)=P(A)+P(B)P(AB)\prob (A \djunion B) = \prob (A) + \prob (B) \quad\text{или, по-другому,}\quad \prob (A \union B) = \prob (A) + \prob (B) - \prob (A \sect B)

Также, перенеся в первой формуле одно из событий в левую часть, можно получить формулу

P(AB)=P(A)P(B)и, как следствие,P(A)=P(ΩA)=1P(A)\prob (A \without B) = \prob (A) - \prob (B) \quad\text{и, как следствие,}\quad \prob (\overline{A}) = \prob (\Omega \without A) = 1 - \prob (A)

Еще, как следствие, работает формула включений-исключений и законы де Моргана. Выполнимость их следует чисто из свойств множеств.

Так же, свойство непрерывности: для возрастающей цепи вложенных событий A1A2A3A_1 \subset A_2 \subset A_3 \subset \dotsb вероятность объединения равна пределу вероятностей

P(n=1An)=limnP(An)\prob \left( \bigunion_{n=1}^\oo A_n \right) = \lim\limits_{n \to \oo} \prob (A_n)

И для убывающей цепи вложенных событий A1A2A3A_1 \supset A_2 \supset A_3 \supset \dotsb вероятность объединения равна пределу вероятностей

P(n=1An)=limnP(An)\prob \left( \bigsect_{n=1}^\oo A_n \right) = \lim\limits_{n \to \oo} \prob (A_n)

Также, само свойство счётной аддитивности

P(n=1An)=n=1P(An)\prob \left( \bigdjunion_{n=1}^\oo A_n \right) = \sum\limits_{n=1}^\oo \prob (A_n)

здесь смотрится дизъюнктное объединение, то есть предполагаются, что события попарно не пересекаются: AiAj=A_i \sect A_j = \nothing для любых iji \neq j.

Из свойства счётной аддитивности можно получить неравенство Буля

P(AB)P(A)+P(B)\prob (A \union B) \le \prob (A) + \prob (B)

И в общем случае для множества событий

P(n=1An)   ⁣   ⁣n=0P(An)\prob \left( \bigunion_{n=1}^\oo A_n \right) \;\! \le \;\! \sum\limits_{n=0}^\oo \prob (A_n)

Независимость и условные вероятности

Условная вероятность

Условная вероятность

Условной вероятностью события AA при условии события BB называется величина

P(AB)=P(AB)P(B)\prob (A \mid B) = \frac{\prob (A \sect B)}{\prob (B)}

Это вероятность того, что событие AA произошло, при условии, что событие BB уже произошло. Для того, чтобы условную вероятность можно было вообще определить, необходимо, чтобы P(B)0\prob (B) \neq 0

Давайте сразу разберём простой пример. Вот есть семья, в которой два ребёнка. Мы знаем, что один ребёнок точно мальчик. Какая вероятность того, что другой ребёнок тоже мальчик? Ответ — 1/31/3, что может сначала показаться неожиданным. Но ничего странного тут нет. Если в семье два ребёнка, то у нас есть 44 элементарных исхода Ω={ДД,ДМ,МД,ММ}\Omega = \{\text{ДД}, \text{ДМ}, \text{МД}, \text{ММ}\}. Из этих четырёх элементарных исходов только три удовлетворяют нашему условию «один ребёнок точно мальчик». Тогда вероятность того, что в семье два мальчика, равна 1/31/3.

Можно те же самые рассуждения провести, не разбирая явно пространство элементарных исходов. Достаточно просто применить формулу условной вероятности:

P(два мальчикахотя бы один мальчик)=P(два мальчикахотя бы один мальчик)P(хотя бы один мальчик)=1/43/4=13\prob (\text{два мальчика} \mid \text{хотя бы один мальчик}) = \frac{\prob (\text{два мальчика} \sect \text{хотя бы один мальчик})}{\prob (\text{хотя бы один мальчик})} = \frac{1/4}{3/4} = \frac{1}{3}

Значение условной вероятности напрямую зависит от того, как событие AA связано с событием BB. Посмотрим на крайние случаи. Если события AA и BB несовместны, то есть если AB=A \sect B = \nothing, то наступление события BB делает событие AA невозможным, и P(AB)=0\prob (A \mid B) = 0. Если событие BB влечёт за собой событие AA, то есть если BAB \subset A, то наступление события BB гарантирует наступление события AA, и P(AB)=1\prob (A \mid B) = 1. В большинстве практических ситуаций события связаны сложнее, и знание о событии BB лишь частично меняет нашу уверенность в наступлении события AA, поэтому условная вероятность принимает промежуточные значения.

Полная вероятность

Формула полной вероятности

Пусть пространство элементарных исходов Ω\Omega разбито на попарно несовместные события:

Ω=B1B2Bn\Omega = B_1 \djunion B_2 \djunion \dotsb \djunion B_n

Тогда вероятность любого события AA можно представить в виде

P(A)=k=1nP(ABk)P(Bk)\prob (A) = \sum\limits_{k=1}^n \prob (A \mid B_k) \cdot \prob (B_k)

Любое событие AA можно представить в виде

A=AΩ=(AB1)(AB2)(ABn)A = A \sect \Omega = (A \sect B_1) \union (A \sect B_2) \union \dotsb \union (A \sect B_n)

И тогда, по аддитивности вероятностной меры,

P(A)=P(AΩ)=P(AB1)+P(AB2)++P(ABn)\prob (A) = \prob (A \sect \Omega) = \prob (A \sect B_1) + \prob (A \sect B_2) + \dotsb + \prob (A \sect B_n)

Расписывая P(ABj)=P(ABj)P(Bj)\prob (A \sect B_j) = \prob (A \mid B_j) \cdot \prob (B_j) получаем формулу

P(A)=k=1nP(ABk)P(Bk)\prob (A) = \sum\limits_{k=1}^n \prob (A \mid B_k) \cdot \prob (B_k)

Формулу полной вероятности легко обобщить на случай счётного числа попарно несовместных событий BkB_k. Если Ω=k=1Bk\Omega = \bigdjunion_{k=1}^\oo B_k, где BiBj=B_i \sect B_j = \nothing для любых iji \neq j, то вероятность любого события AA можно представить как

P(A)=k=0P(ABk)P(Bk)\prob (A) = \sum\limits_{k=0}^\oo \prob (A \mid B_k) \cdot \prob (B_k)

Также формулу полной вероятности можно рассматривать и для обусловленных событий. Пусть пространство элементарных исходов разбито на попарно несовместные события Ω=B1B2Bn\Omega = B_1 \djunion B_2 \djunion \dotsb \djunion B_n. И пусть есть какое-то событие CC, по которому мы будем обуславливать происходящее. Тогда вероятность любого события AA при условии события CC равна

P(AC)=k=0nP(ABk,C)P(BkC)\prob (A \mid C) = \sum\limits_{k=0}^n \prob (A \mid B_k, C) \cdot \prob (B_k \mid C)

Независимость событий

Независимые события

Два события AA и BB называются независимыми, если

P(AB)=P(A)P(B)\prob (A \sect B) = \prob (A) \cdot \prob (B)

Это означает, что исход одного события никак не влияет на вероятность другого. Знание того, что событие BB произошло, не меняет наших шансов на наступление AA, и наоборот.

Другое, более интуитивное определение независимости можно дать через условные вероятности. События AA и BB независимы, если P(AB)=P(A)\prob (A \mid B) = \prob (A), то есть информация о реализации события BB никак не влияет на вероятность события AA.

Понятно, что эти два определения эквивалентны. Если P(AB)=P(A)P(B)\prob (A \sect B) = \prob (A) \cdot \prob (B), то

P(AB)=P(AB)P(B)=P(A)P(B)P(B)=P(A)\prob (A \mid B) = \frac{\prob (A \sect B)}{\prob (B)} = \frac{\prob (A) \cdot \prob (B)}{\prob (B)} = \prob (A)

Независимость — это свойство вероятностной модели, а не событий самих по себе. Два события могут быть независимыми в одной модели и зависимыми в другой. Независимость определяется через вероятности, а не через «содержательную» природу событий.

Если у нас есть несколько событий, то независимость для них надо определять аккуратно.

Несколько событий A1,A2,,AnA_1, A_2, \dotsc, A_n являются попарно независимыми, если P(AiAj)=P(Ai)P(Aj)\prob (A_i \sect A_j) = \prob (A_i) \cdot \prob (A_j) для всех iji \neq j.

Несколько событий A1,A2,,AnA_1, A_2, \dotsc, A_n являются независимыми в совокупности, если для любого подмножества индексов {i1,i2,,ik}{1,2,,n}\{i_1, i_2, \dotsc, i_k\} \subseteq \{1, 2, \dotsc, n\} выполняется

P(Ai1Ai2Aik)=P(Ai1)P(Ai2)P(Aik)\prob (A_{i_1} \sect A_{i_2} \sect \dotsb \sect A_{i_k}) = \prob (A_{i_1}) \cdot \prob (A_{i_2}) \dotsm \prob (A_{i_k})

Независимость в совокупности множества событий означает, что вероятность пересечения любого набора этих событий равна произведению их вероятностей. Для того, чтобы установить независимость в совокупности множества из nn событий, нужно проверить выполнение 2nn12^n - n - 1 равенств — все возможные пересечения от 22 до nn событий.

Попарная независимость и независимость в совокупности не одинаковые условия! Независимость в совокупности является более сильным условием, чем попарная независимость.

Можно придумать пример таких трёх событий AA, BB и CC, что они попарно независимы, но при этом они не являются независимыми в совокупности.

Возьмём классический пример. Два раза бросили обычную монетку, Ω={ОО,ОР,РО,РР}\Omega = \{\text{ОО}, \text{ОР}, \text{РО}, \text{РР}\}. Событие AA состоит в том, что при первом броске выпал орёл, то есть A={ОО,ОР}A = \{\text{ОО}, \text{ОР}\}. Событие BB состоит в том, что при втором броске выпал орёл, то есть B={ОО,РО}B = \{\text{ОО}, \text{РО}\}. Событие CC состоит в том, что при выпали одинаковые стороны монетки, то есть C={ОО,РР}C = \{\text{ОО}, \text{РР}\}.

Вероятности событий P(A)=P(B)=P(C)=1/2\prob (A) = \prob (B) = \prob (C) = 1/2. Тогда события независимы попарно, ведь

P(AB)=P({ОО})=1/4=P(A)P(B)P(BC)=P({ОО})=1/4=P(B)P(C)P(AC)=P({ОО})=1/4=P(A)P(C)\align{ \prob (A \sect B) &= \prob (\{\text{ОО}\}) = 1/4 = \prob(A) \cdot \prob(B) \\ \prob (B \sect C) &= \prob (\{\text{ОО}\}) = 1/4 = \prob(B) \cdot \prob(C) \\ \prob (A \sect C) &= \prob (\{\text{ОО}\}) = 1/4 = \prob(A) \cdot \prob(C) }

Но при этом они не являются независимыми в совокупности, ведь

P(ABC)=P({ОО})=1/4P(A)P(B)P(C)\prob (A \sect B \sect C) = \prob (\{\text{ОО}\}) = 1/4 \neq \prob (A) \cdot \prob (B) \cdot \prob (C)

Если события AA и BB независимы, то независимы и пары событий AA и B\overline{B}; A\overline{A} и BB; A\overline{A} и B\overline{B}.

Условная независимость

Бывает так, что зависимые события AA и BB становятся независимыми при выполнении какого-то другого события CC.

Условная независимость

Два события AA и BB называются условно независимыми по отношению к событию CC, если P(C)0\prob (C) \neq 0 и

P(ABC)=P(AC)P(BC)\prob (A \sect B \mid C) = \prob (A \mid C) \cdot \prob (B \mid C)

Другое определение условной независимости событий AA и BB можно дать через условные вероятности. События AA и BB условно независимы по отношению к событию CC, если P(AB,C)=P(AC)\prob (A \mid B, C) = \prob (A \mid C).

Расписав формулы условной вероятности, можно из этого определения получить, что

P(ABC)P(C)=P(AC)P(C)P(BC)P(C)\frac{\prob (A \sect B \sect C)}{\prob (C)} = \frac{\prob (A \sect C)}{\prob (C)} \cdot \frac{\prob (B \sect C)}{\prob (C)}

А это равенство означает как раз означает, что P(AB,C)=P(AC)\prob (A \mid B, C) = \prob (A \mid C).

Если говорить не только про независимость, а про все свойства условных вероятностей, то можно сформулировать простое правило: знание о событии CC разрывает любую вероятностную связь между событиями AA и BB.

Простой пример. Пусть событие AA — событие «Трава мокрая», и событие BB — «Включена садовая поливалка». Эти события, очевидно, зависимы. Если мы видим мокрую траву, вероятность того, что работала поливалка, повышается. Теперь введём третье событие CC — событие «Идёт дождь». Если мы знаем, что идёт дождь, то есть что событие CC произошло, то трава будет мокрой с вероятностью, близкой к 11, независимо от того, работала ли поливалка. Знание о поливалке больше не меняет нашей уверенности в том, что трава мокрая. И наоборот, видя мокрую траву во время дождя, мы не получаем никакой новой информации о поливалке. Таким образом, AA и BB условно независимы при условии CC. Дождь является общей причиной мокрой травы, перекрывая собой влияние поливалки.

Важно понимать, что условная независимость не симметрична относительно условия. События AA и BB могут быть условно независимы при условии CC, но быть зависимыми при условии другого события DD. Кроме того, условная независимость не означает безусловную независимость. В примере выше, AA и BB условно независимы при CC, но изначально они сильно зависимы.

Верно и обратное: события, независимые в общем случае, могут стать зависимыми при наложении условия. Это явление известно как парадокс Симпсона.

Условная независимость — важная концепция современных вероятностных моделей, таких как байесовские сети и цепи Маркова. В цепи Маркова, например, будущее состояние системы условно независимо от всего прошлого при условии известного настоящего состояния. Это свойство забывания прошлого при известном настоящем кардинально упрощает анализ и вычисления в сложных системах.

Формула Байеса

Формула Байеса

Для двух событий AA и BB с ненулевой вероятностью

P(AB)=P(BA)P(B)P(A)\prob (A \mid B) = \frac{\prob (B \mid A) \cdot \prob (B)}{\prob (A)}

Вероятность пересечения можно по формуле условной вероятности записать двумя разными способами?

P(AB)P(B)=P(AB)=P(BA)P(A)\prob (A \mid B) \cdot \prob (B) = \prob (A \sect B) = \prob (B \mid A) \cdot \prob (A)

Отсюда получаем формулу Байеса

P(AB)=P(BA)P(B)P(A)\prob (A \mid B) = \frac{\prob (B \mid A) \cdot \prob (B)}{\prob (A)}

Формула Байеса позволяет «переворачивать» условные вероятности. Если мы знаем вероятность причины BB и вероятность следствия AA при данной причине, то мы можем с помощью формулы Байеса вычислить вероятность причины при наблюдении следствия.

Простой пример из медицины. Пусть у нас есть какой-то тест, позволяющий выявить болезнь. Точность теста определяется вероятностью того, что он даст положительный результат, когда пациент болен. Мы знаем точность теста, то есть величину P(тест положительныйпациент болен)\prob (\text{тест положительный} \mid \text{пациент болен}). Специфичность теста определяется вероятностью того, что он даст отрицательный результат, когда пациент здоров. Мы знаем и специфичность теста, то есть величину P(тест отрицательныйпациент здоров)\prob (\text{тест отрицательный} \mid \text{пациент здоров}). Так же мы знаем, сколько сейчас болеет людей, то есть величину P(пациент болен)\prob (\text{пациент болен}).

Теперь представим, что конкретный пациент получил положительный результат теста. Какова вероятность того, что он действительно болен? Интуиция часто подсказывает нам, что эта вероятность должна быть высокой, особенно если тест точный. Однако формула Байеса показывает, что это не всегда так. Давайте вычислим эту вероятность через формулу Байеса

P(пациент болентест положительный)=P(тест положительныйпациент болен)P(пациент болен)P(тест положительный)\prob (\text{пациент болен} \mid \text{тест положительный}) = \frac{\prob (\text{тест положительный} \mid \text{пациент болен}) \cdot \prob (\text{пациент болен})}{\prob (\text{тест положительный})}

Величину P(тест положительный)\prob (\text{тест положительный}) нужно находить по формуле полной вероятности

P(тест положительный)=P(тест положительныйпациент болен)P(пациент болен)++P(тест положительныйпациент здоров)P(пациент здоров)==P(тест положительныйпациент болен)P(пациент болен)++(1P(тест отрицательныйпациент здоров))(1P(пациент болен))\align{ \prob (\text{тест положительный}) &= \prob (\text{тест положительный} \mid \text{пациент болен}) \cdot \prob (\text{пациент болен}) + \\ &+ \prob (\text{тест положительный} \mid \text{пациент здоров}) \cdot \prob (\text{пациент здоров}) =\\[0.4em]&= \prob (\text{тест положительный} \mid \text{пациент болен}) \cdot \prob (\text{пациент болен}) + \\ &+ \bigl( 1 - \prob (\text{тест отрицательный} \mid \text{пациент здоров}) \bigr) \cdot \bigl( 1 - \prob (\text{пациент болен}) \bigr) }

Посмотрим на какие-то конкретные цифры. Пусть распространённость болезни 0.010.01, чувствительность нашего теста 0.950.95, и специфичность теста 0.90.9. То есть наш тест достаточно хороший, а болезнь редкая. И вот у нас стоит конкретный пациент, у которого тест показал положительный результат. С какой вероятностью PP пациент болеет? По нашей формуле

P=0.950.010.950.01+0.10.990.087P = \frac{0.95 \cdot 0.01}{0.95 \cdot 0.01 + 0.1 \cdot 0.99} \approx 0.087

Удивительно, но при нашем точном тесте вероятность того, что пациент болеет, равна 8.78.7%! Это происходит потому, что сама болезнь встречается редко, и даже небольшой процент ложных срабатываний дает много ложноположительных результатов.