1. 定义 #
贝叶斯公式是概率论中的一个重要定理,用于描述在已知某些条件下事件发生的概率。
公式表达如下: $$ P(A∣B)=P(B∣A)P(A)P(B)P(A|B) = \frac{P(B|A) P(A)}{P(B)} $$ 其中:
- \(P(A|B)\):在事件 \(B\) 发生的条件下,事件 \(A\) 发生的概率(后验概率)。
- \(P(B|A)\):在事件 \(A\) 发生的条件下,事件 \(B\) 发生的概率(似然)。
- \(P(A)\):事件 \(A\) 发生的先验概率。
- \(P(B)\):事件 $B$ 发生的总概率。
2. 推导 #
根据条件概率的定义: $$ P(A∣B)=P(A∩B)P(B)P(A|B) = \frac{P(A \cap B)}{P(B)} $$ 同理: $$ P(B∣A)=P(A∩B)P(A)P(B|A) = \frac{P(A \cap B)}{P(A)} $$ 解出 \(P(A \cap B)\) 并代入可得贝叶斯公式。
3. 贝叶斯公式的扩展 #
对于多个互斥的事件 \(A_1, A_2, \dots, A_n\),总概率定理可表示为: $$ P(B)=∑i=1nP(B∣Ai)P(Ai)P(B) = \sum_{i=1}^{n} P(B|A_i) P(A_i) $$ 则贝叶斯公式可扩展为: $$ P(Ai∣B)=P(B∣Ai)P(Ai)∑j=1nP(B∣Aj)P(Aj)P(A_i|B) = \frac{P(B|A_i) P(A_i)}{\sum_{j=1}^{n} P(B|A_j) P(A_j)} $$
4. 应用 #
- 医学诊断:已知疾病的先验概率和检测准确率,计算患病概率。
- 机器学习:用于朴素贝叶斯分类器。
- 金融分析:根据历史数据更新市场风险预测。
- 垃圾邮件分类:计算邮件为垃圾邮件的概率。
5. 相关概念 #
- 先验概率(Prior Probability):事件在没有额外信息时的概率。
- 后验概率(Posterior Probability):在获得额外信息后的更新概率。
- 最大后验估计(MAP):利用后验概率进行决策的方法。
- 朴素贝叶斯分类器:基于贝叶斯公式的一种机器学习算法。