1、 null
2、 事件A与事件B相互独立,指的是二者同时发生的概率恰好等于各自发生概率的乘积,即满足关系式 $ P(AB) = P(A)P(B) $。这种独立性表明:A是否发生,对B发生的可能性不产生任何影响,反之亦然;但需注意,独立并不排斥两者同时发生。独立性仅反映概率上的无关联性,与事件在逻辑或结果上是否互斥无关——独立事件可以相容(即可能同时发生),也可以不相容(即互斥),而互斥事件则必然不独立(除非其中至少一个事件概率为0)。因此,“独立”与“互斥”是两个本质不同的概念。
3、 二者的根本差异源于定义层面的区分。
4、 $ P(AB) $ 表示事件A与事件B联合发生的概率,即在全部样本点中,既属于A又属于B的结果所占的比例,也称为联合概率。
5、 $ P(B|A) $ 表示在已知事件A发生的前提下,事件B发生的条件概率;其含义是以A为限定范围,在该子样本空间内考察B出现的可能性,计算公式为 $ P(B|A) = \dfrac{P(AB)}{P(A)} $(当 $ P(A) > 0 $ 时成立)。

6、 边缘分布
7、 边缘概率是指某单一事件发生的概率,它不依赖于其他变量的状态,可通过将联合概率分布中与该事件无关的其余变量“消去”而获得——具体操作是对离散型变量求和、对连续型变量积分。
8、 在多维联合概率分布中,若希望聚焦于部分变量(如仅关注变量A),可通过对其他无关变量(如B)的所有可能取值进行汇总处理来实现降维:对离散情形执行求和运算,对连续情形执行积分运算,这一过程即为边缘化(Marginalization)。经此操作所得的概率分布即为目标变量的边缘分布,对应概率分别记作 $ P(A) $ 和 $ P(B) $。









