1. 概念
概率:概率模型关心的是一个多维的概率分布
图:即图论的图,起的作用为一个工具,直观表达概率之间的联系,将概率嵌入图中,使得模型更加直观,可以将概率模型的特征明显表示出来。
对于多维随机变量\(p(x_1, \dots, x_p)\), 常用计算为求边缘概率与条件概率,即有如下运算
- Sum Rule
\[p(x_1) = \int_{x_2} \dots \int_{x_p} p(x_1, \dots, x_p) dx_2 \dots dx_p \]
- Product Rule
\[p(x_1|x_2) = \frac{p(x_1, x_2)}{p(x_2)} \]
- Chain Rule
\[p(x_1, \dots, x_p) = p(x_1) p(x_2|x_1) \dots p(x_p|x_1, \dots, x_{p-1}) \]
- Bayes’ Rule
\[p(x_1|x_2) = \frac{p(x_2|x_1)p(x_1)}{p(x_2)} = \frac{p(x_2|x_1)p(x_1)}{\int p(x_2|x_1)p(x_1)dx_1} \]
困境:对于多维随机变量,计算\(p(x_1, \dots, x_p)\)计算量太大,要简化计算
简化 1:每个随机变量之间相互独立,即有\(p(x_1, \dots, x_p) = \prod_{i=1}^{p} p(x_i)\)
- Naive Bayes 假设所有特征之间条件独立,即有\(p(x_1, \dots, x_p|y) = \prod_{i=1}^{p} p(x_i|y)\)
简化 2(Markov Property):给定当前状态,未来状态与过去状态无关,即有\(p(x_k | x_1, \dots x_{k-1},x_{k+1},\dots, x_{p}) = p(x_k | x_{k-1})\)
- HMM 隐马尔科夫模型,使用齐次马尔可夫假设
简化 3(条件独立性假设):给定隐变量,观测变量之间相互独立,即有\(p(x_1, \dots, x_p|z) = \prod_{i=1}^{p} p(x_i|z)\),是马尔可夫性质的推广
- Representation
- 有向图 Bayesian Network
- 无向图 Markov Network
- 高斯图 Gaussian Network(BN MN)
- Inference(给定已知数据,求另外的概率分布)
- Exact Inference:使用 DP 计算联合分布
- Approximate Inference
- 确定性近似(变分推断)
- 随机近似 MCMC
- Learning
- Parameter Learning
- 完备数据
- 隐变量
- Structure Learning
- Parameter Learning
2. Bayesian Network(有向图模型)
使用条件独立性,将联合概率分解为多个条件概率的乘积,即有
\[p(x_1, \dots, x_p) = p(x_1)\prod_{i=2}^{p} p(x_i | x_{i-1}) \]
因子分解
构建图,使用Topological Order,若有\(X \rightarrow Y\),则有\(p(Y|X)\),那么从图上即可以得到联合概率分布。
Local Structure
注意,接下来的情况是规律,是从图与概率的关系得出的。
- tail to tail
若有三个随机变量\(A, B, C\)满足 chain rule,即\(p(A,B.C) = p(A) p(B|A) p(C|A,B)\),同时有如下图
graph TD A –> B A –> C
根据图写出关系,有\(p(A,B,C) = p(A) p(B|A) p(C|A)\)
则有\(p(C|A,B) = p(C|A)\),其中\(p(C|A,B) = \frac{p(B,C|A)}{P(B|A)}\)
表明\(C\)与\(B\)条件独立。
- head to tail
graph LR A –> B B –> C
\(A\) 与 \(C\) 在 \(B\) 条件下独立,即\(p(C|A,B) = p(C|B)\)
- head to head
graph TD A –> C B –> C
默认情况下,\(A\) 独立于 \(B\)
若\(C\)被观测,\(A\) 与 \(B\) 有关系。
\[p(A,B,C) = p(A) p(B) p(C|A,B) = p(A) p(B|A) p(C|A,B) \]
可得默认情况下,\(A\) 与 \(B\) 独立。
Representation: D – Separation
在图中判断节点集合的条件独立性,使用 D-separation 规则。
graph TD A B C
D-separation 有两个规则
- 若有节点\(x_b\)作为跨点连接\(A\)与\(C\),并形成 head to tail 或者 tail to tail 结构,那么\(x_b\) 一定在\(B\)集合中
- 若有节点\(x_b\)作为跨点连接\(A\)与\(C\),并形成 head to head 结构,那么\(x_b\) 一定不在\(B\)集合中
依次检测所有跨点,若都满足,那么\(A\) 与 \(C\) 条件独立。
这种判断规则也叫全局马尔可夫性。
Representation: Sample
graph LR id1(Bayesian Network) –> id2(单一:NaiveBayes) id1 –> id3(混合:GMM) id1 –> id4(时间) id4 –> id5(Markov Chain) id4 –> id6(Gaussion Process 无限维高斯分布) id1 –> id7(连续: Gaussian Network) id3 –> id8(动态模型) id4 –> id8 id8 –> id9(HMM:离散) id8 –> id10(Linear Dynamic System:连续、线性) id8 –> id11(Particle Filter: 非高斯、非线性)
从单一到混合、从有限到无限:
空间:随机变量的取值从离散到连续
时间:时间序列模型从有限到无限,从某一时刻延长到无限时间
-
Naive Bayes
贝叶斯网络最简单的模型graph TD y –> x1 y –> x2 y –> x3
-
GMM
graph LR z –> x
其中 \(z\) 是离散的,\(x|z \to \mathcal{N}\)
3. Markov Random Field(无向图模型)
条件独立性
条件独立性体现在以下三个方面,且能互相推出:
无向图的全局马尔可夫性:给定两个随机变量集合的分离集,两个随机变量集合之间条件独立。
局部马尔可夫性:
graph TD a — b a — c a — d d — e
\(a \perp (全集 – a – \text{neighbour of a}) | \text{neighbour of a}\)
成对马尔可夫性:
\(x_i \perp x_j | x_{-i-j}\) 其中\(x_i,x_j\)不能相邻
因子分解
无向图在因子分解时没有明确的方向性,因此要有额外的考虑
需要引入概念:
- 团:关于节点的集合,团中的节点形成一个完全图(所有的节点之间都有边)
- 极大团:团中不能再加入其他节点形成团(return 极大团是一个 NP-hard 问题)
团分解:将联合概率分解为多个团的势函数乘积
所有团的集合记为\(C\), 与团\(c\)对应的变量集合\(x_c\),势函数\(\psi_c(x_c) \geq 0\)
\[p(x_1, \dots, x_p) = \frac{1}{Z} \prod_{c \in C} \psi_c(x_c) \]
其中 Z 是归一化因子,使得概率和为 1,\(Z = \sum_x \prod_{c \in C} \psi_c(x_c)\)
Mark: \(\psi_c(x_c)\)取值随着 x_c 中的 x 取值改变而改变
接下来的问题时如何构建势函数,使得因子分解与条件独立性一致。
然而,当变量个数较多时,团的数量会很多,因此需要简化,注意到团被极大团包含,因此可以使用极大团来简化。\(C^*\)为极大团的集合。
\[p(x_1, \dots, x_p) = \frac{1}{Z} \prod_{c \in C^*} \psi_c(x_c) \]
Hammesley-Clifford 定理
如果联合概率分布能够使用极大团势函数表示,那么由该定理可以证明,因子分解与条件独立性的三个性质等价。
如何使用因子分解
为了满足非负性,我们一般定义势函数(Gibbs Distribution)
\[\psi_Q(x_Q) = \exp(-H_Q(x_Q)) \]
那么此时,联合概率分布为
\[p(x_1, \dots, x_p) = \frac{1}{Z} \prod_{c \in C^*} \psi_c(x_c) = \frac{1}{Z} \prod_{c \in C^*} \exp(-H_c(x_c)) = \underbrace{\frac{1}{Z} \exp(-\sum_{c \in C^*} H_c(x_c))}_{\text{指数族分布}} \]
经过一通乱七八糟的说明之后,我们可以得知,Markov Random Field 与 Gibbs Distribution 是等价的。
4. Inference
总体来讲,Inference 是指求解已知数据的概率,而求已知数据的概率时需要模型的参数,但是如果将参数看作未知的变量,那么学习的过程也可以被看作是 Inference 的过程。
Inference 主要分为两类:
- \(p(x_E)\)
- \(p(x_F | x_E)\), 而 \(p(x_F | x_E)\)又可以被写作
- MAP: \(\arg \max_{x_F} p(x_F | x_E)\)
\[p(x_F | x_E) = \frac{p(x_F, x_E)}{p(x_E)} \]
实际上 Inference 过程最主要的问题就是求解边缘分布的过程。
- 精确推断
- 动态规划/变量消除/Variable Elimination
- 信念传播/Belief Propagation
- Junction Tree
- 近似推断
- 确定性近似:变分推断
- 随机近似:MCMC
Variable Elimination
graph LR x1 –> x2 x2 –> x3 x3 –> x4 x3 –> x5
\(x_5\)的边缘概率分布求解为
\[P(x_5) = \sum_{x_1} \sum_{x_2} \sum_{x_3} \sum_{x_4} P(x_1, x_2, x_3, x_4, x_5) \]
在这个过程中,如果直接计算,复杂度将会是\(O(|x_1||x_2||x_3||x_4|)\),但是在其中有很多冗余的计算,因此可以使用动态规划的思想,将已经计算过的值存储起来,这样可以将复杂度降低到\(O(|x_1| + |x_2| + |x_3| + |x_4|)\)。
\[= \sum_{x_1} \sum_{x_2} \sum_{x_3} \sum_{x_4} P(x_1) P(x_2 | x_1) P(x_3 | x_2) P(x_4 | x_3) P(x_5 | x_3) = \\ \sum_{x_3} P(x_5 | x_3) \sum_{x_4} P(x_4 | x_3) \sum_{x_2} P(x_3 | x_2) \sum_{x_1} P(x_2 | x_1) P(x_1) \]
可以定义中间函数:
\[m_{12}(x_2) = \sum_{x_1} P(x_2 | x_1) P(x_1) \\ m_{23}(x_3) = \sum_{x_2} P(x_3 | x_2) m_{12}(x_2) \dots \]
1.本站内容仅供参考,不作为任何法律依据。用户在使用本站内容时,应自行判断其真实性、准确性和完整性,并承担相应风险。
2.本站部分内容来源于互联网,仅用于交流学习研究知识,若侵犯了您的合法权益,请及时邮件或站内私信与本站联系,我们将尽快予以处理。
3.本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
4.根据《计算机软件保护条例》第十七条规定“为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。”您需知晓本站所有内容资源均来源于网络,仅供用户交流学习与研究使用,版权归属原版权方所有,版权争议与本站无关,用户本人下载后不能用作商业或非法用途,需在24个小时之内从您的电脑中彻底删除上述内容,否则后果均由用户承担责任;如果您访问和下载此文件,表示您同意只将此文件用于参考、学习而非其他用途,否则一切后果请您自行承担,如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。
5.本站是非经营性个人站点,所有软件信息均来自网络,所有资源仅供学习参考研究目的,并不贩卖软件,不存在任何商业目的及用途
暂无评论内容