一、引言
马尔可夫链蒙特卡洛方法(Markov Chain Monte Carlo),简称MCMC。其产生于20世纪50年代早期,是在贝叶斯理论框架下,通过计算机进行模拟的蒙特卡洛方法(Monte Carlo)。该方法将马尔可夫(Markov)过程引入到Monte Carlo模拟中,实现抽样分布随模拟的进行而改变的动态模拟,弥补了传统的蒙特卡罗积分只能静态模拟的缺陷。
Metropolis等人在1953年首次提出了基于马尔可夫链的蒙特卡罗方法,即 Metropolis 算法,并在最早的计算机上编程实现。Metropolis算法是首个普适的采样方法,并启发了一系列 MCMC 方法,所以人们把它视为随我爱线报网机模拟技术腾飞的起点。 Metropolis算法这篇论文[1]被收录在《统计学中的重大突破》中,《Computing in Science & Engineering》尝试列出了对20世纪科学与工程的发展和实践影响最大的十种算法:
Metropolis Algorithm for Monte CarloSimplex Method for Linear ProgrammingKrylov Subspace Iteration MethodsThe Decompositional Approach to Matrix ComputationsThe Fortran Optimizing Compi我爱线报网lerQR Algorithm for Computing EigenvaluesQuicksort Algorithm for SortingFast Fourier TransformInteger Relation DetectionFast Multipole MethodMetropolis Algorithm for Monte Carlo 被列为十大算法之首。 用于蒙特卡洛的Metropolis算法定义了一个收敛的马尔可夫链,其极限就是所需的概率分布。Metropolis算法及其推广算法已被称为蒙特卡洛马尔可夫链技术(MCMC),因为这些算法模拟了一个马尔可夫链,从极限分布中获取我爱线报网抽样。
搞自然科学研究的人,MCMC应该是基本装备。所谓平生不识MCMC, 便称英雄也枉然。
二、MCMC的两大贴身护卫
MCMC由两个MC组成,即马尔可夫链(Markov Chain ,也简称MC)和蒙特卡洛法(Monte Carlo Simulation,简称MC)。要弄懂MCMC的原理我们首先得搞清楚马尔科夫链的原理和蒙特卡罗法。
1、马尔可夫链及其平稳分布
1)定义
马尔可夫链的命名来自俄国数学家安德雷.马尔可夫以纪念其首次提出马尔可夫链和对其收敛性质所做的研究。
马尔可夫链是一组具有马尔可夫性质的离散随机变量的集合。所谓马尔可夫性质是指某一时刻状态转移的概率只依赖于它的前一个状态。
具体地,马氏链的我爱线报网数学定义:
对概率空间内的离散随机变量集合
若随机变量的取值都在可数集S内:
且随机变量的条件概率满足如下关系
则随机变量集合X被称为马尔可夫链,可数集S被称为状态空间,马尔可夫链在状态空间内的取值称为状态。
马氏链某一时刻状态转移的概率只依赖于它的前一个状态,这样定义,可以大大简化模型的复杂度,因此马氏链在很多时间序列模型中得到广泛的应用,比如循环神经网络RNN,隐式马尔科夫模型HMM等,当然MCMC也需要它。
马尔可夫过程通常分为3类:
时间、状态都是离散的,称为马尔可夫链。时间连续、状态离散的,称为连续时间的马尔可夫链。时间连续、状态连续的,称为马尔可夫过程。可见马氏链是时间、状态都是离散的马尔可夫过我爱线报网程。
2)马氏链转移概率矩阵和收敛现象
我们先来看马氏链的一个具体的例子。社会学家经常把人按其经济状况分成3类:下层(lower-class)、中层(middle-class)、上层(upper-class),我们用1、2、3分别代表这三个阶层。社会学家们发现决定一个人的收入阶层的最重要的因素就是其父母的收入阶层。如果一个人的收入属于下层类别,那么他的孩子属于下层收入的概率是0.65,属于中层收入的概率是0.28,属于上层收入的概率是0.07。事实上,从父代到子代,收入阶层的变化的转移概率如图2-1和图2-2
图2-1
图2-2
设状态空间S={1,2,3} (1、2、3分别代表人的收入阶层:下层、中层我爱线报网、上层), 使用矩阵的表示方式,转移概率矩阵记为:
假设当前这一代人处在下层、中层、上层的人的比例是概率分布向量:
那么他们的子女的分布比例将是
他们的孙子代的分布比例将是
第n代子孙的收入分布比例将是
假设初始概率分布为π0=[0.21,0.68,0.11],则我们可以计算前n代人的分布状况如下
我们发现从第7代人开始,这个分布就稳定不变了,这个是偶然的吗?我们换一个初始概率分布π0=[0.75,0.15,0.1]试试看,继续计算前n代人的分布状况如下:
我们发现,到第9代人的时候, 分布又收敛了。最为奇特的是,两次给定不同的初始概率分布,最终都收敛到概率分布 π=[0.286,0.489,0.225],我爱线报网也就是说收敛的行为和初始概率分布 π0无关。这说明这个收敛行为主要是由概率转移矩阵P决定的。我们计算一下 P的n阶矩阵为
我们发现,当 n 足够大的时候,这个P的n阶矩阵的每一行都是稳定地收敛到π=[0.286,0.489,0.225]这个概率分布。这个收敛现象并非是我们这个马氏链独有的,而是绝大多数马氏链的共同行为。这个性质同样不光是离散状态,连续状态时也成立。
3)马氏链定理
马氏链定理: 如果一个非周期马氏链具有转移概率矩阵P, 状态空间S, i,j∈S且它的任何两个状态是连通的,那么
这就是马氏链的收敛定理。
由该定理可以得出如下结论:
<1>
<2>
<3> π 是方程 πP=π的唯一非负解。其中,我爱线报网
π称为马氏链的平稳分布。
请注意两种表示方式的不同:
表示状态空间S中的各个状态1,2,j…的概率:表示不同时刻的概率分布这个马氏链的收敛定理非常重要,所有的 MCMC方法都是以这个定理作为理论基础的。定理的证明相对复杂,一般的随机过程课本中也不给证明,所以我们就不用纠结它的证明了,直接用这个定理的结论就好了。我们对这个定理的内容做一些解释说明:
非周期的马尔科夫链:这个主要是指马尔科夫链的状态转化不是循环的,如果是循环的则永远不会收敛。幸运的是我们遇到的马尔科夫链一般都是非周期性的;任何两个状态是连通的:这个指的是从任意一个状态可以通过有限步到达其他的任意一个状态,不会出现条件概率一直为0导致我爱线报网不可达的情况;马尔科夫链的状态数可以是有限的,也可以是无限的。因此可以用于连续概率分布和离散概率分布;π通常称为马尔科夫链的平稳分布。我们仅证明定理的第二个结论
证明:
上式两边取极限就得到
证明完毕。
4) 马氏链的平稳分布与细致平衡条件
给定一个马尔可夫链,若在其状态空间S存在概率分布
则π是该马尔可夫链的平稳分布。
细致平衡条件(Detailed Balance Condition):给定一个马尔科夫链,概率分布π和概率转移矩阵P,∀i,j∈S, (S是状态空间),如果下面等式成立:
则此马尔科夫链具有一个平稳分布(Stationary Distribution)。
需要注意,这个细致平衡条件仅是一个充分我爱线报网条件,而不是必要条件,也就是说存在具有平稳分布的马尔科夫链不一定满足此细致平衡条件。
证明如下:
由条件推出
得
所以此马尔科夫链具有一个平稳分布。
从初始概率分布π0(x)出发,我们在马氏链上做状态转移,记Xi的概率分布为πi(x),则有
由马氏链收敛的定理, 概率分布πi(x)将收敛到平稳分布 π(x)。假设到第n步的时候马氏链收敛,则有
所以
也就是说无论我们的起始状态是何种概率分布,在状态转移矩阵 P 的作用下,经过足够大的 n 步转移之后,最后都收敛到一个平稳分布,且该分布是唯一不变的。即平稳分布仅由状态转移矩阵P决定。
设马尔可夫链的状态空间S={ω1,ω2,…, ωi,…ωn}(可以理解为我爱线报网样本空间在随机过程中的表达),如果我们从一个具体的初始状态 x0∈S(x0可能是ω2,也可能是ωi)开始,沿着马氏链按照概率转移矩阵做跳转,那么我们可以得到一个转移状态序列 ,马氏链终于露出了它的庐山真面:
尽管马尔可夫链最终会收敛到所需的分布,但是初始样本可能会遵循非常不同的分布,尤其是在起点位于低密度区域的情况下。结果,通常需要一个老化期,所以我们会舍弃前面的老化样本,得到我们需要的平稳样本集
这就是平稳分布 π的状态样本序列。最后平稳分布的样本集可能达到几万、几十万甚至更大的规模。统计各个状态出现的频次,归一化后画出统计直方图,就可以模拟目标分布。
5)基于马尔可夫链的采样过程
1> 输入马尔可我爱线报网夫链状态转移矩阵P, 状态空间S,设定状态转移收敛次数为n1, 迭代次数为n2;
2> 从任意简单概率分布采样得到初始状态值x0∈S;
3> for t=0 to n1+n2-1: 从条件概率分布p(x|x(t))中采样,得到样本x = x(t+1). 去掉前面的老化样本,最终的样本集
即为我们需要的平稳分布对应的样本集。
这里大家会问:
如何进行简单概率分布采样和条件概率分布采样?简单概率分布可选择正态分布或均值分布,正态分布根据Box–Muller变换法或接受-拒绝采样法采样,均值分布可直接计算机采样;条件概率分布可由输入转移矩阵P得到概率数据,然后根据离散随机变量逆变换法采样。这些采样方法后面有详我爱线报网细介绍。
怎么证明得到的样本集就是平稳分布对应的样本集?两种采样方法来理解:
第1种方法,从简单概率分布中采样 10000个的初始状态样本,用最简单粗暴的方法对每一个初始样本都执行一次n(n>n1)步转移,状态之间的转移概率从该马尔科夫链的状态转移矩阵获取,最后依如下概率落入状态空间中的一个状态。
当初始状态样本足够多时,由大数定律,最终落入到平稳马氏链的各个状态的数量所占的比例逼近各个状态的平稳分布概率。但是这样一来计算量相当大,每次只利用了采样过程中的最后一个状态,且要运行 10000次进入平稳状态的转移过程,数据的利用率很低,浪费也很大。
第2种方法,只需要对一个初始状态进行状态转移,就可以实现我爱线报网整个采样过程。我们把它进入稳态的那一刻记作t0,当 t0 时刻的状态向下一个时刻t1 转移时,它依照稳态分布概率
(由n-步转移概率的性质Chapman–Kolmogorov等式可知,n-步转移矩阵是其之前所有转移矩阵的连续矩阵乘法,证明见附录1)
进入到状态 1、状态2 或者状态j当中的任意一个。以此类推,对于后面的所有转移时刻:t2、t3……tn,当前状态都能依照稳态分布中的概率进入到状态空间的任何其它状态。进行N次转移后得到N个采样结果,N个采样结果中各个状态的数量所占的比例和平稳分布是一致的。这种方法巧妙地用时间轴的采样分布等价替代了空间轴的采样分布,省时省力。
图2-3示意了进入平我爱线报网稳期的采样全过程(假设总共3个状态):
图2-3
6)马尔可夫链的性质
马尔可夫链的4个性质:不可约性、常返性、周期性和遍历性。
不可约是指当马尔可夫链为任何状态时,其访问其余所有状态的概率都是正的,即随机变量可以在任意状态间转移。常返性指给定一个状态则经过有限的时间它一定会重新回到这个状态。非周期指马尔可夫链的状态的迁移不会陷入小的闭环。遍历性指马尔可夫链的的所有状态互通且均为非周期的正常返状态。平稳马尔可夫链也被称为齐次马尔可夫链。即转移概率不随时间而变。满足细致平衡条件的马氏链具有一个平稳分布。由极限定理可知,遍历链是平稳马尔可夫链。有限状态马尔可夫链转移概率的极限分布一定是平稳分布。若初始概率我爱线报网是平稳分布,则任意时刻的绝对概率分布等于初始分布,也即为平稳分布。7) 马尔可夫链的作用
马尔可夫链在处理随机动力学时对问题建模的强大作用。
马尔可夫链预测理论在教育学、经济学、金融投资、生物学、农作物栽培、地质灾变,…特别是水资源科学中都得到了极为广泛地应用。
例如,马尔可夫链在排队理论、统计数据、生物种群进化建模、隐马尔可夫模型信息理论、语音识别、音字转换、词性标注、蒙特卡洛采样等都有应用。
2、蒙特卡洛法
1)定义
蒙特卡洛(Monte Carlo,MC)方法, 又称随机抽样法,统计试验法或随机模拟法。
蒙特卡罗法是由冯·诺伊曼等人在20世纪40年代为研制核武器的需要而首先提出并以摩纳哥的赌城Mo我爱线报网nte Carlo来命名的一种计算方法。
蒙特卡洛法是数学建模十大算法之一,是思想和技巧的艺术品。它的魔力在于,对于那些规模极大的问题,求解难度随着问题的维数(自变量个数)的增加呈指数级别增长、出现所谓的“维数的灾难”的问题,传统方法无能为力,而蒙特卡洛方法却可以独辟蹊径,基于随机仿真的过程给出近似的结果。
2)主要步骤
蒙特卡洛法是一类通过随机抽样过程来求取最优解的方法的总称,如果建立蒙特卡洛模型的过程没有出错,那么抽样次数越多,得到的答案越精确。蒙特卡洛法可以归纳为如下三个步骤:
<a> 构造或描述概率过程,将欲求解问题转化为概率过程。
对于本身就具有随机性质的问题,主要是正确描述和模拟这个概率过程我爱线报网,对于本来不是随机性质的确定性问题,比如计算定积分,就必须事先构造一个人为的概率过程,它的某些参量正好是所要求问题的解。即要将不具有随机性质的问题转化为随机性质的问题。
<b> 实现从已知概率分布抽样。
构造了概率模型以后, 按照这个概率分布抽取随机变量。这一般可以直接由软件工具包(见附录2,3,4)调用,或抽取均匀分布的随机数构造。这成为实现蒙特卡洛方法模拟实验的基本手段,也是蒙特卡洛方法被称为随机抽样的原因。
<c> 通过样本计算各类统计量,此类统计量就是欲求问题的解。
一般说来,构造了概率模型并能从中抽样后(即实现模拟实验后),我们就要确定一个随机变量,作为所要求的问题的解,我们称它为无偏估计。我爱线报网建立各种估计量,相当于对模拟实验的结果进行考察和登记,从中得到问题的解。
3)组成部分
概率密度函数(pdf):必须给出描述一个物理系统的一组概率密度函数;随机数产生器:能够产生在区间[a,b]上满足概率分布的随机数;抽样规则:随机抽取服从给定的pdf的随机变量;模拟结果记录:记录一些感兴趣的量的模拟结果;误差估计:必须确定统计误差(或方差)随模拟次数以及其它一些量的变化;减少方差的技术:利用该技术可减少模拟过程中计算的次数;并行和矢量化:可以在先进的并行计算机上运行的有效算法。4)优点
对于具有统计性质问题可以直接进行解决;对于连续性的问题不必进行离散化处理;能够比较逼真地描述具有随机性质的事物的我爱线报网特点及物理实验过程;受几何条件限制小;方法的误差与问题的维数无关;收敛速度与问题的维数无关;具有同时计算多个方案与多个未知量的能力;误差容易确定;程序结构简单,易于实现。5)应用
蒙特卡洛方法应用非常广泛,其领域包括统计物理、天体物理、物理化学、数学、计算生物、统计学、经济学、金融证券、社会科学等等。
蒙特卡洛方法在解决物理和数学问题时时常被使用。当十分困难或不可能得到解析表达式,或不可能应用确定性算法时,该方法显得尤其重要和最为有用。
蒙特卡洛方法主要用于两个不同类别的问题:
确定性的数学问题无理数、不规则图形的面积、多重积分、求逆矩阵、解线性代数方程组、解积分方程、解某些偏微分方程边值问题和计算代我爱线报网数方程组、计算微分算子的特征值等等。
随机性问题仿真、概率分布的生成(MCMC算法)。
应用之一 求无理数π
解题思路:
构造一个单位正方形和一个单位圆的1/4,往整个区域内随机投入点,根据点到原点的距离判断点是落在1/4的圆内还是在圆外,从而根据落在两个不同区域的点的数目,求出两个区域的比值。如此一来,就可以求出1/4单位圆的面积,从而求出圆周率π。
解题步骤:
第1步,建模,构造概率过程,选择区域内随机投入点作为随机变量;
第2步,选择二维均匀分布Y = sqrt(h^2+v^2), h、v~U[0,1], 作为已知概率分布抽样;
第3步,根据落入正方形样本数和1/4圆样本数,求出结果。
演示代码:
from我爱线报网random import random from math import sqrt N = 1000000 hits = 0 for i in range(1, N): x, y = random(), random(); dist = sqrt(x**2 + y**2) if dist <= 1.0: hits = hits + 1 pi = 4 * (hits/N) print(Pi的值是 %s % pi)应用之二 求定积分
例子1
解题思路如下:
假定随机变量具有密度函数
根据数学期望公式得
构造统计数
根据大数定律
最终求出了定积分。
例子2 求定积分
解题思路:
将原式变形为
解:采用蒙特卡洛方法, MATLAB模拟,
N=500;
x=u我爱线报网nifrnd(0,2,N,1);
mean(2*exp(3*x.^2))
第一条语句设定了停止条件,共做N次Monte Carlo 模拟;
第二条语句实现了在积分区间[0,2]均匀产生N个随机数;
第三条语句求样本均值,实现蒙特卡洛计算方法的面积逼近。
应用之三 仿真中子逸出
图2-4是一个中子穿过用于中子屏蔽的铅墙示意图。铅墙的高度远大于左右厚度。设中子是垂直由左端进入铅墙,在铅墙中运行一个单位距离然后与一个铅原子碰撞。碰撞后,任意改变方向,并继续运行一个单位后与另一个铅原子碰撞。这样下去,如果中子在铅墙里消耗掉所有的能量或者从左端逸出就被视为中子被铅墙挡住,如果中子穿过铅墙由右端逸出就视为中子逸出。如我爱线报网果铅墙厚度为5个单位,中子运行7个单位后能量耗尽,求中子逸出的几率。
图2-4
解题思路:
这个问题并不复杂,但不容易找到一个解析表达式。而用模拟仿真的方法求解却可以有满意的结果。解题步骤如下:
第1步,建模,构造概率过程,选择中子碰撞后的角度作为随机变量;
第2步,选择角度的均匀分布作为已知概率分布抽样;
第3步,根据假设的总中子样本数和逸出的中子样本数,求出结果。
解:具体做法如下:
我们关心的是一次碰撞后,中子在水平方向行进了多少,所以行进方向是正负θ的结果是一样的,我们就只考虑θ是正的情形。由于中子运行的方向θ是随机的,我们用计算机抽取在0到π间均衡分布的随机数,模拟1000000个中子在铅墙里行进的我爱线报网情形,看看这些中子与铅原子碰撞7次后,有多少超过了铅墙的右端。
实现伪代码
n = 1000000; m = 0; flag = 1; for i=1:n x=1; for j=1:7 angle = pi * rand; x = x + cos(angle); if x<0 k=0; flag=0; end end if x>5 & flag==1 k=1; else k=0; end m = m + k; flag = 1; end运行结果:m/n = 1.3%
我们运行程序得出逸出铅墙的中子的可能性约为1.3%,有了这个数字,我们可以报告安全部门,如果数字不能达到安全要求,我们则要加厚铅墙。
3、马尔可夫链与蒙特卡洛方法的灵魂附体
对于给定的概率分布p(x),我们希望能有我爱线报网便捷的方式生成它对应的样本。由于马氏链能收敛到平稳分布,于是一个很漂亮的想法是:如果我们能构造一个转移矩阵为P的马氏链,使得该马氏链的平稳分布恰好是p(x), 那么我们从任何一个初始状态x0出发沿着马氏链转移, 得到一个转移状态序列
如果马氏链在第n步已经收敛了,于是我们就得到了平稳分布p(x)的样本集
这个绝妙的想法在1953年被 Metropolis等人想到了,为了研究粒子系统的平稳性质, Metropolis 考虑了物理学中常见的波尔兹曼分布的采样问题,首次提出了基于马氏链的蒙特卡罗方法,即Metropolis算法,并在最早的计算机上编程实现。
三、MCMC有什么用?
1、贝叶斯推断中很多问题都我爱线报网是MCMC方法的应用
从贝叶斯(Bayesian)的观点来看,模型中的观测变量和参数都是随机变量,因此,样本x与参数θ的联合分布可以表示为:
根据贝叶斯理论,可以通过样本x的信息对θ的分布的进行更新,后验概率为:
其中π(θ)先验概率;f(x|θ)似然函数(即样本的概率分布);分母是标准化常量。后验概率 = (似然函数*先验概率)/标准化常量 = 标准似然度*先验概率。
贝叶斯学习中经常需要进行三种积分运算:
归范化(normalization)边缘 化(marginalization)数学期望(expectation)1> 后验概率计算中需要归范化计算:
2> 如果有隐变量z∈Z,后验概率的计算需要边缘我爱线报网化计算:
3> 如果有一个函数g(θ),可以计算该函数的关于后验概率分布的数学期望:
此积分值为样本x的函数,因此可以对g(θ)进行推断。
该期望估计
当维数很高时,直接进行这三类积分是非常困难的, MCMC方法就是为此目的而诞生,为这些计算提供了一个通用的有效解决方案。
2、MCMC的作用总结
1)在贝叶斯推理中主要用于从后验分布的“非标准化部分”中直接生成样本集,避免复杂计算。
对很多贝叶斯推断问题来说,有时候后验分布过于复杂,使得积分没有显示结果,数值方法也很难应用;有时候需要计算多重积分(比如后验分布是多元分布时)。这些都会带来计算上的很大困难。这也是在很长的时期内,贝叶斯统计得不到快速发展的一个原我爱线报网因。1990年代MCMC计算方法引入到贝叶斯统计学之后,一举解决了这个计算的难题。MCMC方法的最新发展使计算大型分层模型成为可能,这些模型需要对数百到数千个未知参数进行积分。可以说,近年来贝叶斯统计的蓬勃发展,特别是在各个学科的广泛应用和MCMC方法的使用有着极其密切的关系。
2)从任意给定的概率分布或复杂分布中获取随机样本集
MCMC算法是一个普适的采样方法,它的出现带来了随机模拟技术的腾飞。在随机变量生成技术中,MCMC是一种相当高级的方法,可以从一个非常困难的概率分布中获得样本。更出乎意料的是,可以用MCMC从一个未经标准化的分布中获得样本,这来自于定义马尔可夫链的特定方式,马尔可夫链对这我爱线报网些归一化因子并不敏感。
对高维(多个自变量)积分的数值近似计算是MCMC方法的一种重要的应用,很多统计问题,比如计算概率、矩(期望、方差等)都可以归结为定积分的计算。
MCMC的精髓在于构造合适的马氏链。
MCMC是一种简单有效的计算方法,在很多领域到广泛的应用,如统计学、贝叶斯(Bayes)问题、计算机问题等。
四、MCMC生成的样本集长啥样?
MCMC背后的基本思想是构造一个遍历的马尔可夫链,使得其平稳的、收敛的极限分布成为人们所需要的目标概率分布。
设马尔可夫链的状态空间S={ω1,ω2,…ωn}(可以理解为样本空间在随机过程中的表达),从某个初始状态x0出发,用构造的马尔可夫链随机游走,产生状我爱线报网态样本序列:
舍弃前面的老化(不稳定)的样本集合
应用遍历定理,确定正整数m和n, 得到平稳分布的状态样本集合:
该样本集可能达到几万、几十万、几千万甚至更大的规模。统计该状态样本集中对应的各个状态ω1,ω2…出现的频次,归一化后画成直方图。如图4-1所示,绿色部分就是状态概率分布(即抽样概率分布),红色部分是目标概率分布。t趋近∞时,抽样概率分布可以无限逼近目标概率分布。
图4-1
五、MCMC与随机采样法
平时我们接触比较多的场景是,给定一堆样本数据,求出这堆样本的概率分布p(x)。而采样刚好是个逆命题:给定一个概率分布p(x),如何生成满足条件的样本?
1、为什么需要采样样本?
通过样本可以计算各类我爱线报网统计量(如均值、方差、矩等),而此类统计量就是欲求问题的近似解。例如求积分,根据大数定律,相当于求某概率分布采样样本的均值。
2、采样必须满足的条件
1)足够地随机
蒙特卡罗模拟有一个危险的缺陷:如果必须输入一个模式中的随机数并不像设想的那样是随机数,而却构成一些微妙的非随机模式,那么整个的模拟和预测结果都可能是错的。
对于给定的概率分布来说,采样必须是随机的,这个非常重要。随机采样对于人来说,是不能也,非不为也。依靠人来采样很难得到真正的随机样本,人为地通过概率分布函数计算得到一批样本注定是徒劳的。
蒙特卡罗模拟要取决于可靠的无穷尽的随机数目来源。产生随机数要靠随机数发生器,随机数发生器主要包括真(物我爱线报网理性)随机数发生器和伪随机数发生器。
真随机数生成器(True Random Number Generator, TRNG)是一种通过物理过程而不是计算机程序来生成随机数字的设备。通常是基于一些能生成随机的“噪声”信号的微观现象,如热力学噪声、光电效应和量子现象等,其物理过程在理论上是完全不可预测的,并且这种不可预测性要经过实验检验。真随机数生成器通常由换能器、放大器和模拟数字转换器组成。其中换能器用来将物理过程中的某些效果转换为电信号,放大器及其电路用来将随机扰动的振幅放大到宏观级别,而模拟数字转换器则用来将输出变成数字,通常是二进制的零和一。通过重复采样这些随机的信号,一系列的随机数得以生成我爱线报网。
硬件随机数发生器通常每秒仅产生有限数量的随机位。为了增加可用的输出数据速率,通常将它们用于生成“种子”,以用于更快的密码安全伪随机数生成器,然后生成器以更高的数据速率生成伪随机输出序列。
伪随机数发生器是依靠计算机按照一定算法模拟产生的,其结果是确定的,是可见的。通过这种方式产生的“随机数”并不随机,是伪随机数。贝尔实验室的里德博士告诫人们记住伟大的诺依曼的忠告:“任何人如果相信计算机能够产生出真正的随机的数序组都是疯子。”
伪随机数存在两大问题
递推公式和初始值确定后,整个随机数序列便被唯一确定,不满足随机数相互独立的要求。随机数序列会出现周期性的循环现象。真随机数的生成对技术的要求比较高,在实我爱线报网际应用中往往使用伪随机数就够了。在使用伪随机数时,要尽量克服其存在的两大问题。对于第一个问题,不能从本质上加以改变,但只要递推公式选的比较好,随机数间的相互独立性是可以近似满足的;对于第二个问题,因为用蒙特卡罗方法解任何具体问题时,所使用的随机数的个数总是有限的,只要所用随机数的个数不超过伪随机数序列出现循环现象时的长度就可以了。
2)足够多的采样样本
我们通过采样获取足够多的样本, 然后统计样本空间中的样本出现的频次,来模拟和逼近目标概率分布的。采样样本越多,越逼近目标概率分布。如图5-1所示。
几万或几十万的样本集是小目标;几百万或几千万的样本集很常见;在AI和大数据时代,目标概率分布有时会涉及我爱线报网到几百个、几千个参数, 几百亿的样本集都出现了。
图5-1
3) 尽量覆盖样本空间
这与算法和采样策略有关。
4) 能模拟给定的目标分布
这与算法有关,要从理论上证明。
3、常见的随机采样方法
1) U~[0,1均匀分布采样法(Uniform Sampling)
例如:线性同余伪随机数生成器
X是伪随机序列;
m, m>0表示模量;
a, 0<a<m表示乘数;
c, 0≤c<m表示增量;
X0, 0≤X0<m表示初始值;
如果c=0, 称为乘法同余发生器,如果c!=0, 称为混合同余发生器;
Yn则是 [0, 1)内服从均匀分布的随机变量。
小结:
均匀分布随机数可以直接由计算机模拟产生。
2) Box–Muller变换法
Box我爱线报网–Muller 变换是一种利用均匀分布快速产生符合标准正态分布伪随机数对的一种方法。基本思想是先得到服从均匀分布的随机数,再将服从均匀分布的随机数转变为服从正态分布。
I 标准形式的 Box–Muller 变换
假设变变量 U1 和变量 U2 是(0,1]均匀分布的随机数,
且 U1 和 U2 彼此独立,令:
则 Z0 和 Z1 就是服从 N(0,1)的标准正态分布随机数,并且 Z0 和 Z1 相互独立。
II 极坐标形式的 Box–Muller 变换
假设变量 u 和变量 v 是在[-1,1]上的均匀分布随机量,
u 和 v 相互独立,令:
故而,随机数 z0 和 z1 计算后得出如下结果:
z0 和 z1 我爱线报网是服从分布 N(0,1)的随机数,并且 z0 和 z1 相互 独立。
3) 逆变换法(Inverse Transform Method)
逆变换法就是利用累积分布函数求逆,将所求概率分布的抽样转化为随机均匀分布的抽样。
I 连续随机变量逆变换法
设所求连续分布采样的连续随机变量X的概率密度函数为f (x) 。
第1步,求概率累积分布函数F(x)
F(x)是单调递增的连续函数,令
则U也是随机变量,且U∈[0, 1]。
第2步,求反函数
第3步,随机产生均匀分布U[0,1],求出对应的X,就可得到所求概率分布的采样。
II 离散随机变量逆变换法
设所求离散分布采样的离散随机变量的概率密度为
第1步,生成均匀分布U[0,我爱线报网1]随机数。
第2步,求出对应的X
也就是如下分段式:
X就是所求概率分布的采样。
III 轮盘赌采样
任意离散分布都可以画在轮盘上,采样只需要随机地旋转轮盘即可。如图5-2所示。
该轮盘模拟了累积分布函数,随机转动轮盘相当于随机均匀采样,最后轮盘的停止位置就是采样值。
图5-2
小结:
优点:随机数可以直接由均匀分布导出。
缺点:很多复杂累积分布函数求逆困难。
4)接受-拒绝采样法(Acceptance-Rejection Sampling)
实际随机分布抽样中会遇到如下问题:
概率密度函数p(x) 太复杂无法直接采样;逆变换中一些累积概率分布函数无法求逆。接受-拒绝采样法就派上了用场。基本思想是选择一个容易抽样的随我爱线报网机分布函数q(x)和常数k, 使得k*q(x)≥p(x)(这里p(x)可以进行非归一化,乘以常数Z,以下省略),然后按照一定的方法拒绝某些抽样,达到接近p(x)分布的目的。
如图5-3所示:
图5-3
假设我们选取已知的高斯分布q(x)=Gassian(1.4, 1.2),我们按照一定的方法拒绝某些样本,达到接近p(x)分布的目的。
具体步骤如下:
第1步,选择已知的分布函数q(x),确定常量k,使得p(x)总在kq(x)的下方。
第2步,在x轴上,从q(x)分布抽样取得a。但是a不一定留下,会有一定的几率被拒绝。
第3步,在y轴上,从均匀分布(0,1)中抽样得到u。如果u.kq(a)>p(a),就是落到了我爱线报网灰色的区域中,拒绝;否则接受这次抽样。
第4步,重复2、3步。
模拟结果如图5-4所示:
图5-4
小结:
在高维(多个自变量)分布的情况下,接受-拒绝采样会出现如下一些问题:
1> 合适的提议分布q(x)比较难以找到,并且当kq(x)与p(x)相差太多时,会导致拒绝率很高,无用计算增加。
2> 很难确定一个合理的常数 k 值, 并且k值往往会很大;
3> 所需的样本量随空间维数增加而指数增长。
5) 重要性采样法(Importance Sampling)
重要性采样是统计学中估计某一分布性质时使用的一种方法,该方法从与原分布不同的新分布中采样,而对原分布的性质进行估计。重要性采样常用于蒙特卡洛积分。
作用一 降方我爱线报网差
重要性采样是蒙特卡洛方法中的一个重要策略。该方法不改变统计量,只改变概率分布。重要性采样算法就是在有限的采样次数内,尽量让采样点覆盖对积分贡献很大的点或者以一种受控的方式改变仿真,以便增加稀少事件的数目。它是一种降方差的仿真方法。
作用二 将复杂的无法抽样的分布转化为简单的容易抽样的分布,间接求一些统计量f(x)
其中, q(x)为提议分布(proposal distribution),p(x) / q(x)可以看做 importance weight。
小结:
优点: 如果我们无法从分布p(x)中抽样, 或者从中抽样的成本很高, 那么我们还可以求E[f(x)]吗?答案是可以的, 我们可以从一个简单我爱线报网的分布q(x)中进行抽样得到x, 求f(x)p(x)/q(x)的期望,进而可以求得函数积分的近似解。
缺点:在高维空间里找到一个这样合适的q(x)非常难。
6) MCMC采样法
(1)MCMC思想的来源
拒绝采样法和重要性采样法面临两个问题:
1> 如果提议分布q(x)与目标分布p(x)差距过大,模拟采样效果就不太好;
2> 构造一个与目标分布p(x)相似的提议分布q(x)很困难。
我们知道,对于任意的目标分布,我们可以设计一种接受-拒绝的概率,从而使得所有接受的点都是该分布的样本。拒绝采样法和重要性采样法采用了提议函数q(x)和接受概率实现了这种思想,然而问题在于,由于其提议分布q(x)是固定的,这对q(我爱线报网x)的要求很高,试想下,如果q与真实p的差距过大,那么几乎每个样本都会被拒绝掉,效率很低。那如何设计更好的q呢?一个巧妙的办法是设计一个自适应的提议分布 q(x’|x),它以上一次接受的样本作为条件,然后经过转移propose一个新的样本,如果我们能够约束这个转移不会改变目标分布,那么我们就能快速的找到目标分布p(x)的样本。如图5-5所示,这也正是MCMC的思想。
图5-5
另一方面,大多数拒绝采样法和重要性采样法都遭受“维数的诅咒”,其中拒绝的概率随维数的增加呈指数增长。 MCMC方法都没有这个“维数诅咒”的问题,当要采样的分布维数很大时,它通常是唯一可用的解决方案。结果,MCMC方法成为了从我爱线报网分层贝叶斯模型和当今许多学科中使用的其它高维统计模型中生成样本的首选方法。MCMC采样是一种普适采样方法,它可以解决其它采样方法无法搞定的很多问题。
(2)MCMC中的提议分布q(.)
提议分布q(x, x’) = q(x’|x)通常要满足以下三个条件:
1> 对于固定的x, q(.)是一个概率密度函数;
2> 对于∀x, x’∈S, q(x, x’)的值要能计算;
3> 对于固定的x, 能够方便地从q(x,x’)中产生随机数。
从理论上讲,提议函数q(.)的选取是任意的,但在实际计算中,提议函数的选取对于算法效率的影响是相当大的。一般认为提议函数与目标分布越接近,模拟的效果越好。
q(.)函数的选择一般有我爱线报网两种:
1> 对称: 如高斯分布,均匀分布,这种情况下称为随机游走;
2> 非对称:如 log-normal,采样值倾向于选择高概率的点,因为我们不希望采样点来回震荡。
(3) MCMC采样原理
MCMC采样法的关键是构建马氏链,马氏链的收敛性质主要由状态转移矩阵P决定, 所以基于马氏链做采样的关键问题是如何构造状态转移矩阵P, 使得马氏链具有一个平稳分布,且该平稳分布π(x)恰好是我们要的分布p(x)。如何能做到这一点呢?
答案的关键在细致平衡条件
其中i,j∈S (S是状态空间),P是状态转移矩阵。
不幸的是,对于平稳分布π(x),即我们要的分布p(x),要找到满足细致平衡条件的状态矩阵P很困难。没关系我爱线报网,我们随机找一个已知的马尔科夫链状态转移矩阵Q,其中Q(i,j)=Q(j|i)是从状态i转移到状态j的提议分布条件概率,i,j∈状态空间S,它可能一开始并不满足细致平衡条件,即:
我们可以对上式做一个改造,使细致平衡条件成立。方法是引入一个α(i,j) ,使上式可以取等号,即:
要使该等式成立,只要满足下面两式即可
这样,我们就得到了平稳分布π(x)对应的马尔科夫链状态转移矩阵P
我们有一般称α(i,j)为接受概率
其取值在(0,1)之间,可以理解为一个概率值。
也就是说,基于平稳分布的状态转移矩阵P可以通过任意一个马尔科夫链状态转移矩阵Q以一定的接受概率获得。在接受-拒绝采样法中,那里是以一个常见分布通我爱线报网过一定的接受-拒绝概率得到目标概率分布,这里是以一个常见的马尔科夫链状态转移矩阵Q通过一定的接受-拒绝概率得到目标转移矩阵P,两者解决问题的思路是类似的。
由于α(i,j) =π(j)Q(j, i)<1, 通常是一个比较小的数,因此在一次采样中很容易拒绝跳转,从而导致采样的时间成本、计算成本很高。
因为α(i,j)<1和α(j,i)<1, 我们可以将两者同时放大但不超过1,且不破环等式成立。
1> 当α(i,j) ≤ α(j,i)时,则α(i,j)按照α(j,i)放大到1(概率不可能大于1)的比例等比例放大:
2> 当α(i,j) > α(j,i)时,则α(j,i)按照α(i,j)放大到1的比例等比例我爱线报网放大:
所以将两者同时放大有
此时α(i,j)就是Metropolis-Hasting算法的接受概率。其中π(x)=p(x), Q(i,j)=Q(j|i)是提议分布条件概率,α(i,j)在取到1的情况下能实现链的满概率跳转,否则以放大1/(π(i)Q(i,j))倍的概率进行跳转。
当提议分布对称时,即Q(j, i) = Q(i, j), 接受概率
此时α(i,j)就是Metropolis算法的接受概率。其中π(x)=p(x)。
由任选的提议分布Q(i,j)和接受概率α(j,i), 可以构造一个满足细致平衡条件的马氏链, 该马氏链具有一个平稳分布。构造平稳分布的马氏链的过程就是我们实现MCMC采样的过程。我爱线报网
(4)MCMC几种基本算法
MCMC算法包括Metropolis算法、Metropolis-Hasting 采样法、吉布斯采样法等。
I、 Metropolis算法
已知目标概率分布p(x),如何对其进行采样?
我们分别采用接受-拒绝算法和Metropolis算法进行采样,并对两者做了对比。
接受-拒绝算法的具体步骤如下:
1> 首先选择一个容易抽样的分布作为提议分布,记为q(x),接着确定一个常数C,其中 C > 1, 使得在x的定义域上都有p(x) ≤ Cq(x)。
2> 生成服从提议概率密度函数q(x)的随机数y。
3> 接着生成一个服从均匀分布U (0,1) 的随机数u。
4> 计算接受概率
如果u < 我爱线报网α(y),则接受y; 否则,拒绝。
5> 不断重复2~ 4就可以生成一组服从目标分布p(x)的随机数序列。
Metropolis算法就是改进的接受-拒绝算法,具体步骤如下:
1> 首先构造提议分布q(.|x(t)), 这里提议分布是对称的,即q(y|x)=q(x|y), 例如,我们可以选均值为u=x(t)的正态分布为提议分布。设置t=0和初始状态x0。
2> 从提议概率分布q(.|x(t))中产生一个随机数y作为下一个状态。
3> 接着生成一个服从均匀分布U (0,1) 的随机数u。
4> 计算接受概率
如果u ≤ α,则接受候选随机数y, 赋值x(t+1)=y,y作为提议分布的新状态,意味着此操作将鼓励跳我爱线报网转到目标分布的高密度区。
如果u > α,则拒绝候选随机数,赋值x(t+1)=x(t),表明f(x)在此y状态为低密区, 以概率的形式被拒绝。
5> 增量设置t = t+1。
6> 重复步骤2~步骤5,我们就可以得到一组仅依赖于上一个随机数并且与前面随机数无关的随机序列
Metropolis算法与接受-拒绝算法不同之处在于:
1> Metropolis算法的提议分布是自适应的条件概率分布,产生的随机数是由上一次的状态值转移得到;接受-拒绝算法的提议分布是固定的,没有状态转移的概念。
2> 两者的接受概率定义不同。
Metropolis算法中唯一的限制是提议分布必须是对称的,满足条件的这类分布有正态分布、柯西我爱线报网分布、t分布和均匀分布等。为了能够使用非对称分布,或者目标分布的支持集是不对称的,如x∈(0,+∞), 我们将考虑使用Metropolis-Hastings算法。
例子已知: (贝叶斯推断: 一个简单的投资模型) 假设有5种股票被跟踪记录了250的交易日每天的表现, 在每一个交易日, 收益最大的股票被标记出来。用Xi表示股票i在250个交易日中胜出的天数, 则记录到得的频数(x1,x2,… , x5)为随机变量(X1,X2,…,X5) 的观测。基于历史数据, 假设这5种股票在任何给定的一个交易日能胜出的先验机会比率为1 : (1 − β) : (1 − 2β) : 2β : β, 这里β我爱线报网∈(0, 0.5)是一个未知的参数。在有了当前这250个交易日的数据后, 使用Bayes方法对此比例进行更新。
求:根据观测的数据求β目标分布随机抽样的样本集,进而估计β?
解:根据前述,(X1,X2,…,X5)在给定β的条件下服从多项分布, 概率向量为
因此β服从后验分布为(根据联合密度的多项分布公式,把x1,x2,…,x5看作常数)
我们不能直接从此后验分布中产生随机数。一种估计β的方法是产生一个链, 使其平稳分布为此后验分布, 然后从产生的链中抽样来估计β.
我们这里使用随机游动Metropolis算法, 可以初始化β=0.2, 提议分布为均匀分布U[0,1], 收敛次数burn=1000我爱线报网, 迭代次数m=5000, 接受的概率为
因为后验分布即为所求的目标分布f(x), 可得
观测数据(x1, x2, x3, x4, x5)是5只股票服从概率向量p在250天中胜出的频次。
R语言的演示代码:
b <- .2 #actual value of beta w <- .25 #width of the uniform support set m <- 5000 #length of the chain 迭代次数 burn <- 1000 #burn-in time 收敛次数 days <- 250 x <- numeric(m) #the chain # generate the observed frequencies 我爱线报网of winners # 首先生成观测数据,即5只股票250天按β=0.2计算各自的概率产生的胜出频次。 i <- sample(1:5, size=days, replace=TRUE, prob=c(1, 1-b, 1–2*b, 2*b, b)) win <- tabulate(i) print(win) # 计算分布概率值 prob <- function(y, win) { # computes (without the constant) the target density if (y < 0 || y >= 0.5) return (0) return((1/3)^win[1] * ((1–y)我爱线报网/3)^win[2] * ((1–2*y)/3)^win[3] * ((2*y)/3)^win[4] * (y/3)^win[5]) } # Random Walk Metropolis algorithm # 使用随机游动Metropolis算法产生随机数 u <- runif(m) #for accept/reject step v <- runif(m, -w, w) #proposal distribution x[1] <- .25 for (i in 2:m) {我爱线报网 y <- x[i-1] + v[i] #计算接受概率 if (u[i] <= prob(y, win) / prob(x[i-1], win)) x[i] <- y else x[i] <- x[i-1] } # 链的路径图显示链己经收敛到目标分布 par(mfrow=c(1,2)) plot(x, type=“l”) abline(h=b, v=501, lty=3) xb <- x[- (1:501)] hist(xb, prob=TRUE, xlab=bquote(beta), ylab=“X”, main=“”) 我爱线报网 z <- seq(min(xb), max(xb), length=100) lines(z, dnorm(z, mean(xb), sd(xb)) # 从而产生的随机数在丢弃初始的burn-in部分后可以用来估计β. # β的估计, 样本频率和MCMC估计的多项分布概率由如下代码给出 print(win) print(round(win/days, 3)) print(round(c(1, 1-b, 1–2*b, 2*b, b)/3, 3)) xb <- x[(burn+1):m] print(mean(xb)) print(sd(xb))小结:
Metropolis算法相邻样本是相关的,无法正确我爱线报网反映分布。这意味着,如果我们想要一组独立的样本,最后还必须丢弃一些样本。可以通过增加跳跃宽度选取样本来降低自相关。
II、 Metropolis-Hastings算法
Metropolis算法的应用受到了提议概率分布的对称形式的限制,因此,Hastings把提议概率分布从对称分布形式推广到一般情况,形成了Metropolis-Hastings算法,简称M-H算法,也称之为通用梅特罗波利斯算法。
<1>、M-H算法对于一维目标概率分布的采样
M-H算法具体步骤如下:
1> 首先构造提议概率分布q(.|x(t))。设置t=0和初始状态x0。
2> 从提议分布q(.|x(t))中产生一个随机数y作为下一个状态。我爱线报网
3> 接着生成一个服从均匀分布U (0,1) 的随机数u。
4> 计算接受概率
如果u ≤ α,则接受候选随机数y, 赋值x(t+1)=y;
如果u > α,则拒绝候选随机数,赋值x(t+1)=x(t)。
5> 增量设置t = t+1。
6> 重复步骤2~步骤5,我们就可以得到一组仅依赖于上一个随机数并且与前面随机数无关的随机序列。
采样演示如下:
第1次采样,选择初始状态x0
图5-6a
第2次采样,接受候选样本x1
第3次采样,接受候选样本x2
图5-6c
第4次采样,拒绝候选样本x3
图5-6d
第5次采样,接受候选样本x4
图5-6e
<2>、M-H算法对于高维目标概率分布的采样
满条件分布定义
马尔可夫链蒙特卡罗法的目我爱线报网标分布通常是多元联合概率分布
如果条件概率分布
中所有 k个变量全部出现,其中
那么称这种条件概率分布为满条件分布(full conditional distribution)。
满条件分布有以下性质:
1> 对任意的x, x’和任意的I⊂K, 有
2> 对任意的x, x’和任意的I⊂K, 有
M-H算法中,可以利用上述性质,简化计算,提高计算效率。具体地,通过满条件分布概率的比
代替计算联合概率的比
而前者更容易计算。
单分量Metropolis- Hastings算法
在Metropolis-Hastings算法中,通常需要对多元变量分布进行抽样,有时对多元变量分布的抽样是困难的。
可以对多元变量的每一变量的条件我爱线报网分布依次分别进行抽样,从而实现对整个多元变量的一次抽样,这就是单分量Metropolis-Hastings (single-component Metropolis-Hastings)算法。
假设马尔可夫链的状态由k维随机变量表示
马尔可夫链在时刻i的状态
为了生成容量为的样本集合
单分量Metropolis-Hastings 算法的基本做法:假设有一个k维的随机向量,现想要构造一条k维向量n个样本的马尔可夫链序列,那么随机初始化一个k维向量,然后固定这个向量其中的k-1个元素,抽取剩下的那个元素,生成转移状态的随机数,这样循环k次,就把整个向量更新了一遍,也就是生成了一个新的k维向量样本,把这个整体我爱线报网重复n次就得到了一条马尔科夫链。
单分量M-H算法由下面的k步迭代实现M-H算法的一次迭代
马尔可夫链的转移概率为
如图5-7所示,单分量M-H算法的迭代过程。目标是对含有两个变量的随机变量x进行抽样
如果变量x1或x2更新,那么在水平或垂直方向产生一 个移动,连续水平和垂直移动产生
一个新的样本点。
图5-7
例子 逻辑回归应用
考虑54位老年人的智力测试成绩(Wechesler Adult Intelligence Scale, WAIS, 0-20分)。 研究的兴趣在于发现老年痴呆症。
我们采用如下简单的逻辑回归模型:
则似然函数为
考虑β0, β1的先验分布π为独立的正态分布:
从而我们需要从此分布中产生随机我爱线报网数。
我们考虑如下三种抽样方法.
M-H算法: 独立抽样
提议分布取为
则算法如下:
R语言演示代码
wais-read.table (.wais. txt. ,header=TRUE) y<-wais[,2]; x<-wais[,1] m <- 55000 #length of chain mu.beta<-c(0,0); sigma.beta<-c(100,100) prop.s<-c(0.1,0.1) #proposal distribution standard variance beta <- matrix(nrow=m, ncol=2) acc.prob <- 0 current.beta<-c(0我爱线报网,0) for (t in 1:m){ prop.beta<- rnorm(2, current.beta, prop.s ) cur.eta<-current.beta[1]+current.beta[2]*x prop.eta<-prop.beta[1]+prop.beta[2]*x loga <-(sum(y*prop.eta-log(1+exp(prop.eta))) -sum(y*cur.eta-log(1+exp(cur.eta))) +sum(dnorm(prop.beta, mu.beta,s.beta,log=TRUE)) -sum(dnorm(我爱线报网current.beta,mu.beta,s.beta,log=TRUE))) u<-runif(1) u<-log(u) if( u < loga) { current.beta<-prop.beta acc.prob <- acc.prob+1 } beta[t,]<-current.beta } acc.prob<-acc.prob/m acc.prob # convergence diagnostics plot erg.mean<-function( x ){ # compute ergodic mean n<-length(x) res我爱线报网ult<-cumsum(x)/cumsum(rep(1,n)) } burnin<-15000 idx<-seq(1,m,50) idx2<-seq(burnin+1,m) par(mfrow=c(2,2)) plot(idx,beta[idx,1],type=“l”,xlab=“Iterations”,ylab=“Values of beta0”) plot(idx,beta[idx,2],type=“l”,xlab=“Iterations”,ylab=“Values of beta1”) ergbeta0<-erg.mean(beta[,1]) e我爱线报网rgbeta02<-erg.mean(beta[idx2,1]) ylims0<-range(c(ergbeta0,ergbeta02)) ergbeta1<-erg.mean(beta[,2]) ergbeta12<-erg.mean(beta[idx2,2]) ylims1<-range(c(ergbeta1,ergbeta12)) plot(idx , ergbeta0[idx], type=’l’, ylab=’Values of beta0’, xlab=’Iterations’, main=’(c) Ergodic Mean Plot我爱线报网 of beta0’, ylim=ylims0) lines(idx2, ergbeta02[idx2-burnin], col=2, lty=2) plot(idx, ergbeta1[idx], type=’l’, ylab=’Values of beta1’, xlab=’Iterations’, main=’(d) Ergodic Mean Plot of beta1’, ylim=ylims1) lines(idx2, ergbeta12[idx2-burnin], col=2, lty=2) apply(beta[(burnin+1):m,]我爱线报网,2,mean) apply(beta[(burnin+1):m,],2,sd)注意到在独立抽样方法产生的链中, β0和β1有很强的负相关性:
cor(beta[(burnin+1):m,1],beta[(burnin+1):m,2])=-0.954.
这是链收敛很慢的原因. 在高度相关的空间上使用独立的提议分布导致链的混合效率低下。
M-H算法: 多元正态提议分布
在独立抽样中, 我们使用的提议分布是相互独立的, 从而导致链的混合效率低下. 因此, 自然而然的我们 可以考虑非独立的提议分布. 提议分布相关阵应该和后验分布的相关阵类似. 为此, 可以考虑利用 Fisher信息阵H(β), 提议我爱线报网分布取为
由似然函数, 容易计算得到Fisher信息阵为
算法如下:
R语言演示代码
calculate.loglike<-function(b,X=x,Y=y){ x<-X; y<-y n<-length(x); X<-cbind( rep(1,n), x ) precision<-700 eta<-b[1]+b[2]*x logq <- log(1+exp(eta)) logq[eta>precision]<-eta[eta>precision] loglike<- sum( y*eta – logq ) eta[eta>precision]<-precision 我爱线报网h <-1/((1+exp(-eta))*(1+exp(eta))) H <- t(X) %*% diag( h ) %*% X return( list(loglike=loglike, H=H) ) } #————————————— library(MASS) y=wais[,2] x=wais[,1] prop.sd=0.3 m=2500 beta0=c(0,0) n<-length(y) X<-cbind(rep(1,n), x ) mu.beta<-c(0,0) s.beta<-c(100,10我爱线报网0) c.beta<- prop.sd beta <- matrix(nrow=Iterations, ncol=2) acc.prob <- 0 current.beta<-beta0 for (t in 1:m){ cur<-calculate.loglike( current.beta ) cur.T<-(1/c.beta^2)*(cur$H+diag(1/s.beta^2)) prop.beta<- mvrnorm( 1, current.beta, solve(cur.T)) prop<-calculate.loglike( prop.be我爱线报网ta ) prop.T <- (1/c.beta^2)* (prop$H+diag(1/s.beta^2)) loga <-( prop$loglike-cur$loglike +sum(dnorm(prop.beta,mu.beta,s.beta,log=TRUE)) -sum(dnorm(current.beta,mu.beta,s.beta,log=TRUE)) + as.numeric(0.5*log( det(prop.T) ) – 0.5* t(current.beta – prop.beta) %*% prop.T %*% (curr我爱线报网ent.beta – prop.beta)) – as.numeric(0.5*log( det(cur.T ) ) – 0.5 * t(prop.beta – current.beta) %*% cur.T %*% (prop.beta- current.beta )) ) u<-runif(1) u<-log(u) if( u < loga ) { current.beta<-prop.beta acc.prob <- acc.prob+1 } beta[t,]<-current.beta } print(acc.prob/m)在计算e我爱线报网xp(η)时, 由于在R中, exp(710)=Inf, 因此我们对η>700, 取近似log(1 + exp(η)) ≈ η.
对链的收敛诊断可以看出, 链混合的效率很高。
逐分量的M-H算法
在M-H算法中, 按分量进行逐个更新, 其优势在于应用方便, 不需要考虑调节参数. 算法如下:
R语言演示代码
y<-wais[,2] x<-wais[,1] m<-10000 beta0<-c(0,0) #initial value mu.beta<-c(0,0) # prior s.beta<-c(100,100) # prior prop.s<-c(1.75,0.2) # sd of proposal normalbeta 我爱线报网<- matrix(nrow=m, ncol=2) acc.prob <-c(0,0) current.beta<-beta0 for (t in 1:m){ for (j in 1:2){ prop.beta<- current.beta prop.beta[j]<- rnorm( 1, current.beta[j], prop.s[j] ) cur.eta <-current.beta[1]+current.beta[2]*x prop.eta<-prop.beta[1]+prop.beta[2]*x if(sum(prop.eta>700)>0) {print(t我爱线报网); stop;}if(sum(cur.eta >700)>0) {print(t); stop;} loga <-(sum(y*prop.eta-log(1+exp(prop.eta))) -sum(y*cur.eta-log(1+exp(cur.eta))) +sum(dnorm(prop.beta,mu.beta,s.beta,log=TRUE)) -sum(dnorm(current.beta,mu.beta,s.beta,log=TRUE))) u<-runif(1) u<-log(u) if(u< loga){ current.我爱线报网beta<-prop.beta acc.prob[j] <- acc.prob[j]+1 } } beta[t,]<-current.beta } print(acc.prob/m)链的收敛诊断显示了相比于独立的M-H算法, 混合的效率要高的多。
III、 吉布斯采样(Gibbs Sampling)
吉布斯采样算法是Stuart Geman 和Donald Geman 两兄弟在1984年提出来的,以物理学家Josiah Willard Gibbs的名字命名。这个算法在现代贝叶斯分析中占据重要位置。
在大数据时代,数据特征非常的多,M-H采样由于接受概率α(i,j)的存在,我爱线报网在高维时需要的计算时间非常的可观,同时α(i,j)一般小于1,有时候辛苦计算出来却被拒绝了。能不能做到不拒绝转移呢?吉布斯采样算法就这样出场了。
吉布斯采样算法是单分量M-H算法的特殊情况,但是更容易实现,因而被广泛使用。
吉布斯采样特别适合于采样贝叶斯网络的后验分布,因为贝叶斯网络通常被指定为条件分布的集合。
吉布斯采样算法是单分量M-H算法的特殊情况,主要有两点特殊:
1> 吉布斯采样算法的提议分布是当前变量xj,j = 1,2,…,k的满条件概率分布
2> 吉布斯采样算法的接受概率α = 1
一般的采样方法,生成一维随机变量并不困难,对于高维分布
生成各分量非独立的随机向量就非常困难。吉布斯采样法很擅我爱线报网长解决这类问题,其广泛用于多元变量联合分布的抽样和估计。
吉布斯采样法把一次一个n维样本变为“n次一维”样本,但前提是我们事先知道完全条件概率分布
数学上称为半共轭,为方便常简写为
不同于M-H算法,该算法不引入新的提议分布q( . ),仅通过条件分布得到以给定分布p(x)为平稳分布的马氏链的转移概率。
把条件分布当作提议分布q( . ),则有
接受概率
以接受概率为1的方式实现链的满概率跳转。
吉布斯采样构造的马氏链收敛到平稳分布的证明
图5-8
假设有一个二维概率分布p(x,y), 考察x坐标相同的两个点A(x1,y1), B(x1, y2)。如图5-8所示。
由条件概率公式推得
上面两式右边相等,所以
故
从上面我爱线报网等式,可以看出,在x=x1这条平行于y轴的直线上,如果使用条件分布p(y|x1)作为任意两点之间的转移概率,那么任意两点之间的转移满足细致平稳条件。同样地,如果在y=y1这条直线上任意取两个点A(x1,y1), C(x2, y1), 也有如下等式:
于是,我们可以构造平面上任意两点之间的转移概率矩阵Q
根据上式,我们很容易验证对平面上任意两点X、Y (如图5-8的两点A、B), 满足细致平稳条件
因此,这个二维空间上的马氏链将收敛到平稳分布p(x,y)。
马氏链的状态转移只是轮换地沿着x轴和y轴做转移,于是得到样本(x0,y0), (x0,y1), (x1,y1), (x1, y2), (x2, y2我爱线报网), …马氏链收敛后,最终得到的样本就是p(x, y)的样本。坐标轴轮换采样是不强制要求的,也可以在x轴和y轴之间随机地选一个坐标轴,然后按条件概率做转移,马氏链也是一样收敛的。
我们很容易把二维推广到高维的情形,对于二维细致平稳条件
如果x1变为多维X1,可以看出推导过程不变,所以多维细致平稳条件同样是成立的。
此时转移矩阵Q由条件分布p(y|X1)定义。上式只是说明了一个坐标轴的情况,和二维情形类似,很容易验证对所有的坐标轴都有类似的结论。
所以,n维空间对于概率分布p(x1,x2,…,xn)可以定义如下转移矩阵
1> 如果当前状态为(x1,x2,…,xn),马氏链状态转移的过程中,只能我爱线报网沿着坐标轴做转移,转移概率定义为
2> 其它无法沿着坐标轴进行的跳转,转移概率都设置为0。
于是,我们可以把Gibbs Sampling算法从二维的概率分布p(x,y)推广到n维的概率分布p(x1,x2,…,xn)。
二维Gibbs采样算法步骤:
例子 已知:贝叶斯后验分布有如下形式
求:利用Gibbs采样法获取满足该后验分布的样本序列
解:
由上面两式,求得条件概率分布
这里A(y), B(x)是关于y, x的函数,当指定y, x时,它们是常数。
求得的条件概率分布随机变量x, y都符合正态分布,即
按已知正态分布f(x|y,data)和f(y|x,data)在两个坐标轴上不停轮换采样就可以得到后验分布的样我爱线报网本集。
图5-9 Bibbs采样点轨迹图
从图5-9的实验结果可以看出采样点大都集中在高密区。
小结:
由于MCMC的马氏链的固有性质 – 采样点依赖前一个状态,这决定了相邻的采样点之间并不独立,存在自相关。自相关的存在将降低采样精度,为了减少样本的依赖性,我们在实验中可以采取如下措施:
删减(Thinning)技术:对于生成的马氏链,每隔一段距离保留一个,其余舍弃;块采样(Blocked Gibbs Sampling)技术;折叠采样(Collapsed Gibbs Sampling)技术;有序的过松弛(Ordered Overrelaxation)。高维Gibbs采样算法步骤:
当采样空间的维数比较高时我爱线报网,接受-拒绝采样和重要性采样都不适用,原因是当维数升高时很难找到适合的提议分布,采样效率比较差。没有比较就没有伤害,高维Gibbs采样算法的优势就体现出来了,其优点为:
适用于广泛且困难的问题;当联合分布不明确或很难直接采样,但是每个变量的条件分布是已知的并且很容易(或至少更容易)采样时,Gibbs采样更有效;问题维数的增加通常不会降低其收敛速度或使其更复杂。六、MCMC收敛诊断方法
MCMC方法依赖于模拟的收敛性,下面介绍三种常用的收敛性诊断方法。
1、同时产生多条马尔科夫链
这种方法的思路是选取多个不同的初值,同时产生多条马尔科夫链,经过一段时间后,若这几条链稳定下来,则说明算法收敛了。在实际操作我爱线报网中,可在同一个二维图中画出这些不同的马尔科夫链产生的后验样本值对迭代次数的散点图,如果经过若干次迭代后,这些散点图基本稳定,重合在一起,则可判断其算法收敛。
2、比率诊断法
这种方法的思路是选取多个不同的初值,同时产生T条马尔科夫链,记第j条链的标准差估计为Sj,链内方差的均值为W,链间方差为B,则:
R的值趋近1,则表明MCMC模拟收敛,且比较稳定。
3、GewekeTest法
GewekeTest由一系列的Z检验组成,其基本思路是:先对所有样本(假设有M个)做一次Z检验,然后去掉最前面的c个样本,用剩余的M-c个样本重复上述检验,再继续去掉最前面的c个样本,用剩余的M-2c个样本重复上述检验,依次类我爱线报网推,重复K次这样的检验,直到M-Kc。
七、附录
附录1 证明n-步转移矩阵等于其之前所有转移矩阵的连续矩阵相乘
该证明内容我们用定理来表述
定理: 对于∀n≥0,∀i,j∈S, (S是状态空间),则有
证明:
该定理可通过数学归纳法和Chapman-Kolmogorov等式来证明。
大家都知道,对于矩阵乘法,下面式子显然成立。
其中n≥0, m≥0.
Chapman-Kolmogorov等式
其中n≥0, m≥0, i,j∈S,S是状态空间。
下面只需证明Chapman-Kolmogorov等式, 然后就可以用数学归纳法证明我们的定理了。
证明方法一:
证明方法二:
根据该等式用数学归纳法证明定理略。
附录2 WinBU我爱线报网GS – 用MCMC进行贝叶斯推断的专用软件包
WinBUGS(Bayesian inference Using Gibbs Sampling)是由英国的Imperial College和MRC联合开发的MCMC进行贝叶斯推断的专用软件包。在网站
www.mrc-bsu.cam.ac.uk/software/bugs/可以免费下载。使用WinBUGS可以很方便地对许多常用的模型和分布进行Gibbs抽样,使用者不需要知道参数的先验密度或似然的精确表达式,只要设置好变量的先验分布并对所研究的模型进行一般性的描述,就能很容易实现对模型的贝叶斯分析,而不需要复杂的编程。在WinBUGS中可以使用有向图模型我爱线报网方式对模型进行直观的描述,也可以直接编写模型程序,并给出参数的 Gibbs抽样动态图、用smoothing方法得到的后验分布的核密度估计图、抽样值的自相关图及均数和置信区间的变换图等,使抽样结果更直观、可靠。Gibbs抽样收敛后,可以得到参数的后验分布的平均值、标准差、95%置信区间和中位数等信息。附录3 MCNP – 基于蒙特卡罗方法的核物理方面的通用软件包
MCNP(Monte Carlo N Particle Transport Code)是由美国洛斯阿拉莫斯国家实验室(LosAlamos National Laboratory)开发的基于蒙特卡罗方法的用于计算三维复杂几何结构中的中子、光我爱线报网子、电子或者耦合中子/光子/电子输运问题的通用软件包,也具有计算核临界系统(包括次临界和超临界系统)本征值问题的能力。
目前,MCNP以其灵活、通用的特点以及强大的功能被广泛应用于辐射防护与射线测定、辐射屏蔽设计优化、反应堆设计、(次)临界装置实验、医学以及检测器设计与分析等学科领域,并得到一致认可。
附录4 R语言,S-PLUS,MATLBA – 模拟MCMC的软件工具
附录5 马尔可夫发展历史
1906年 Andrey Andreyevich Markov 引入了马尔可夫链的概念
Markov, A. A. (1906). Rasprostranenie zakona bol’shih chisel 我爱线报网na velichiny, zavisyaschie drug ot druga. Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 15(135-156), 18
1953年 梅特罗波利斯将蒙特卡洛方法引入马尔可夫链
Metropolis, Nicholas; Rosenbluth, Arianna W.; Rosenbluth, Marshall N.; Teller, Augusta H.; Teller, Edward (1953). “Equation of State Calculations我爱线报网 by Fast Computing Machines”.
1957年 马尔可夫决策过程被提出
Bellman, R. (1957). A Markovian decision process. Journal of Mathematics and Mechanics, 679-684.
1966年 Leonard E. Baum等学者提出了隐马尔可夫模型(Hidden Markov Model,HMM)
Baum, L. E.; Petrie, T. (1966).Statistical Inference for Probabilistic Functions of Finite State Mark我爱线报网ov Chains. The Annals of Mathematical Statistics. 37 (6): 1554–1563.
1975年 Baker将HMM用于语音识别
Baker, J.(1975). The DRAGON system—An overview.IEEE Transactions on Acoustics, Speech, and Signal Processing. 23: 24–29.
1980年 《Markov random fields and their applications》出版,详细描述了马尔可夫随机场的理论和应用
Kindermann, R., & Sne我爱线报网ll, J. L. (1980). Markov random fields and their applications (Vol. 1). American Mathematical Society.
1984年 Stuart和Donald Geman兄弟描述了Gibbs抽样算法
Geman, S.; Geman, D.(1984). Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images.IEEE Transactions on Pattern Analysis and Machine我爱线报网 Intelligence. 6 (6): 721–741.
1988年 Judea Pearl提出马尔可夫毯的概念
Pearl, J. (2014). *Probabilistic reasoning in intelligent systems: networks of plausible inference*. Morgan Kaufmann.
1989年 James D. Hamilton 1989年机应用了制转换模型
Hamilton, J. (1989). A new approach to the economic analysis of nonstationary time series 我爱线报网and the business cycle. Econometrica. 57 (2): 357–84.
20世纪80年代 HMM 开始用于分析生物序列(DNA)
Bishop, M. and Thompson, E. (1986). Maximum Likelihood Alignment of DNA Sequences.Journal of Molecular Biology. 190 (2): 159–165.
1991年 Lovejoy 研究了部分可观测马尔可夫决策过程(POMDP)
Lovejoy, W. S. (1991).A survey of algorithmic methods f我爱线报网or partially observed Markov decision processes.Annals of Operations Research. 28(1):47–65.
1995年 D. P. Bertsekas 和 J. N. Tsitsiklis讨论了一类用于不确定条件下的控制和顺序决策的动态规划方法
Bertsekas D. P. and Tsitsiklis, J. N. (1995). Neuro-dynamic programming: an overview.Proceedings of 1995 34th IEEE Conference on Decision and 我爱线报网Control. 1: 560-564.
1998年 S.Brin和L.Page提出PageRank算法
Page, L. (1998). The pagerank citation ranking : bringing order to the web. Stanford Digital Libraries Working Paper, 9(1), 1-14.
2017年 Yoshua Bengio 等研究者提出了 GibbsNet
Lamb, A. et al. (2017).GibbsNet: Iterative Adversarial Inference for Deep Graphical Mo我爱线报网dels.arXiv:1712.04120.
2017年 Jiaming Song, Shengjia Zhao和Stefano Ermon研究了生成对抗的训练方法来对马尔可夫链(Markov chain)的转移算子(transition operator)进行学习
Song, J.; Zhao, S.; Ermon, S. (2017).GENERATIVE ADVERSARIAL LEARNING OF MARKOV CHAINS. ICLR.
附录6 MCMC发展历史
1953年6月 Metropolis等人发表了MCMC方法的开篇之作<<通过快速计算器计算状态方程>>(Equations of s我爱线报网tate calculations by fast computing machines), 论文的主要关注点是计算积分公式(类似于贝叶斯的后验分布)
1970年 Hastings完成了MCMC方法史上里程碑的论文-Monte Carlo Sampling Methods Using Markov Chains and their Applications <<马尔可夫链蒙特卡洛抽样方法及其应用>>.解决了核物理研究中碰到的粒子分布高纬计算问题,攻克了常规蒙特卡洛方法遇到的维度瓶颈问题,将Metropolis算法一般化,并推广为一种统计模拟工具,形成了Metropolis-Hastings算法。
M我爱线报网-H算法相对于Metropolis方法而言,看起来更像专业的统计模拟工具。最重要的是,M-H算法不要求“提议分布函数”必须是对称的,从而应用起来更加灵活方便。Hastings在文章中列举了三个例子:第一个目标分布是泊松分布,采用的提议分布是随机游走;第二个目标分布是高斯分布,提议分布是均匀随机游走,但此均匀分布的中心不是马氏链的当前值θ, 而是-θ;第三个目标分布是多元分布,Hastings引进了Gibbs抽样的策略,每次只更新其中一个变量,这样的转移矩阵同样满足平稳分布。
1973年Hastings的唯一的博士生Peskun发表了题为Optimum Monte-Carlo Sampling U我爱线报网sing Markov Chains <<最优马尔可夫链蒙特卡洛抽样方法>>的文章,比较了Metropolis和Barker的接受概率的形式,也证明了在离散情形下Metropolis是最优的选择,这里的最优性可以通过经验平均值的渐进方差来表示。
1984年Geman S和Geman D发表了在MCMC方法史上具有重要突破性的文章-Stochastic Relaxation,Gibbs Distributions and the Bayesian Restoration of Images. 该文基于随机松弛(Stochastic relaxation)算法,采用Gibbs分布对图像的贝叶斯恢复进我爱线报网行了研究,提出了Gibbs采样的概念并将其引入到统计应用领域,Robert和Casella将此文称为“革命的种子”,吹响了MCMC方法革命的号角。
1986年 Adrian Smith 做了关于分层模型的系列学术演讲。
1987年 Tanner和Wong在论文中采用基于多个条件分布进行模拟的方法,这种思路等价于从联合分布进行模拟,基本具备了Gibbs采样的雏形。
1989年 Adrian Smith第一次详细阐释了Gibbs抽样的本质。
1990年Gelfand和Smith发表论文Sampling-based approaches to calculation marginal densities.<<基于我爱线报网抽样的边际分布计算方法>> ,将Gibbs抽样的本质阐述得更为深刻和完整,成为主流统计学界大规模使用MCMC方法的真正起点。
1995年 Green提出得逆跳的马尔可夫链蒙特卡洛模拟(Reversible Jump Markov Chain Monte Carlo, RJMCMC),可被视为MCMC方法第二次革命的开端,所构建的马氏链不仅可以在一个模型的参数空间内进行转移,还可以在不同模型(维度可以不同)之间跳跃,从而为贝叶斯模型选择提供了强大工具。
二十世纪九十年代及以后 Richardson和Green将RJMCMC应用到混合阶估计中;Brooks,Giudici和Roberts提出了提高RJMC我爱线报网MC转移效率的方法;Marin和Robert将RJMCMC应用到变量选择中。由于MCMC方法得到的并非独立样本,具有自相关性,因此不能直接用于参数估计,尤其是不能直接用于直接估计参数的标准误差。为了克服自相关性,Hobert等人提出在原始马氏链转移链基础上间隔抽取构成新的样本序列,从而克服自相关性,可以得到参数估计以及估计误差。
八、参考文献
[1] N. Metropolis et al., “Equations of state calculations by fast computing machines”,《the Journal of Chemical Physics》,21,1087(我爱线报网1953).
[2] www.random.org
[3] en.wikipedia.org/wiki/Gibbs_sampling
给力项目:线报网会员可免费下载 加入会员友情提醒: 请尽量登录购买,防止付款了不发货!
QQ交流群:226333560 站长微信:qgzmt2