点击小眼睛开启蜘蛛网特效

马尔科夫随机场(MRF)在图像处理中的应用-图像分割、纹理迁移

《马尔科夫随机场(MRF)在图像处理中的应用-图像分割、纹理迁移》

深度学习中,许多的实现并不单单是神经网络的搭建和训练,也包括使用一系列传统的方法与之结合的方式去增强深度学习的实现效果,在语义分割(semantic segmentation)和风格迁移(style transfer)中都有使用过MRF-Markov Random Field(马尔科夫随机场)这个概念,并且达到了不错的效果。
马尔科夫网络这个传统方法的概率模型思想值得我们去借鉴,本文主要对马尔科夫随机场进行讲解,并且对使用MRF这个方法的深度学习项目进行分析和描述。
《马尔科夫随机场(MRF)在图像处理中的应用-图像分割、纹理迁移》

使用MRF的Image Synthesis得到的风格相比style-transfer更加抽象

《马尔科夫随机场(MRF)在图像处理中的应用-图像分割、纹理迁移》

Deeplab-v2中采用全连接条件随机场对结果进行优化

前言

深度学习中,许多的实现并不单单是神经网络的搭建和训练,也包括使用一系列传统的方法与之结合的方式去增强深度学习的实现效果,在语义分割(semantic segmentation)和风格迁移(style transfer)中都有使用过MRF-Markov Random Field(马尔科夫随机场)这个概念,并且达到了不错的效果。

马尔科夫网络这个传统方法的概率模型思想值得我们去借鉴,本文主要对马尔科夫随机场进行讲解,并且对使用MRF这个方法的深度学习项目进行分析和描述。

概念铺垫

首先我们简单说一下后面介绍需要的一些基础知识,这些知识其实都是我们大学课程中学习过的课程。在《概率论》、《算法导论》以及《统计学方法》中都有详细介绍。这里只是进行简单的介绍,虽然是基础,但是对马尔科夫随机场的理解还是很有帮助的。

条件概率和贝叶斯定理

条件概率,我们使用这个概念的时候往往是用来解决逆问题,也就是已知结果反推原因的一个过程。而经典的贝叶斯定理公式:

condition_probability

我们常常利用这个公式去推导我们无法直接观测的问题,首先明白一个概念:上面的式子中,AA是结果,BB是原因。而上面这个式子我们要做的任务就是:

  • 已知P(AB)P(A|B)P(B)P(B)(P(A)P(A)可以通过P(A)=nP(AB)×P(Bi)P(A)={\sum }^{n}P(A|B)\times P(B_{i})计算得到)
  • 要求P(BA)P(B|A)

我们一般称P(原因)先验概率P(原因|结果)称为后验概率,相应的为先验分布和后验分布。

随机游走

随机游走是一个典型的随机过程,就和我们丢骰子走步数一样。但这里我们简单分为两种可能,假设我们抛掷一个硬币,正面我们就向上走一步,反面我们就向下走一步。

这个过程很简单,也就是向下走和向上走的概率都是50%,也就是我们设:

X0=0,Xt=Xt1+ZtX_0 = 0, X_t = X_{t-1} + Z_t

那么下图就是一些具体的观测值。

TIM截图20180618204004

随机游走很两个特点我们要注意:

  • 每次行动时,下一步的动作和前几步动作没有关系,和前几步的动作都没关系,也就是说我们无法通过当前的状态去推断未来的状态
  • 因为每一步和周围周围的行动都没有关系,所以我们可以知道,无论上方的图折线如何变化,其发生的概率都是一样的(反射原理)。

假如我们在在t=9t=9的时候将折线进行翻转,这种情况的概率和之前是一样的。

TIM截图20180618205256

无向图与有向图模型

图模型我们一般是用于表示随机变量之间的相互作用,我们把随机变量带到图中,图中每一个点是我们实际图中的像素点,每个像素点通过“边”来连接。

概率无向图模型(probabilistic undirected graphical model)又称为马尔科夫随机场(Markov Random Field),或者马尔科夫网络。而有向图模型通常被称为信念网络(belief network)或者贝叶斯网络(Bayesian network)。对于这个我们要稍加区分。

有向图每个边都是有方向的,箭头所指的方向表示了这个随机变量的概率分布点,比如一个节点a到节点b的一个箭头,这个箭头就表明了节点b的概率由a所决定。我们举个简单的例子(例子来源于深度学习圣经P342使用图描述模型结构):

假设一个接力赛,Alice的完成时间为t0t_0,Bob的完成时间为t1t_1,而Carol的完成时间为t2t_2。和之前说的一样,t2t_2取决于t1t_1,而t1t_1取决于t0t_0,而t2t_2间接依赖于t0t_0

TIM截图20180618213431

也就是说Carol的完成时间和Bob有关系和Alice也有关系,是单方向依赖的.

TIM截图20180618213652

本文我们要说的是马尔科夫随机场,马尔科夫随机场是无向图模型,也就是两个点之前并没有明确的前后以及方向关系,虽然两个点之前存在相互作用,但是这个作用仅仅在附近的点与点之间,与更远处的点或者最前面的点并没有关系。

TIM截图20180618213803

用公式表示一下:

TIM截图20180618220741

下面我们来正式介绍一下:

马尔科夫随机场

马尔科夫随机场之前简单进行了提及,我们知道其特点是两点之间的因果关系没有明确的方向,我们再来举个例子来说明一下(例子来源于A friendly introduction to Bayes Theorem and Hidden Markov Models):

这个例子是很经典的天气心情假设,假设下图中右面的人是Bob,他在天气比较晴朗的时候有极大的可能是高兴的,而在下雨的时候有一定可能是郁闷的。而现在我们要做的就是根据Bob的心情情况来猜测当前的天气信息。

这个就是典型的已知结果(Bob的心情)去推导原因(天气情况)。

TIM截图20180618171624

当然我们需要一些其他的概率信息(也就是上面贝叶斯定理中我们要做的任务中需要的信息P(原因)P(结果|原因)),我们通过统计一段时间的天气以及Bob的心情变化得出了我们需要的概率信息。

也就是15天中10天是晴天(某一天是晴天的概率是10/15=2/310/15=2/3),5天是阴天(某一天是阴天的概率是5/15=1/35/15=1/3)。而且昨天是晴天今天是晴天的概率是0.8,昨天是阴天今天晴天的概率是0.2;昨天是阴天今天是阴天的概率是0.6,昨天是阴天今天是晴天的概率是0.4。

TIM截图20180618171515

另外还有Bob在这些天的心情情况,可以分别总结出,晴天阴天Bob的心情概率。

TIM截图20180618171608

好了,我们所需要的概率都计算完毕,那么我们需要的就是搭建一个HMM(Hidden Mardov Model)因马尔科夫模型。

hidden_markov_model

要说到HMM首先要说马尔科夫链。

马尔科夫链

马尔科夫链即上图中晴天(B)和阴天(A)的转换公式:

markov_chain_1

我们以上面的例子为例,A和B两种状态(B代表晴天A代表阴天),有四种可能的转移概率(transition probabilities),分别是 A->A、A->B、B->B、B->A。可以看到下图右面的概率分布(P(AA)P(A|A)也就是晴天到晴天的概率为0.8,其他概率与上面的晴天阴天概率相同),另外右边概率转移矩阵的每一行概率加起来都为1。

markov_chain_2

通过这个天气的马尔科夫链,我们就可以得到接下来的天气情况(S代表Sunny晴天,R代表rainy雨天):

markov_chain_3

当然上面表示仅仅是简单的马尔科夫链,如果是复杂的马尔科夫链:

markov_chain_4

显然,右边是这个马尔科夫链的概率转移矩阵,每一行的概率值加起来为1。

上面动图来源于参考中的:Markov Chains

HHM隐马尔可夫模型

说完马尔科夫链我们来说明下HMM隐马尔科夫模型。

我们再来看一下之前的图:

hidden_markov_model

我们知道,上面的晴天和阴天的转换公式为我们之前说到的马尔科夫链,但是在我们之前说明的问题中,我们要通过观察Bob的心情来推测今天的天气。也就是说,上面的天气变化(晴天变为阴天)是随机变化,Bob的心情(由天气导致的心情变化)也是随机变化,整个的过程就是所谓的双重随机过程

上面的过程有两个特点:

  • 输出(Bob的心情)依然只和当前的状态(今天的天气)有关
  • 想要计算观察的序列(知道Bob连续好多天的心情,推算出最可能的连续几天的天气情况),只需要依照最大似然概率计算即可

TIM截图20180618171529

下面的O1,O2,...,QtO_1,O_2,...,Q_t即观察值(Bob的天气),而S1,S2,...,StS_1,S_2,...,S_t为中间的状态(天气情况)。

TIM截图20180618222108

所以,假如我们想要通过Bob连续几天的心情变化来推算最有可能的天气情况,下图为取的是最有可能的情况:

TIM截图20180618222215

挑选了一个最有可能的概率情况,依次链接(乘起来)即可,下面0.085=P(O1S1)P(O2S2)=(0.670.8)(0.80.2)0.085 = P(O_1|S_1) * P(O_2|S_2) = (0.67 * 0.8) * (0.8 * 0.2),第一个中的0.67为我们之前谈到的不知道昨天是什么天气猜测为晴天的概率,第二个中的0.8是因为昨天是晴天,所以今天有0.8的概率为晴天:

TIM截图20180618222448

上面的天气心情计算中,我们想要根据Bob一段时间的心情来判断一段时间的天气,我们只要选区所有条件中概率最大的那一条路即可,但是实际中我们的计算量还是很高的,一个一个去算难度会逐渐加大,Viterbi算法算一个,采用动态规划的方法计算条件概率最大的那一条路。也有在Forward-Backward算法(Baum-Welch)来估计概率转移矩阵,当然这里就不详细讲述了,有兴趣可以看参考中的A friendly introduction to Bayes Theorem and Hidden Markov Models

条件随机场和马尔科夫随机场的关系和区别

条件随机场(conditional random field,CRF)是给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型。比如我们输入一个多维的信号XX然后得到相应的多维输出YY,这时候我们搭建模型去计算P(YX)P(Y|X)这个概率分布。而马尔科夫随机场是一个联合概率分布P(A,B)P(A,B),给予你一个无向图GG,我们可以通过多种方式(或者说多种路径)来计算P(YX=x)P(Y|X=x)

或者这样说,我们平时的任务,例如深度学习中典型的图像分类问题,我们通过输入XX(图像)来得到YY(分类结果)。这是一个典型的监督学习,我们通过输提供信息XX(dataset)和YY(label)来进行来实现P(YX)P(Y|X)(或者这样表示:Y=f(X)Y=f(X)),监督学习又分为两种,一种是生成模型(MRF),由数据学习联合分布P(X,Y),然后得到上面的条件概率:
P(YX)=P(X,Y)P(X)P(Y|X)=\frac{P(X,Y)}{P(X)}
而判别模型则是直接学习XX(k-mean)或者学习P(YX)P(Y|X)(CRF),也就是说,判别模型关心的是输入什么输出什么,直接预测。

再详细点来说,条件随机场类似于逻辑回归,就是利用输入分布去求输出分布,可以当做是给定随机变量XX的条件下,随机变量YY的马尔科夫随机场,注意这里的称呼方法,马尔科夫随机场只是一个联合概率分布,并不是条件分布(输入X输出Y)。我们可以假设条件随机场的输出随机变量构成马尔科夫随机场。

条件随机场因为其特性,可以比较直接地对标准的预测问题(P(YX=x))(P(Y|X=x))进行建模,因为目标明确随意准确度也相应的高一些,但是也只能做标准预测的问题。而马尔科夫随机场则是典型的生成模型,可以对任何想要预测的问题进行建模。例如因为一些原因你丢失了输入变量x,然后MRF就可以对丢失的变量进行全概率分布的建模,就是你有y然后你就可以通过y来求P(XY=y)P(X|Y=y),而CRF就不能这样。但要注意这里的x和y都不是输入也不是输出,仅仅是这个随机场中的变量罢了。

总结一下:条件概率场就是特殊情况的马尔科夫随机场。

MRF应用

通过之前的探讨我们知道贝叶斯网络是有向图模型,而马尔科夫随机场是无向图模型,有向图模型的特点是序列之间有先后连续,前面的结果会对后面的结果产生影响,有向图模型通常应用于这些方面:

TIM截图20180618173053

而我们的马尔科夫随机场则不同,MRF经常用于图像方面,因为MRF虽然也表示两个变量之前的相互关系,但是不用于有向图模型,两个点之前并没有明显的因果关系,所以可以对很多的平等关系的事物进行建模。

而图像则是一个典型的马尔科夫随机场,在图像中每个点可能会和周围的点有关系有牵连,但是和远处的点或者初始点是没有什么关系的,离这个点越近对这个点的影响越大。(这个很好理解,图像中这个像素点是黑色的,那个很有可能周围也是黑色的像素,但是并不能够推断出距离这个像素点远的像素点们也是黑色的)。当然这个附近,也就是这个领域的范围和大小,是由我们自己去决定的。

例如一阶领域系统:
[16324]\begin{bmatrix} & 1 & \\ 6 & 3 & 2 \\ & 4 & \\ \end{bmatrix}

以及二阶领域系统:

[219632342]\begin{bmatrix} 2 & 1 & 9 \\ 6 & 3 & 2 \\ 3 & 4 & 2 \\ \end{bmatrix}

相应的因子团:

20150806011428435

很好理解,无向图G中任何两个结点均有边链接的结点子集称为团,为什么叫因子团,是因为概率无向图可以进行因子分解,也就是将一个数18分为3*6,概率无向图(MRF)因为其特性(之前说过)可以将每个结点的概率直接相乘得到最大似然概率。这个过程也叫作因子分解,所以我们也称这些团为因子团。

图像分割

回到我们的主题,我们之前说过图像中的像素点分布可以看成是一个马尔科夫随机场,因为图像某一领域的像素点之间有相互的关系:(图片来自于Deep Learning Markov Random Field for Semantic Segmentation)。

TIM截图20180619110906

正如上面的图片,图片中每个像素点都是无向图中的一个结点,每个结点之间都有着联系,我们所说的图像分割本质上也可以说是图像聚类,将图像中相似的像素点进行聚和,这时我们需要求得就是每个像素点的分类标签ll,知道每个像素点的分类标签,当然就可以很好地对图片进行分割了。

我们再拿出之前的贝叶斯公式:

P(YX)=P(XY)P(Y)P(X)P(Y|X)=\frac{P(X|Y)*P(Y)}{P(X)}

这里我们变换一下变量,假设我们输入图像是SS,分类结果是WW

P(WS)=P(SW)P(W)P(S)P(W|S)=\frac{P(S|W)*P(W)}{P(S)}

图像就是我们要输入的分类图像,图中的像素点pSp \subset S,然后W是我们的分割结果,假设我们的分割结果为4类:w1,w2,w3,w4Ww_1,w_2,w_3,w_4 \subset W。我们利用先验概率P(W)P(W)(假设我们事先知道了要分的类)以及条件概率P(SW)P(S|W),这个条件概率就是HMM(隐马尔科夫随机场,上文有说)的一部分,因为我们要通过W得到S,W是观察值,S是HMM中隐含的概率转移链(这部分稍有疑惑的可以回顾之前Bob心情天气讲解)。

同时这个P(SW)P(S|W)P(WS)P(W|S)似然函数,什么是似然函数,似然函数就是取得最大值表示相应的参数能够使得统计模型最为合理。我们的任务是求P(WS)P(W|S),根据输入图像得到分类信息,而P(SW)P(S|W)则是知道了分类信息去求这个分类信息表示的像素点的概率,表示我们分好类的各个像素点和真实的像素点分布是否匹配的关系。

最后就剩下了P(S)P(S),这个就是我们输入图像的分布,这个分布我们当然是知道的,而且也不会变。在计算中这个认为是定值就可以了。

如果不好理解,可以和之前的例子进行结合。我们理一下现在讨论的和之前Bob心情推算的关系,理解了的可以跳过这个步骤:

  • P(SW)P(S|W) => 已知天气Bob的心情,去求天气情况。
  • P(WS)P(W|S) => 推算天气最有可能的情况,是否最有可能正确表示Bob的心情。
  • P(W)P(W) => Bob的心情情况。
  • P(S)P(S) => 天气为晴天或者阴天的情况。

好了回到正题,在上面的图像分布中,我们将这个图像分割任务以HMM的形式来理解下,那就是,我们知道每个像素点之间的概率关系,而且两个像素点之间的关系只是“当前关系”,就是昨天与今天的关系,和前天没关系。

当然我们在实际中是以邻域的方式去确定两个像素点之间的关系,也就是在SS中的某一像素点的取值概率只和相邻点有关而与其他距离远的点无关。

回到刚才的公式:
P(WS)=P(SW)P(W)P(S)P(W|S)=\frac{P(S|W)*P(W)}{P(S)}
我们要根据P(SW),P(W)P(S|W),P(W)去求出P(WS)P(W|S),再理一下:

  • P(SW)P(S|W)是我们要求P(WS)P(W|S)的似然函数
  • P(W)P(W)是这个模型的先验概率

我们先说P(W)P(W),它代表我们要求的分类标记(w1,w2,w3,w4Ww_1,w_2,w_3,w_4 \subset W),之前的四个类只是我们的假设,我们并不知道这个图像分割为几类了,难道我们要无中生有吗?这时候就需要联系吉布斯分布(gibbs sampling)。

下面的式子即吉布斯分布:

P(W)=z1e1TU2(W)P(W)=z^{-1}e^{-\dfrac{1}{T}U_2(W)}
其中z=weU2(w)Tz=\sum_{w}e^{-\dfrac{U_2(w)}{T}},是配分函数,也是一个归一化常数,TT越大这个P(W)P(W)的窗口越平滑,另外U2(w)=cCVc(wc)U_2(w)=\sum_{c\in C}V_c(w_c),其中CC是势能团的集合,而:
Vc(wc)=Vs,r(ws,wr)={βws=wtβwswtV_c(w_c) = V_{s,r}(w_s,w_r)= \begin{cases} -\beta & w_s=w_t \\ \beta & w_s\ne w_t \end{cases}
为势能团的势能。其中β\beta为耦合系数,s,ts,t分别为相邻的两个像素点

什么是势能团,我们可以结合之前说的因子团,说的那么玄乎其实原理是一样的,图中的像素结点构成所谓的团,利用上面的吉布斯分布就可以求出我们的分割分布信息。

20150806011428435

根据Hammersley Clifford理论,马尔科夫随机场和Gibbs分布是一致的,也就是说,P(W)P(W)的分布满足Gibbs分布,当然这个理论证明这里不赘述,感兴趣的可以看下相关的研究,我们这里简单说下为什么我们的分割标记分布类似于吉布斯分布式。

吉布斯采样(gibbs sampling)是利用条件分布进行一系列运算最终近似得到联合分布的一种采样方法,相应的,吉布斯分布就表示这些满足吉布斯分布的分布信息可以通过求相应的条件概率来近似地求这些分布信息的联合分布。(利用知道P(A|B)P(B|A)近似求P(A,B)),而在这个图像中,我们可以知道P(w1w2)P(w_1|w_2)这种的局部作用关系,也就是假如这个像素点标记为分类1(w1w_1),那么这个像素点周围的标记信息分别是多少,计算其周围分布标记信息的概率,从而确定这个像素点的分类标记是否正确需不需要更新,但在实际计算中我们往往只是计算这个像素点周围标记信息的次数来判断这个像素点属于哪个分类标记。

而且我们注意到P(SW)P(W)=P(S,W)P(S|W)*P(W) =P(S,W),所以求argmaxwP(WS)=P(SW)P(W)P(S)argmax_{w}P(W|S)=\frac{P(S|W)*P(W)}{P(S)}
也就是求:
argmaxwP(WS)=P(S,W)P(S)argmax_{w}P(W|S)=\frac{P(S,W)}{P(S)}P(S,W)P(S,W)即图像和分割信息的联合概率分布,这也就是我们为什么要用吉布斯分布来表示P(W)P(W),而P(S)P(S)为常数。

用到了吉布斯分布,我们的这个随机场就可以转化为势能的问题,通过能量函数确定MRF的条件概率,从而使其在全局上具有一致性。也就是我们通过单个像素及其邻域的简单的局部交互,MRF可以获得复杂的全局行为,即利用局部的Gibbs分布得到全局的统计结果。

在实际中,我们求得是P(SW)P(W)P(S|W)*P(W)P(W)P(W)可以通过之前说的势能函数求出来,而求P(SW)P(S|W)即利用标记信息去估计这个像素点的值,假设某个标记分类中的像素点分布满足高斯分布(假设分类2中的像素点大部分满足50-100的灰度值,中心是80),我们就可以根据某一个像素点的值判断它在哪个分类中:

比如某一点的灰度为60,从上图就可以看出这像素点最有可能在哪个分类中(上图中可以看出是这个像素点最可能在第二分类中),其他的灰度值我们也能看得出来。

相当于一个高斯分布:
P(Sw=1,2,3,4)=1δ2πe(xμ)22δ2P(S|w=1,2,3,4) = \frac {1}{\delta\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2\delta^2}}

求出其中的μ=1Nws\mu=\frac{1}{N_w}\sum{s}以及δ2=1Nw(yu)2,π=NwN\delta^2=\frac{1}{N_w}\sum{(y-u)^2},\pi=\frac{N_w}{N}。其中NwN_w为某种分类下像素的个数,NN为整幅图的像素个数,yy为像素值。

这样,通过P(Sw1),P(Sw2),P(Sw3),P(Sw4)P(S|w_1),P(S|w_2),P(S|w_3),P(S|w_4)就可以估计每个像素点的分割分类,最后我们将后验概率转化为先验概率和似然函数的乘积(P(W)P(SW)P(W)*P(S|W)),逐步更新标号使得上面的概率越大得到最佳的分割。

上面的式子也可以理解为由负对数(转化为对数似然度求最大化后验概率)产生的能量:
E(W,S)=argmin(E1(w,S)+E2(w))E(W,S) =argmin(E_1(w,S)+E_2(w))
这里就不多说了。

TIM截图20180620143347
(N4N_4邻域马尔科夫随机场模型)

下图是利用MRF进行图像分割的输入和结果图,作者事先标记好了分类然后进行分割:

TIM截图20180620152825

下面的分割代码来自:https://blog.csdn.net/on2way/article/details/47307927

clc
clear
close all
img = double(imread('lena.jpg'));%more quickly
cluster_num = 4;%设置分类数
maxiter = 60;%最大迭代次数
%-------------随机初始化标签----------------
label = randi([1,cluster_num],size(img));
%-----------kmeans最为初始化预分割----------
% label = kmeans(img(:),cluster_num);
% label = reshape(label,size(img));
iter = 0;
while iter < maxiter
    %-------计算先验概率---------------
    %这里我采用的是像素点和3*3领域的标签相同
    %与否来作为计算概率
    %------收集上下左右斜等八个方向的标签--------
    label_u = imfilter(label,[0,1,0;0,0,0;0,0,0],'replicate');
    label_d = imfilter(label,[0,0,0;0,0,0;0,1,0],'replicate');
    label_l = imfilter(label,[0,0,0;1,0,0;0,0,0],'replicate');
    label_r = imfilter(label,[0,0,0;0,0,1;0,0,0],'replicate');
    label_ul = imfilter(label,[1,0,0;0,0,0;0,0,0],'replicate');
    label_ur = imfilter(label,[0,0,1;0,0,0;0,0,0],'replicate');
    label_dl = imfilter(label,[0,0,0;0,0,0;1,0,0],'replicate');
    label_dr = imfilter(label,[0,0,0;0,0,0;0,0,1],'replicate');
    p_c = zeros(4,size(label,1)*size(label,2));
    %计算像素点8领域标签相对于每一类的相同个数
    for i = 1:cluster_num
        label_i = i * ones(size(label));
        temp = ~(label_i - label_u) + ~(label_i - label_d) + ...
            ~(label_i - label_l) + ~(label_i - label_r) + ...
            ~(label_i - label_ul) + ~(label_i - label_ur) + ...
            ~(label_i - label_dl) +~(label_i - label_dr);
        p_c(i,:) = temp(:)/8;%计算概率
    end
    p_c(find(p_c == 0)) = 0.001;%防止出现0
    %---------------计算似然函数----------------
    mu = zeros(1,4);
    sigma = zeros(1,4);
    %求出每一类的的高斯参数--均值方差
    for i = 1:cluster_num
        index = find(label == i);%找到每一类的点
        data_c = img(index);
        mu(i) = mean(data_c);%均值
        sigma(i) = var(data_c);%方差
    end
    p_sc = zeros(4,size(label,1)*size(label,2));
%     for i = 1:size(img,1)*size(img,2)
%         for j = 1:cluster_num
%             p_sc(j,i) = 1/sqrt(2*pi*sigma(j))*...
%               exp(-(img(i)-mu(j))^2/2/sigma(j));
%         end
%     end
    %------计算每个像素点属于每一类的似然概率--------
    %------为了加速运算,将循环改为矩阵一起操作--------
    for j = 1:cluster_num
        MU = repmat(mu(j),size(img,1)*size(img,2),1);
        p_sc(j,:) = 1/sqrt(2*pi*sigma(j))*...
            exp(-(img(:)-MU).^2/2/sigma(j));
    end 
    %找到联合一起的最大概率最为标签,取对数防止值太小
    [~,label] = max(log(p_c) + log(p_sc));
    %改大小便于显示
    label = reshape(label,size(img));
    %---------显示----------------
    if ~mod(iter,6) 
        figure;
        n=1;
    end
    subplot(2,3,n);
    imshow(label,[])
    title(['iter = ',num2str(iter)]);
    pause(0.1);
    n = n+1;
    iter = iter + 1;
end

图像纹理合成(texture systhesis)

纹理合成在图像分格迁移中经常会遇到,风格迁移在深度学习中是一个非常酷炫的一个项目,我们通过神经网络提取图像的深层信息然后进行内容风格比较通过不同的损失函数实现对输入图像的风格迁移。之后我会写一篇关于各种风格迁移综述的文章。

neuralstyle

而图像纹理合成则是对一张图片进行纹理迁移,给予一块(a),然后得到类似于(b)、(c)相关的图像:

style_synthesis

知道大概什么是纹理合成,我们就可以了解到纹理合成应用的对象也是一个典型的马尔科夫随机场,在图像中,我们假设图像的纹理信息是一个MRF,也就是说,图像中某一个像素点可能的概率值分布,只和这个像素点周围的空间像素点信息有关系,而和该图像中剩余的像素点关系,也就是这个像素点对除了它周围的像素点以外的该图像的其他像素点是独立的

我们具体说下利用马尔科夫随机场来实现纹理合成的算法流程

假设II是我们要得出的结果图,我们从一张sample图(IsmpIrealI_{smp} \subset I_{real})中获取纹理信息去生成这个II,假设像素点pIp \subset III中的一个像素点,然后w(p)Iw(p) \subset I是图像中一个方形区域块,而pp则是这个块的中心。

然后再定义一个d(w1,w2)d(w_1,w_2)表示两个块之间的某种直观距离。然后我们假设在II这个图像中,所有像素点除了pp我们都知道,我们想要得到这个像素点的值首先我们需要一个条件概率P(p/w(p))P(p/w(p))。然后通过这个概率去求该像素点的值。

通过MRF我们可以知道,这个像素点pp对于这张图片II中的其他像素点(除了w(p)w(p))是独立的。

这时,让我们规范一些,定义一个集合:
Ω(P)={wIreal:d(w,w(p))=0}\Omega (P) = \left \{ w^{'}\subset I_{real}:d(w^{'},w(p))=0\right \}

这个集合包含所有在IrealI_{real}中可能的(或者说存在的)w(p)w(p),也就是我们可以通过这个集合内所有w(p)w(p)内中心像素的直方图分布估计此刻这个像素点pp的条件概率分布函数。(说白了就是按照这个像素点周围的像素点来确定这个像素点的值,当然我们要在周围像素点中选择最合适的,什么是最合适的,当然是两点之间的某种距离越小越合适啊,我们把这个某一个像素点周围所有的中心像素点排列起来,组成直方图的形式,纵坐标就是这些像素点出现的频率)。

当上上面的是假想情况,因为实际中我们不可能找到最合适的ww^{'}和我们的w(p)w(p)距离为0,我们一般都是用IsmpI_{smp}来表示。我们在其中选取最合适的wbest=argminwd(w(p),w)Ismpw_{best} = argmin_{w}d(w(p),w) \subset I_{smp},然后我们找到一个集合:
Ω(P)={d(w(p),w)<(1+ε)d(w(p),w)best},ε=0.1\Omega^{'} (P) = \left \{ d(w(p),w) < (1+\varepsilon)d(w(p),w)_{best}\right \},\varepsilon=0.1

然后对这个用这个集合来搭建pp的直方图。求出最有可能的值。

TIM截图20180619115905

类似于上面的过程,左面是我们的IsmpI_{smp}也就是给予的纹理图,右边是通过上面的算法一个一个像素点进行合成的,方形就是我们的窗口大小,大概过程就是窗口扫了这个像素点附近所有的patch,然后随机找了一个patch的中心像素点来生成新的像素点。

有一点需要注意,那就是距离,如何去挑选一个距离衡量公式去表示dd,我们一般采用SSD(就是对应像素点之间相减然后平方相加),但是这样有个缺点,因为纹理合成我们希望能够比较好的合成附近的纹理信息,也就是附近的纹理对我们来说比远处的更重要。

我们需要加深离我们足够近的像素点的权重值,这样在判断纹理是否匹配的时候,越近的像素点对我们的判断影响越大。这个其实就是一个简单的特征突出,我们利用一个二维的高斯核(不懂的看看高斯分布,或者正态分布)结合SSD距离即可。

我们简单分析一下纹理合成(patchmatch)的结果:

这张纹理图:

orig
这张是随机图(高斯噪点):
random
窗口大小为3时的结果图:
3-4
窗口大小为5时的结果图:
5-1

相关代码限于篇幅不粘了,可以看这里:GITHUB

后记

马尔科夫随机场在深度学习的中的应用有很多,在图像分割中deeplab-v2结合MRF取得了不错的效果,风格迁移中也有结合Gram矩阵和MRF进行纹理迁移,更好地抓取风格图像的局部特征信息(不是gram矩阵的全局特性),得到的结果图纹理更加“抽象”也更加有艺术性。所以深度学习方面你的图像处理,与传统方法的结合是大趋势,值得我们去关注。

有兴趣的童鞋可以关注本篇后续,之后会详细挑一些应用进行讲解。

参考

  点赞
本篇文章采用 署名-非商业性使用-禁止演绎 4.0 国际 进行许可
转载请务必注明来源: https://oldpan.me/archives/markov-random-field-deeplearning

   关注Oldpan博客微信公众号,你最需要的及时推送给你。


  1. C
    CreateLy说道:

    你好博主,我在复制文中代码到MATLAB中尝试运行时遇到如下问题,希望能够得到帮助。
    无法执行赋值,因为左侧的大小为 1×32942,右侧的大小为 98826×1。

    出错 Untitled1 (line 34)
    p_c(i,:) = temp(:)/8;%计算概率

    1. O
      Oldpan说道:

      嗯..老实说,这段代码不是我写的,我已经标了参考网址,你可以到那个网址去问问。

  2. 三秋桂子说道:

    ”昨天是晴天今天是晴天的概率是0.8,昨天是阴天今天晴天的概率是0.2;昨天是阴天今天是阴天的概率是0.6,昨天是阴天今天是晴天的概率是0.4。“,虽然知道,但感觉乖乖的 :lol:

  3. A
    Ali说道:

    2.
    然后,这个可否解释一下物理意义呢?
    %找到联合一起的最大概率最为标签
    [~,label] = max(log(p_c) + log(p_sc));

    就差这两点就看明白了,如果可以解释解释的话,真的是非常感谢啦。
    很感谢你能及时回复。

  4. A
    Ali说道:

    能否具体点讲一下MRF是怎样对图像进行分割的?看了全文,大部分都是对概念进行讲解,没看出来是有什么用。非常感谢啊

    1. O
      Oldpan说道:

      其实MRF分割算法代码在中直观上很容易看懂,但具体为什么要这样做的理论推导还是需要概念做铺垫,具体的话请等等吧..不过文中已有代码可以先参考下

      1. A
        Ali说道:

        嗯,谢谢提示哈。

        我看了那段MRF的代码,有些地方还是不懂。可以请教一下吗?
        1.
        p_c矩阵表示(分4类中)每一个像素点8邻域里面相同类别的像素数量。
        p_sc矩阵表示什么呢? 看不明白了。
        注释中,写的是 : 计算每个像素点属于每一类的似然概率
        是有个公式吧? 看着计算好复杂啊。

        1. O
          Oldpan说道:

          似然概率就是似然函数,p_sc表示通过分类信息去估计像素点的值,所以需要正态分布,这部分有些绕,最好对应文章中的公式和代码去理解。其中log(p_c) + log(p_sc)就是我在文章中说的联合分布的log表达式,也就是这个P(S∣W)∗P(W),最大化这个就可以达到最优解。

          1. A
            Ali说道:

            感谢感谢,我再琢磨一下。

          2. A
            Ali说道:

            所谓真传一句话,假传万卷书,能否麻烦你用一句直观易懂的话,来概括马尔科夫随机场的基本思想以及应用过程的? 谢谢啦。

            1. O
              Oldpan说道:

              一句话说不清呀,文章我尽量写的通俗易懂了,有些公式也避免不了,最好是按照实际应用来对比思考,我建议还是不懂的具体问我吧~

  5. 头条新闻说道:

    文章不错非常喜欢

发表评论

邮箱地址不会被公开。 必填项已用*标注

评论审核已启用。您的评论可能需要一段时间后才能被显示。