伪随机序列及其应用(肖国镇)
M序列 m序列 gold序列 详细原理内容筒介本书介细伪份阻机序列的理论与用a本书共分六章前三章介绍战性和非线性移位存器的基本理论。第四、五章讨论实紫应用中最为美心的伪随机序列的相关函数使性。幣六章介绍伪随机序列的各种陀用即在伪码测距、导航协码多址、激字数据加器、噪声产生器,数保密系统中的应用举例。本书雷用的数学卿识尽量用为工程术人员容晏接受的方式刚述。勤繈机序列的抡近几年来又发现了在一些新兴领城中用a多雄伪隘机胖列的研宽正在受到广泛的重祝。本书可作为通、骨达、导航、遥控、遘测及计算机等有关专业的大学生、折蜕生和工程技术人员的参考书伪视序判及其应肖「慎椠传甲王育身編着任;夺端一桌社出版新华书店北京发行所发行各地新华书店经售国工业出版社印刷厂印装850×1161/印张21/2330千字18年3月榘一版.1985年3月第一次印刷印数,0p001-4600统一书号:150834·2727足价n240元序伪随机序列(或称伪噪声序列)的理论与应用,从产生到发展,算来已有二十几年的历史了。但是,这项新理论与新技术并不象某些其它所谓新思掘那样,突然爆发出来,形成一阵热潮,尔后不久便还渐消声匿迹乃至无人问津了。伪随机序列的理论在它形成的初期,便在通信、雷达、导航以及密码学等重要的找术领城中获得了广泛的应用。而在近年来的发展中,它的应用范围远远超出了上述领域之外,如自动控制、计算机,声学和光学测量数字式跟踪和测距系额以及数字网络系统的故障检测等。正象它的丰富多采的应用吸引着许多工程技术工作者一样,它的优美奇妙的数学理论以及许多尚待解决的数学问题也引起了理论工作者的极大兴趣。为了进一步发展伪随机序列的理论与应用研究,我们认为在圃内出版一本既有一定理论深度又注重这一新理论广泛应用的书是适宜的。这正是我们试图写作这一本书的主要且的。在这方而,我们特别感谢万哲先教授的鼓励与支持,他曾多次建议我们编写一套有关伪随机码与编码裡论及其应用的书本书共分六章。前三章介绍线性利非线性移位寄存器的基本理论。这方面所需要的数学理论主要是伽罗瓦( Galois)域论。本书假定该者对这一理论已有一定程度的了解。对于不太熟悉这…理论的该者,可参看万哲先教授所著的《代数与辅码》这本理论著作。本书的第四、五两章讨论实际应用中最为关心的伪随机序列的相关函数特性。第六章介绍伪随机序列的各种应用。伪随机序列在工程技术上有很多成功的应用,由于涉及的面很广而又多样化,本书不可能包罗万象。但是,我们试图对伪随机序列的几种典型应用作一较为清晰的介绍。自然,难免在题材的选取上受到了主观医素的影响。好在书末列入了有关的参考文献,以供读者去深入研究更广泛的裸题。研究生何大可同志在本书的写作过程中帮了很大的忙。他在本书的某些部分做了整理加工以及抄写、绘图的工作,并为木书中所介绍的一些算法编制了计算程序。考到多元伪随桃序列的理论与应用的新近发展,已将此项内容作为附录列入本书。书末有关的附表以及这一附录都是何大可同志编写的。作者还感谢西北电讯工程学院资料室的同志在本书写作过程中所给予的支持和帮助。感谢编码讨论斑同志们的戟励、批评和建议。出于我们的水平有限,本书难免会有许多缺点及不当之处,诚悬地新望得到广大读者批评和指正目录笫一章反馈移位寄存器的基本概念……………■b■■日■●■tD萨多1.1反馈私位寄存器h■日中冒暑白日日h山山日斷■中■晋ψ斷4晋冒b■日甲【看■■中卢卩■「日■卩■↓昌51.2反馈逻辑函数…;……………*…………………………71.3线性反馈移位寄存器及非线性反馈移位寄存器ta4++131.4有向图的一些基本概念…1.5迪布瑞菌古德( de brts-Good)图…“………………"1.6周期性与閣……………………………………………………s1.7两个简单移位寄存器的分析"“引F§18布尔函数与某一变元无关的判定准则………………"53笫二章线性反做移位寄存器序列……………"…………s9§2.1线性馈移位寄存器序列………………………………592.2纔性移位窬存器序列的周性23非退化线性移位窬存器状态图中圈长的丹布与圈的个数………652.4m序列……………“………78§2,5m序列的伪随机性…·d■■1·■■·■dp2.6线性递归方程的解法白日即自司■口··bb■如b画即■44b即4■■甲bbd92.7线性移位寄存器序列的果样9g2.8线性移位寄存器的综合…………………"………………l0g第三章非线性反馈移位寄存器序列…23§3.1非线性移位寄存器分析申『P■申卓血p2388.2M序列853.3非线性移位寄存器的综合iSi笫四章序列的相关函数卓卓章·d754.1序列相关函数的一般性质……………"………l474.2m序列的互祁关函数■噜『噌■■·■血曾■鲁■曾音會血會■自曾P口■口■『■口4■自…F34.3好的序列旋一戈尔德(God)序列族…"………l84.4其它好的序列族345非周期自相关函小的序列……………!出FA.6互补序列自P■_p即音■冒4幽p■44個音■_4P甲P■■■产§4.7多相序列h4山山20§4.8二元正交序列族…………………………………"………21第五章复合序列及其p相失函数2205.1序列的组合及其舆福关性…22085.2序列的布尔组合及其相关函数…b『『…………235.3模二和复码及其相关函数…………………………285.4复码自相关函嶽的解析计算法…2335.5复合序列的功率谱度……-……M"?37第六章伪随机序列的应用29紧6.1伪码测距原理…a▲249§B.2导航中的应用…【司『■■P■■血■…‘2f§63份码多址系统……………………………"…""2776.4数字嶽据加乱器28了865随机序列作为噪声产生器■上■■■■血“『■『■6,6数据傑密系统中的应用…………………………30l附录多维伪随机阵列…307邹71基本概念…………………"……""""………""…""37§7.2具最大商积基块周期乎面的综合…………甲3f4邹7.3具最大容积基块的多维聞期阵列及其综合卜山卩■■昏■■■■Lp■q↓警7,4周期平面的其它踪合法………"了5?.5周期平面的应用…………………………………"364附表一F2上不可约多项式的表(次数≤10)附表二F2上不可约三项式x十x十1的表〔2≤n≤100,1≤≤!2)374附表三F2上本原多项式的表(次数≤168,每个次数一个)附表四GF(q)上本原多项式的表(g=3,4,8,次数≤10)8附表五产生5级(二元)M序列的移位寄存器的反馈函数∫(x:x2,…,)的表(2048个)380参考文390第一章反馈移位寄存器的基本概念大家知道,一般控制系统大体上可分为动态系统与静态系统两大类。在所谓动态系统中,其系统特性是由含有时间参数的输出、输入变嚣的微分方程来描述。而在静态系统中,其系统特性可用没有时间参数的方程来描述。此时,系统在每一瞬间的输出仅由同一瞬间的辖入来决定。近年来在数宇设备中所考虑的,是种特殊的静态系统,即所谓二元系统。这种系统中的变量只取两个值,简单地表示为“0”和“1”。描述这种二元系统的方程可出含有逻辑运算“与”、“或”、“非”的关系来表示。有时也把这种二元系统称作静态辑系统,它是电子工程实践中最为重要的静态系统。在本书中我们所要讨论的是一种典型的二元系统,即所谓反馈移位寄存器。由于这种装置在无线电电子技术中具有广泛的应用,因而近年来特别引超人们的重视。在本章中,我们将对反馈位寄存器的基本结构及其有关概念做一大致的介绍。从本质上说,我们的论述可以在q元域GF(q)上进行。但是,考虑到目前具有实用价值的仍然是二元的情况,因此我们仅在二元城GF(2)中进行讨论。为简便,今后用F与E2分别代装GF(q)号GF(2)§1.1反馈移位寄存器现在我们来考察一般反馈移位寄存器的基本结构。图1.1.1是这种反馈移位寄存器的框图。它由串联的个二元移存器及个开关网络构成众所周知,每一个二元存储器即为一个双稳态触发器,它的两钟状态分别记为“1”与“0”,每个触发器看作级。因此,图⊥.1,1可以看作是一个r级反馈彬位衔存器。图时钟脉冲汗头网新图1.1.一般反移位寄存器示意图中上面一排小方框,自左至右,分别称为第1级、第2级、第8级、…第r-1级及第r级存储器。下面一个长方框内所示的开关网络可视为具有r个输入端及一个输出端的组合门电路。从理论上来说,这“組合门电路可由一个含有r个逻辑变元x1,x2…,x的布尔( Boole)数∫(x,x:,来标志。我们称这一函数为该组合门电路的反馈逻辑函数。上述反馈移位寄器的工作是受时钟脉冲控制的。假定在第j个时钟移位脉冲(第j拍)到来时,移位寄存器的状态是j于是,再来一个时钟脉冲使j增至j十1时(第j+1拍),最右面的一级在第j拍之状态a即为输出,并且每个存贮器在第∫+1拍之状态恰为邻接于它的左面的存贮器在第拍之状态。同时,这r个寄存器在第j拍之状态输入至开关网络后,相应的输出为a=f(a,an+…,aa-),它反馈给最左面一级,作为第1级寄存器在第∫十1拍的状态。这样来,从状态转移的角度来看,从第氵拍过渡到第j十1拍后,就使移位寄存器的状态由(apa…,a}-四1)变换到(qa;),记作Tr(a吁…,ax1)→(吁,*…,1!a1),或T af-ss a-r)=(a1+,a↓2费称T为这一反馈移位寄存器的状态转移变换。从上面的分析不难看出,对于反馈移位寄存器来恍,超决定性作用的是那个组合门电路的反馈逻辑酹数f〔x1,x…,x)它是由r个逻辑变元x1x通过“与”、“或”、“非”等逻辑运算联接起来的关系式。下面,我们通过两个具体例子来说明反馈移位寄存器的功能例1.1.1考虑如图1.1.2所示之三级反馈移位寄春器。这个图112三级反债移位寄存器示意图反馈移位寄存器的工作揹况是:当第j拍处于状态(a;sq1)时,第氵+1拍便处于状态(a=2,其中a=a,3这里的符号“+”是指模2如法。显然,这个反馈移位寄存器的组合门电路就是简单的模2如法器。它所对应献反馈逻辑函数是∫(%1,x3xs)=x1x该反馈移位寄存器的状恣转移情况如下表所示。
- 2020-12-05下载
- 积分:1
受限波尔兹曼机(Restricted Boltzmann Machines)介绍
RBM在深度学习(deep learning)算法中有着非常重要的应用,本文介绍了RBM的基本概念,并介绍了几种有代表性的算法。作者西安交大张春霞,姬楠楠,王冠伟。山国武技亡文在线应用的热潮。理论方面,RBM的CD快速学习算法促进了研究者们对随机近似理论、基于能量的模型、未归一化的统计模型的研究⑧。应用方面,RBM目前已被成功地应用于不同的机器学习问题⑨-14,如分炎、回归、降维、高维时闾序列建模、图像特征提取、协同过滤等等。2006年, Hinton等人[15提出了一种深度信念网终( Deep Belief Nets,DBN),并给出了该模型的一个髙效学习算法。这个算法成为了其后至今深度学习算法的主要框架。在该算法中,个DBN模型被视为由若干个RBM堆叠在起,训练时可通过由低到高逐层训练这些RBM来实现:(1)底部RBM以原始输入数据训练;(2)将底部RBM抽取的特征作为顶部RBM的输入训练;(3)过程(1)和(2)可以重复来训练所需要的尽可能多的层数。由于RBM可以通过CD快速训练,这一框架绕过了直接从整体上训练DBN的高复杂度,从而将其化简为对多个RBM的训练冋题。 Hinton建议,经过这种方式训练后,叮以再通过传统的全局学习算法(如反向传播算法)对网络进行微调,从而使模型收敛到局部最优点。这种学习算法,本质上等同于先通过逐层RBM训练将模型的参数初始化为较优的值,再通过少量的传统学习算法进一步训练。这样一来,不仅解决了模型训练速度慢的问题,大量试验结果也表明,这种方式能够产生非常好的参数初始值,从而大大提升了模型的建模能力。自此,机器学习领域又产生了一个新的研究方向-深度学习( Deep learning)[1618],明确提出了面向人工智能的机器学习算法的设计目标。当前,以RBM为基本构成模块的DBN模型被认为是最有效的深度学习算法之一。鉴于RBM在深度学习领域中占据的核心位置以及其本身的良好性质,为了给RBM的初学者提供入门指导,同时为设计与之相关的新算法提供参考,本文将对RBM进行较为系统的介绍,详细阐述其基本模型、具有代表性的快速学习算法、参数设置、评估方法及其变形算法,最后对RBM在未来值得硏究的方向进行探讨。本文后续内容安排如下:第1节介绍受限波尔兹曼机RBM的基本模型,第2节详细阐述当前训练RBM的快速学习算法,第3节讨论RBM的参数设置,第4节给出评价RBM优劣的方法,第5节简单介绍几种具有代表性的RBM变形算法,第6是总结与展望,主要探讨RBM在未米值得研究的方向。1受限波尔兹曼机RBM的基本模型RBM也可以被视为一个无向图 undirected graph)模型,如图2所示。v为可见层,用于表示观测数据,h为隐层,可视为一些特征提取器( feature detectors),W为两层之间的连接权重。 Welling19指出,RBM中的隐单兀和可见单元可以为任意的指数族单元(即给定隐单元(可见单元,可见单元(隐单元)的分布可以为任意的指数族分布),如 softmax单元、高斯单元、泊松单元等等。这里,为了讨论方便起见,我们假设所有的可见单元和隐单元均为二值变量,即V,j,v∈{0,1},h;∈{0,1}如果一个RBM有m个可见单元和m个隐单元,用向量v和h分别表示可见单元和隐单元的状态。其中,v;表示第个可见单元的状态,h表示第个隐单元的状态。那么,对于一组给定的状国武技论义在线隐层h可见层v图2:RBM的图模型表示,层内单元之间无连接态(v,h,RBM作为一个系统所具备的能量定义为∑a"2-∑bh-∑∑上式中,O={Wn,a,b}是RBM的参数,它们均为实数。其中,W表示可见单元;与隐单元j之间的连接权重,;表小可见单元的煸置(bias),b;表小隐单元j的偏置。当参数确定时,基于该能量函数,我们可以得到(v,h)的联合概率分布,E(v, ho)P(v, h0Z(0)=∑e-E(v, h ez(6)(2其中z(0)为归一化因子(也称为配分函数, partition function)时于一个实际问题,我们最关心的是由RBM所定义的关于观测数据v的分布P(ve),即联合概率分布P(v,h)的边际分布,也称为似然函数( likelihood functionP(v8∑E(v, h 0)3)Z(0为了确定该分布,需要计算归一化因子z(),这需要2n+m次计算。因此,即使通过训练可以得到模型的参数W,α和b,我们仍旧无法有效地计算由这些参数所确定的分布。但是,由RBM的特殊结构(即层间有连接,层内无连接)可知:当给定可见单元的状态时,各隐单元的激活状态之间是条件独立的。此时,第j个隐单元的激活概率为P(h=1v,O)=o(+∑W其中,O(x)1+exp(-a)为 sigmoid激活函数由于RBM的结构是对称的,当给定隐单元的状态时,各可见单元的激活状态之间也是条件独立的,即第i个可见单元的激活概率为11)=o(a+∑Wh1国武技论义在线2基于对比散度的RBM快速学习算法学习RBM的任务是求出参数θ的值,以拟合给定的训练数据。参数0可以通过最大化RBM在训练集(偎设包含T个样本)上的对数似然函数学习得到,即A=arg max C(0)=arg max>log(6为了获得最优参数θ^,我们可以使用随札梯度上升法( stochastic gradient ascent)求C(6)=∑1lgP(vθ)的最大值。其中,关键步骤是计算logP(v()关于各个模型参数的偏导数由于c(O)=∑ log p(vo)=∑og∑Pv"),het=1∑1pBw,b∑pE(,hO)-lg∑∑oxp-E(,h)令0表示6中的某个参数,则对数似然函数关于的梯度为OC、、8(og>expl-E(v(t),h)-10e∑∑∑ep-E(v,hO)exp[-e(vo,ho) d(E(vo),h0))(Σ h exp[-E(v,hO>∑8+E(-E(v,h)06∑0(-E(v(0,hl(-E(v,h6)S06P(hv(t),0)P(v, h0)其中,()P表示求关于分布P的数学期望。P(hv),)表示在可见单元限定为已知的训练样本v()时,隐层的概率分布,故式()中的前一项比较容易计算。P(v,h0)表示可见单元与隐单元的联合分布,由于归一化因子z(θ)的存在,该分布很难获取,导致我们无法直接计算式(8)中的第二项,只能通过一些采样方法(如Gibs釆样)获取其近似值。值得指出的是,在最大化似然函数的过程中,为了加快计算速度,上述偏导数在每一迭代步中的计算一般只基于部分而非所有的训练样本进行,关丁这部分内容我们将在后面讨论RBM的参数设置时详细阐述。下面,假设只有一个训练样本,我们分别用“data”和“modl”来简记P(hv(),6)和P(v,h)这两个概率分布,则对数似然函数关于连接权重W、可见层单元的偏置a和隐层单山国科技论文在线元的偏置b;的偏导数分别为alog P(v8ihi idata -(ihi,modelalog P(v 0)datai ) modela log P(v 8=(hi)data(hi model2.1RBM中的 Gibbs采样Gibs采样( Gibbs sanpling)[20是一种基于马尔可夫链蒙特卡罗( Markov chain monteCarlo,MCMC)策略的采样方法。对于一个K维随机向量X=(X1,X2,……,Xk),假设我们无法求得关于X的联合分布P(X),但我们知道给定X的其他分量时,其第k个分量Xk的条件分布,即P(Xk|Xk),Xk-(X1,X2,…,Kk-1,Xk+1,…,Xk)。那么,我们可以从X的一个任意状态(比如{c1(0),x2(0),…,xk(O))开始,利用上述条件分布,迭代地对其分量依次采样,随着采样次数的增加,随机变量[r1(m),x2(m),…,xk(n)]的概率分布将以n的几何级数的速度收敛于X的联合概率分布P(X)。换句话说,我们可以在未知联合概率分布P(X)的条件下对其进行样。基于RBM模型的对称结构,以及其中神经元状态的条件独立性,我们可以使用 Gibbs采样方法得到服从RBM定义的分布的随机样本。在RBM中进行k步吉布斯采样的具体算法为:用一个训练样本(或可见层的任何随机化状态)初始化可见层的状态v,交替进行如下采样:ho w P(h vo), V1 P(v ho),h1 n P(hv1),P(vhP(v hk)在采样步数k足够大的情况下,我们可以得到服从RBM所定义的分布的样本。此外,使用Gib样我们也可以得到式(8)中第二项的一个近似。22基于对比散度的快速学习算法尽管利用吉布斯采样我们可以得到对数似然函数关于未知参数梯度的近似,但通常情况下需要使用较大的采样步数,这使得RBM的训练效率仍旧不高,尤其是当观测数据的特征维数较高时。2002年, Hinton7提出了RBM的一个快速学习算法,即对比散度( Contrastive DivergenceCD)。与吉布斯采样不同, Hinton指出当使用训练数据初始化vo时,我们仅需要使用k(通常k=1)步吉布斯采样使可以得到足够好的近似。在CD算法一开始,可见单元的状态被设置成个训练样本,并利用式(4)计算所有隐层单元的二值状态。在所有隐层单元的状态确定之后,根据式(5)来确定第个可见单元v;取值为1的概率,进而产生可见层的一个重构 reconstruction)国武技论义在线这样,在使用随杋悌度上升法最大化对数似然函数在训练数据上的值时,各参数的更新准则为△Wx=(vh;)ata-(vhrecondata这里,是学习率( (learning rate),{}reon表示一步重构后模型定义的分布在RBM中,可见单元数一般等于训练数据的特征维数,而隐单元数需要事先给定。为了与前文记号致,假设可见单元数和隐单元数分别为和m。令W表示可见层与隐层间的连接权重矩阵(m×m阶),a(n维列向量)和b(m维列向量分别表示可见层与隐层的偏置向量。RBM的基于CID的快速学习算法主要步骤可描述如下输入:一个训练样本xo;隐层单元个数灬m;学习率e;最大训练周期T●输出:连接权重矩阵W、可见层的偏置向量a、隐层的偏置向量b.·训练阶段初始化:令可见层单元的初始状态v1=x0;W、a和b为随机的较小数值。For t=1.2TFor j=1,2,…,m(对所有隐单元)计算P(h1=11),即P(h1;=1v1)=0(b+∑,从条件分布P(h1v)中抽取h∈{0,1}EndFor上ori=1,2,……,m(对所有可见单元计算P1h1,即P(v2=1h1)=0(a+∑,Wh1);从条件分布P(v2h1)中抽取v2∈{0,1}EndOForj=1.2,…,m(对所有隐单元)计算P(h2=1v2),即P(h2y=1lv2)=a(b;+∑;2:W7);Endfor按下式更新各个参数W←W+∈(P(h1.=1v1)lv2)V2);a←-a+((v1-v2);+c(P(h1=1v1)-P(h=1)v2)山国科技论文在线Endfor算法1.RBⅥ的基于CD的快速学习算法主要步骤在上述算法中,记号P(hk.=1|vk)(k=1,2)是m维列向量,其第个元素为P(h;=1vk)尽管上述基于CD的学习算法是针对RBM的可见单元和隐层单元均为二值变量的情形提出的,但很容易推广到可见层单元为高斯变量、可见层和隐层单元均为高斯变量等其他情形,关于这方面的研究具体可参见[2125此外,还有一些研究者在CD算法的基础上,对其作了进一步改进。例如, Tieleman②26提出了持续对比散度( Persistent contrastive divergence,PCD)算法,该算法与CD的区别在于首先,PCD不再使用训练数据初始化CD算法中的 Gibbs采样的马氏链;其次,PCD算法中的学习率较小且不断衰减。根据随机近似理论,尽管每次更新参数后模型都发生了改变(每次对于W,a和b的更新,RBM定义的分布都会发生改变),但由于学习率较小且不断衰减,则可认为那条马氏链产生的负样本是由当前RBM定义的分布的一个近似分布米样而来Tieleman和 Hinton[27进一步改进了PCD算法,他们通过引入一组辅助参数以加快PCD中的马氏链的混合率,提出了快速持续对比散度( Fast Persistent Contrastive Divergence,FPCD)算法。关于RBM的学习算法,除了上述提到的基于CD的一些方法之外,还有最大化拟似然函数( maximum pseudo- likelihood)、比率匹配方法 (ratio matching)等,有兴趣的读者可参阅[28]查找关于RBM学习算法比较详细的阐述。3RBM的参数设置RBM的训练通常是基于CD的方法(即算法1)进行的,但如何设置其中的些参数(如隐单元个数、学习率、参数的初始值等),是需要有一定经验的。近来,已有部分研究结果②29,30表明:对于特定的数据集和RBM结构,如果参数设置不合适,RBM将很难对真正的数据分布正确建模。因此,对实际使用者(尤其是初学者)米说,了解RBM中参数设置的一般规则是非常重要的。根据 Hinton{23]提供的建议以及我们进行数值试验所获部分经验,对RBM中的参数设置可参考以下规则。小批量数据及其容量对于连接权重、可见层和隐层偏置的更新,虽然可以基于一个训练样本进行(类似于在线学习的方式),但计算量将很大。将训练集事先分成包含几|或几百个样本的小批量数据(mini- batches)进行计算将更高效,这主要是可以利用图形处珥器GPU( graphicProcessing Unit)或 Matlab屮矩阵之间相乘运算的优势。同时,为了避免在小批量数据的样本容量发生改变时,学习率也必须做相应的修改,通常的做法是在参数的更新过程中,使用参数的平均梯度(即总梯度除以数据容量),即B(t+1(t+1)=0(+∑alog P(v(t)aB06t′=Bt+1这里,B表示小批量数据的容量,其值不应设得太大。B=1表示参数更新以在线学习的方式进行,而B一T则表示传统的批处理方式。一股而言,若训练集是包含来自不同类(具有同等概山国武技亡文在线率)的样本,理想的B应为总类数、使得每批数据屮都包含来自每个类的一个样本,以减小悌度估计的抽样误差。对于其他数据集.则可先随机化训练样本的次序,再将其分为容量为10的倍数的小批量数据。学习率学习率若过大,将导致重构误差急剧增加,权重也会变得异常大。设置学习率的一般做法是先做权重更新和权重的直方图,令权重更新量为权重的10-3倍左右。如果有一个单元的输入值很大,则权重更新应再小些,因为同·方向上较多小的波动很容易改变梯度的符号。相反地,对于偏置,其权重更新可以大一些。权重和偏置的初始值一般地、连接权重W可初始化为来自正态分布N(0,0.01)的随机数,隐单元的偏置b初始化为0。对于第讠个可见单元,其偏置az通常初始化为logP/(1-p),其中γ;表示训练样本中第讠个特征处于激活状态所占的比率。如果不这样做,在学习的早期阶段,RBM会利用隐单元使得第个特征以概率p处于激活状态。动量学习率学习率e的选择至关重要.ξ大收敛速度快,但过大可能引起算法不稳定;c小可避免不稳定情况的出现,但收敛速度较慢。为克服这一矛盾,一种具有代表性的思想是在参数更新式中增加动量项 momentum),使本次参数值修改的方向不完全由当前样本下的似然函数梯度方向决定,而采用上一次参数值修改方向与本次梯度方向的组合。在某些情况下,这可以避免算法过早地收敛到局部最优点。以连接权重参数W为例,其更新公式为W(+D)kw(t)aL(t)其中k为动量项学习率。开始时,k可设为0.5,在重构误差处于平稳增加状态时,k可取为0.9权衰减使用权衰减( weight- decay)策略的主要目的是避免学习过程出现过拟合( overfitting)现象,一般做法是在正常的梯度项后额外增加一项,以对较大的参数值作出惩罚。最简单的罚函数是2函数(M/2)>∑,W,即所有权重参数的平方和的1/2乘上一个正则化系数入入在RBM中又称为权损失( weight-cost)。重要的是,惩罚项关于权重参数的梯度必须乘上学习率,否则.学习率的改变将导致优化的目标函数也发生改变。在RBM中,若使用L2罚函数,贝权损失系数的取值可以取介于001与0.0001之间的任意值。值得指出的是,权衰减策略只需应用于连接权重参数W上,可见层和隐层偏置不需使用,因为它们不人可能导致过拟合。并且在某些情况下,偏置的值还必须较大才行隐单元个数如果我们关心的主要目标是避免过拟合而不是计算复杂度,则可以先估算一下用个好的模型描述一个数据所需的比特数,月其乘上训练集容量。基于所得的数,选择比其低个数量级的值作为隐元个数。如果训练数据是高度冗氽的(比如数据集容量非常大),则可以使用更少些的隐元。以上讨论的是RBM中的一些常用的参数设置,针对一个实际问题,应使用什么类型的可见单元和隐单元,在其中如何加入稀疏性使得隐单元只在少数情况下处于激活状态等问题的讨论,可参见文[23,31]山国科技论文在线4RBM的评估算法对于一个已经学习得到或正在学习中的RBM,应通过何种指标评价其优劣呢?显然,最简单的指标就是该RBM在训练数据上的似然度C()=∑1logP(v(()。但是,C(0)的计算涉及到归一化常数(),而这个值是无法通过数学方法直接解析得到的,但我们又不可能枚举RBM的所有状态。因此,只能采用近似方法对RBM进行评估。4.1重构误差所谓“重构误差”( reconstruction error),就是以训练数据作为初始状态,根据RBM的分布进行一次 Gibbs采样后所获样本与原数据的差异(一般用一范数或二范数来评估)Error=0初始化误差for all y(),t∈{1,2,…,T}do%对每个训练样本y(进行以下计算h N P(v()%对隐层采样ⅴ~P(h%对可见层采样Error=Eror+‖v-v)‖%累计当前误差end forreturn上mOP%返回总误差算法2.重构误差的计算.重构误差能够在一定程度上反映RBM对训练数据的似然度,不过并不完全可靠[23。但总的来说,重构误差的计算十分简单,因此在实践中非常有用。4.2退火式重要性采样退火式重要性采样”( Annealed Importance Sampling,AIS)图2是目前比较主流的RBM评估方法。它的想法非常直接,就是利用蒙特卡岁方法估计RBM对数据的似然度。只不过没有使用MCMC,而是通过一种叫做“重要性采样”( Importance Sampling)[20的算法进行逼近。这种算法的优点在于:当目标分布十分陡峭时,不直接对其进行采样,而是引入另一个简单的分布,在这个简单的分布上采样。然后,利用采样所获样本和两个分布之间的关系对原分布上的均值进行估算。“重要性抽样”的基本思想如下:假设我们要计算某个分布P4(x)的归一化常数ZA,那么,我们可以引入另一个状态空间相同,但更容易采样的分布PB(x),并且事先知道它的归化常数zB。这时,只要能计算出zA/zB的值,我们就可以算出原分布的归一化常数ZA。假
- 2020-12-04下载
- 积分:1