10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外,n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若count(kn+)=count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料(Corpus),Context(u)表示词U的上下文(Context),即周边的词的集合.当Context(u)为空时,就取p(Context(w)=p(u).特别地,对于前面介绍的n-gran模型,就有Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑logp(u(ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p(CONtex()已被视为关于和Context()的函数,即p(wContext(w))=F(w,Conteact(w),0)-IMDN开发者社群-imdn.cn"> 10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外,n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若count(kn+)=count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料(Corpus),Context(u)表示词U的上下文(Context),即周边的词的集合.当Context(u)为空时,就取p(Context(w)=p(u).特别地,对于前面介绍的n-gran模型,就有Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑logp(u(ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p(CONtex()已被视为关于和Context()的函数,即p(wContext(w))=F(w,Conteact(w),0) - IMDN开发者社群-imdn.cn">
登录
首页 » Others » Google word2vec算法 数学原理

Google word2vec算法 数学原理

于 2020-06-14 发布
0 308
下载积分: 1 下载次数: 0

代码说明:

文档是 word2vec 算法 数学原理详解。word2vec是google的一个开源工具,能够仅仅根据输入的词的集合计算出词与词直接的距离,既然距离知道了自然也就能聚类了,而且这个工具本身就自带了聚类功能,很是强大。32预备知识本节介绍word2v中将用到的一些重要知识点,包括 sigmoid函数、 Bccs公式和Huffman编码等821 sigmoid函数sigmoid函数是神经网络中常用的激活函数之一,其定义为1+e该函数的定义域为(-∞,+∞),值域为(0,1).图1给出了 sigmoid函数的图像0.56图1 sigmoid函数的图像sigmoid函数的导函数具有以下形式(x)=0(x)1-0(x)由此易得,函数loga(x)和log(1-0(x)的导函数分别为log a(a)-1 a(a),log(1 o(a))l-a(a),(2.1)公式(2.1)在后面的推导中将用到32.2逻辑回归生活中经常会碰到二分类问题,例如,某封电子邮件是否为垃圾邮件,某个客户是否为潜在客户,某次在线交易是否存在欺诈行为,等等设{(x;)}温1为一个二分类问题的样本数据,其中x∈Rn,∈{0,1},当v=1时称相应的样本为正例当v=0时称相应的样本为负例利用 sigmoid函数,对于任意样本x=(x1,x2,…,xn),可将二分类问题的 hypothesis函数写成h(x)=o(6o+b1x1+62+…+bnxn)其中θ=(0,61,…,On)为待定参数.为了符号上简化起见,引入x0=1将x扩展为(x0,x1,x2,……,xn),且在不引起混淆的情况下仍将其记为ⅹ.于是,he可简写为取阀值T=0.5,则二分类的判别公式为ho(x)≥0.5:X)=0,ha(x)6),可分别用000001、010、011、100、101对“A,E,R,T,F,D”进行编码发送,当对方接收报文时再按照三位一分进行译码显然编码的长度取决报文中不同字符的个数.若报文中可能出现26个不同字符,则固定编码长度为5(25=32>26).然而,传送报文时总是希望总长度尽可能短.在实际应用中各个字符的出现频度或使用次数是不相同的,如A、B、C的使用颗率远远高于X、Y、Z,自然会想到设计编码时,让使用频率高的用短码,使用频率低的用长码,以优化整个报文编码为使不等长编码为前缀编码(即要求一个字符的编码不能是另一个字符编码的前缀),可用字符集中的每个字符作为叶子结点生成一棵编码二叉树,为了获得传送报文的最短长度,可将每个字符的岀现频率作为字符结点的权值赋于该结点上,显然字使用频率越小权值起小,权值越小叶子就越靠下,于是频率小编码长,频率高编码短,这样就保证了此树的最小带权路径长度,效果上就是传送报文的最短长度.因此,求传送报文的最短长度问题转化为求由字符集中的所有字符作为叶子结点,由字符出现频率作为其权值所产生的 Huffman树的问题.利用 Huffman树设计的二进制前缀编码,称为 Huffman编码,它既能满足前缀编码的条件,又能保证报文编码总长最短本文将介绍的word2ve工具中也将用到 Huffman编码,它把训练语料中的词当成叶子结点,其在语料中岀现的次数当作权值,通过构造相应的 Huffman树来对每一个词进行Huffman编码图3给岀了例2.1中六个词的 Huffman编码,其中约定(词频较大的)左孩子结点编码为1,(词频较小的)右孩子编码为0.这样一来,“我”、“喜欢”、“观看”、“巴西”、“足球”、“世界杯”这六个词的 Huffman编码分别为0,111,110,101,1001和100000欢观有巴西足球图3 Huffman编码示意图注意,到目前为止关于 Huffman树和 Huffman编码,有两个约定:(1)将权值大的结点作为左孩子结点,权值小的作为右孩子结点;(②)左孩子结点编码为1,右孩子结点编码为0.在word2vee源码中将权值较大的孩子结点编码为1,较小的孩子结点编码为θ.为亐上述约定统一起见,下文中提到的“左孩子结点”都是指权值较大的孩子结点3背景知识word2vec是用来生成词向量的工具,而词向量与语言模型有着密切的关系,为此,不妨先来了解一些语言模型方面的知识83.1统计语言模型当今的互联网迅猛发展,每天都在产生大量的文本、图片、语音和视频数据,要对这些数据进行处理并从中挖掘出有价值的信息,离不开自然语言处理( Nature Language processingNIP)技术,其中统计语言模型( Statistical language model)就是很重要的一环,它是所有NLP的基础,被广泛应用于语音识别、机器翻译、分词、词性标注和信息检索等任务例3.1在语音识别亲统中,对于给定的语音段Voie,需要找到一个使概率p(Tcrt| Voice最大的文本段Tert.利用 Bayes公式,有P(Teact Voice)p(VoiceTert)p(Text)P(Veonce其中p( Voice Teat)为声学模型,而p(Tert)为语言模型(l8])简单地说,统计语言模型是用来计算一个句子的概率的概率模型,它通常基于一个语料库来构建那什么叫做一个句子的概率呢?假设W=m1:=(n1,w2,…,tr)表示由T个词1,2,…,ur按顺序构成的一个句子,则n,U2,…,wr的联合概率p(W)=p(u1)=p(u1,u2,…,r)就是这个句子的概率.利用 Baves公式,上式可以被链式地分解为1)=p(u1)·p(u2l1)·p(vai)…p(ur1-)3.1其中的(条件)概率p(1),p(U2mn1),p(u3),…,p(urln1-1)就是语言模型的参数,若这些参数巳经全部算得,那么给定一个句子1,就可以很快地算出相应的p(1)了看起来妤像很简单,是吧?但是,具体实现起来还是有点麻烦.例如,先来看看模型参数的个数.刚才是考虑一个给定的长度为T的句子,就需要计算T个参数.不妨假设语料库对应词典D的大小(即词汇量)为N,那么,如果考虑长度为T的任意句子,理论上就有N种可能,而每种可能都要计算T个参数,总共就需要计算TN个参数.当然,这里只是简单估算,并没有考虑重复参数,但这个量级还是有蛮吓人.此外,这些概率计算好后,还得保存下来,因此,存储这些信息也需要很大的內存开销此外,这些参数如何计算呢?常见的方法有 II-gram模型、决策树、最大熵模型、最大熵马尔科夫模型、条件随杋场、神经网络等方法.本文只讨论n-gram模型和神经网络两种方法.首先来看看n-gram模型32n-gram模型考虑pko4-)(k>1)的近似计算.利用 Baves公式,有p(wr wi)P(uP(w根据大数定理,当语料库足够大时,p(k4-1)可近似地表示为P(wwi)count(wi)(3.2)count(a其中 count(u4)和 count-)分别表示词串t和v-在语料中出现的次数,可想而知,当k很大时, count(o4)和 count(4-1)的统计将会多么耗时从公式(3.1)可以看出:一个词出现的慨率与它前面的所有词都相关.如果假定一个词出现的概率只与它前面固定数目的词相关呢?这就是n-gran模型的基本思想,它作了一个n-1阶的 Markov假设,认为一个词出现的概率就只与它前面的n-1个词相关,即-1)≈p(kk-1+),于是,(3.2)就变成了p(wxJuk-)count(n+1countri(3.3以〃=2为例,就有p(uk4-1)≈count(k-1, Wk)count(Wk-1)这样一简化,不仅使得单个参数的统计变得更容易(统计时需要匹配的词串更短),也使得参数的总数变少了那么, n-gran中的参数n取多大比较合适呢?一般来说,n的选取需要同时考虑计算复杂度和模型效果两个因素表1模型参数数量与n的关系模型参数数量1( ingram)2×1052(bigram)4×10103( trigram)8×10154(4grm)16×10在计算复杂度方面,表1给出了n-gram模型中模型参数数量随着n的逐渐增大而变化的情况,其中假定词典大小N=2000(汉语的词汇量大致是这个量级).事实上,模型参数的量级是N的指数函数(O(N"),显然n不能取得太大,实际应用中最多的是采用n=3的三元模型在模型效果方面,理论上是π越大,效果越奷.现如今,互联网的海量数据以及机器性能的提升使得计算更高阶的语言模型(如n>10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外, n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若 count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若 count(kn+)= count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料( Corpus), Context(u)表示词U的上下文( Context),即周边的词的集合.当 Context(u)为空时,就取p( Context(w)=p(u).特别地,对于前面介绍的 n-gran模型,就有 Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑ logp(u( ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p( CONtex()已被视为关于和 Context()的函数,即p(w Context(w))= F(w, Conteact(w), 0)

下载说明:请别用迅雷下载,失败请重下,重下不扣分!

发表评论

0 个回复

  • 用systemVue解决雷达测试
    用systemVue解决雷达测试方案中需要全面考虑到各种问题2010-9-10全数字式相控阵雷达H 8-Element Digital T/R ModuleH 8-Element Digital T/R ModuleFiber-optie 8-Element Digital T/R Module Hup/down linksA: Waveform andcontrol wordsKH DACUp/DownPower AmpB: Echo Data〔 m lines)ADCConverterRx protectorDigital T/R Module (Low-cost cell phonePower/ Coolingtechnolog Element Level.数字模块:包含微波电路,数字电路,时钟电路和光电路的复杂系统数字波束合成大容量高速数据传输技术高性能信号处理机:: Agilent Technologies日程安排●概述雷达信号的模拟雷达信号的分析模块级(T/R组件)测试接- Agilent Technologies2010-9-10雷达系统测试需要的激励信号基带Q波你号,∈○数字基带信号注入信号注入中频信号注入(距离和多勒放大器铝器中频放大放大二玉振LO这接收机替换信号处理饥信号类型测试应用技术要求正弦波信号替代系统本振等电路性能测试功率,频率精度,柞位噪声调制信号则试接收机或关键部件性能功率,频率精度,调制带宽,调制能力,调制精度大真信号则试接收机或关键处玨器性能号带宽,失真处理能力,信号幅度精度带信号则试模拟或数字基带电路性能模拟,数字信号输出能丿,数字接口形式,速率Agilent Technologies常用雷达信号类型及特点(1信号类型信号特点备注简单脉冲信号载波频率,重复周期和脉冲宽度固定或慢速变化雷达常用信号捷变信号脉冲重复间限脉冲间或脉冲组间)迅速变化,包用于动目标显示,脉冲多括参差,滑动和抖动笔形式。普勒等雷达频率捷变信号信号载波须率(脉冲内和脉冲间极脉沖组间)快速变用于雷达抗干扰术化率分集信号同时和接近问时发射的具有多个载波的信号用于雷达抗十扰技术极化变信弓射频徼波信号的极化方式(脉冲内,脉冲间和脉产组用户雷达抗干扰技术间)快速变化双脉冲信号在每个内有两个相邻的脉冲,脉冲隔为脉冲宽用于抗回答式干扰信号度的若干倍。双路信号具有一定相关性的两路信号同时发射。两路信号的用户反侦察秋抗干扰信号和载波频率可以相同也可个同。脉冲玉缩信号具备很大的时宽带宽积。包含线性调频,非线性频用于预警雷达和高分辨力信号,一相编码信号,多相编码信号和频率编鶴信号」雷达接- Agilent Technologies2010-9-10常用雷达信号类型及特点(2)信号类型信号特点备注脉冲编码信号|多为脉冲串形式,采用脉冲位置编码和脉冲幅度编码方用于航管,敌我识别和指令系统等。相参脉冲串信号在每个发射多个相邻的脉冲,包利均匀脉冲串信是一种大时宽信号,用于号,非均匀脉冲串信号和频率编码脉冲串信号等。搜索和跟踪雷达应用。连续波信号时间连续信号。包含单频连续波信号,多频连续波信号,用于日标测返,雷达高度调频连续波信号和二编码连续波信号。计和放撞雷达。分们频谱信号具有噪声类似柬声词制传性。时宽带宽积大。包含噪|用于目标识别和抗干扰等声突似噪声调频或调相信号超宽带冲激信号超宽带信号,无载波。用户目标识别,高分辨目标成像笭雷达:: Agilent Technologies脉冲压缩雷达信号问题:作用距离和标分辨率接- Agilent Technologies52010-9-10脉冲压缩雷达信号问题:作用距离和标分辨率R脉冲压缩雷达信号H(TransmitterSTALODETWeightingH*(w)_MANMatchedReduces sllFilterReceive△接- Agilent Technologies2010-9-10先进信号源仪表的合成信号功能E8257DPSG模拟信号源E8267DPSG矢量信号源频率范围覆盖至44GH67GH烦率覆盖/0.01Hz步进全部覆盖E8257功能及指标136cm-20dBm功率范围/08dB幅度精度唯一片微菠频段矢量调制信号源优良的相噪性能:-113dBc/H@?0 kHz offset20Gh;频率可实时合成微波段PSK,FSK,MSK,0AM信号AM,FM,FM,脉冲调制能力内部/外部Q存储器完成仟意波信号合成脉冲二:时间为:10ns.开关比:80dB160MHz/2GH洞制带宽选择步进/列表/斜坡扫描功能配合软什/分析仪表非实时合成复杂信号配合宽带仨意产生器实时合成复杂信号E品EEEg堂皇E8257D超大功率输出选件(521)Maximum output power(dBm)382570-J21 maximun uutput puweI10 to 250 MHz+7=27rp+28{-31typ-24 typ)186:020GH+24(-2e Marum wai ahle(messrS)Maximun leve ad powar sheaf ea" l12141620GHz的接- Agilent Technologies2010-9-10改善的E8257D信号源的相位噪声性能四04Hz)GHZGHz8010 GHz0⑩四1GHz-13-140-160170101001k10k100k1M10M100ML(f(dBc/Hz) vs f(Hz):: Agilent Technologies矢量信号合成系统输出接口件输出层信号数据存馅和调制。合成实际信号信号源输出信号的验证和定标宽带信号合路合成信号的验证和定标仪表下载的信号波形数据用户使用界面层用信号库文件根据测试要求对信号信号设置软件界面频率,时间标识等进行定义型号任务测试模式,:,,,控制仪表和数据下载软件数接口信号建立设汁层雷达信号模型建立息2雷达信号库建立通信信号模型建立通信信号厍建立用户采集信号库仿真信号的软件验证仿真信号实验信号采集数君雷达信亏库数字通信信号库验证工具B Agilent Technologies2010-9-10宽带信号模拟系统计算机及信号参数设置欤件LAN控制N241A多通道上丰宽带冮意波发生器宽带宽带微波微波微波微波矢量信号源矢量信号源矢量信号源矢量信号源矢量信号源信号信号信号信号合路系统曰盟系统输出宽带输出信号信号参数检测仪表:: Agilent Technologies高性能宽带任意波发生器一N8241A15Bt125G采样DAC电路Spurious Free Dynamic Range(SFDR每个仪表内置两个DAC杂波扣制性能高-65 dBcMarkerIMDb5443d8高相位噪声性能>-120dBc∥Hzat10kHzOffset at 1.25GHz低噪声>.150dBc/Hz225 MHZ275 MHZG Tones Spaced 2.5 MHz w/1.25GS/s clock接- Agilent Technologies2010-9-10宽带矢量调制信号合成会BA76 dBI RE Caded: unspecied beloy 20 MHa)平中产,叶提供宽带调制能力输出频率可选调制带宽为合成宽带基带信号软件合成雷达信号波形波形排序功能实现宽带捷变频信号建京软件欢系统系统误差诖行测试和校准系统基带时坤和本振参考与被测相参宽带矢量信号源仪表配置说明或矢量信号源频率范围为信号源输出须率范围调制情宽为:信号源外调制(标准配置宽带任意波发生器前面板频率范围为信号源输出颏※范围入调制带宽为:信号源宽带调制(选件)宽带任意波发生器率范围为信号源输出频率范调制带宽为后面板宽带输入波形计算矢量信号源宽带调制(选件宽带任意波发生器频率范围为信号源输出频率范围调制情宽为接- Agilent Technologies10
    2021-05-06下载
    积分:1
  • oracle 高可用 dataguard 单机到RAC复制与几乎无停顿全数据迁移
    oracle 高可用 dataguard 单机到RAC复制,详细按步骤描述清楚了 由 oracle 单机,建立dataguard 到 RAC 双机的过程,严格按步骤做,一定会成功。同时讲述了,如何完成通过单机到RAC的dataguard 的迁移和切换。是通过dataguard进行数据迁移的好参考。适用于单位是单机,想把数据无缝无损迁移到RAC的场景。照做就能成功。
    2020-11-28下载
    积分:1
  • 学生成绩管理系统ACCESS做的!适合大学生提交作业!
    这个是我们一个学期跟着老师做的!感觉不错!如果有需要的可以下载看看合适否!个人很推荐。
    2020-12-04下载
    积分:1
  • 几种经典的图像平滑去噪算法
    几种经典的图像平滑去噪算法程序,其中包括小波软阈值和硬阈值处理。还有三个图像质量评价程序
    2021-05-06下载
    积分:1
  • 单基地MIMO雷达测角算法
    本资源含有单基地MIMO雷达测角代码,能够有效对目标角度进行估计
    2020-11-28下载
    积分:1
  • 寻路测试2可执行
    实现算法:DFS,BFS,双向BFS,一个自己的启发式,Bellman-Ford,Dijkstrra,SPFA,A*
    2020-11-30下载
    积分:1
  • MATLAB多目标进化算法
    MATLAB 多目标进化算法 注释详细(英文) 已封装成函数形式非原创 作者忘记了
    2020-12-09下载
    积分:1
  • 车牌号识别样本集合
    本文件中包含了车牌识别中所需要的数字和字母样本集,样本个数多,图片清晰。
    2020-12-10下载
    积分:1
  • 雷达信号处理和数据处理技术.pdf
    从mlf文件转到pdf,比较清晰,公式符号都可以看清,考虑到原资源积分,非常划算
    2020-12-10下载
    积分:1
  • 基于Adaboost算法的人脸识别 北京大学赵楠
    人脸检测和人脸识别都是属于典型的机器学习的方法,但是他们使用的方法却相差很大。对于人脸检测而言,目前最有效的方法仍然是基于Adaboost的方法。在网上可以找到很多关于Adaboost方法的资料,但基本上是千篇一律,没有任何新意。给初学者带了很多不便。建议初学者只需要认真阅读:北京大学 赵楠 的本科毕业论文 :基于 AdaBoost算法的人脸检测 这篇毕业论文就够了。作者详细分析了Adaboost算法在人脸检测中的具体执行过程,尤其是关于弱分类器的Haar特征选取过程,描述的相当清晰。北京大学太科生业论文最后一章,用编写的实现了 Adaboost算法的FDt程序,给出了相应的人脸检测实验结果,并和 Viola等人的结果做了比较关键词 Keywords∧ adaboost方法、人脸检测、 Boosting方法、PCA学习模型、弱学习工工TI北京大学太科生业论文谨以此论文献给A腺嘌呤、T胸腺嘧啶、G鸟嘌呤、C胞嘧啶、1和0-智能的基本构件和开拓智能研究的伟大先驱者们This dissertation is dedicated toA, T, G, C, 1 and o, the building blocks ofintelligence.andto the pioneers uncovering the foundations ofintelligence.北京大学太科生业论文正文目录 Contents摘要 ABSTRaCTI正文目录 CONTENTS图录LISTOFFIGURES…I表目录LISTOF TABLES····················a···········ba·。·········。··。······VIII人脸检··11概12难点与展望213人脸检测方法的性能评测1.31人脸图像数据库………41.3.2性能评测.2检测方法分类…2,1基于知识的方法●●●●●·●··●●●●●D·●b●鲁●·●●●。●。D●●·●●·●·。D。●。·。。●●●D·●看●。·●。·D●看●看。●。●8北京大学本科生毕业论文22特征不变量方法3模板匹配方法●香●鲁●鲁·●D·。●·。●·鲁●●鲁·●鲁鲁●●●鲁●·鲁··。●·●鲁音·●鲁。●···。·●●●鲁自●·鲁鲁。●●●b·●鲁自非b●●。●10基于表象的方法113经典方法概述···············.s.····················································121神经网络NEURALNETWORK232特征脸EIGENFACE1333基于样本学习方法 EXAMPLE-BASEDMETHODS34支持向量机 SUPPORTⅴ ECTOR MACHINE(SVM)........1535隐马尔科夫模型 HIDDEN MARKOV MODEL(HMM)4 ADABOOST方法概述164.1引2 PAC学模164.21概述14.22数学描述音音音。音音…………………………17V工北京大学太科生业论文43弱学习强学1844BOOSTING方法5矩形特征与积分图a···············4·················4··4········‘·4······4··4······2051引言··········.·········································.···········252矩形特征 RECTANGLE FEATURE2521概述.205.22特征模版.21检器内特征总数2252.31子窗口内的条件矩形5232条件矩形的数量…52.33子窗口的特征矩形数量.2352.34结果2453积分图 INTEGRAL IMAGE25531概念含………………25532利用积分图计算矩形特征值.27V工I北京大学太科生业论文5.32.1图像区域的积分图计算.5322矩形特征的特征值计算86 ADABOOST训练算法●●●D··●·●···●●。·●·。·●●鲁·●··。·●。·●鲁。●自·鲁。●。●●b·。·●。●鲁306.1训练基本算法·●。●。·●··●●·●。鲁鲁●●b·●鲁●··●·●。。●看●。鲁●·●●香···曲鲁鲁●鲁●306.1.1基本算法描述306.12基本算法流程图3262弱分类器 WEAK CLASSIFER33621特征值f(x)62阈值q、方向指示符p38623弱分类器的训练及选取…...83强分类STRONGCLASSIFIER40631构成40632错误率上限407程序实现及结果.………4371样本集●●·●·····●···········●··············●·······●··●·●·····●··········●··········●··●··●4372练难点及优化44721计算成本14V工工T北京大学本科生毕业论文7.2.2减少矩形特征的数量……省着音自··。·非。。音音。非D音音普申普普普非非非非着44723样本预处理4573检测结果467.31检测器……46732实验结果..477321实验对比477.322更多实验结果49733结论53致谢 ACKNOWLEDGMENTS54参考文献REFERENCES54Ver o76图目录 List of Figures人脸析流程2图2人脸的遮挡、不同表情、图像的质量、旋转等等都会影响人脸检测.3图3典型的正面人脸图像数据库中的人脸图像.图4左侧为测试图像,右侧为检测结果。不同的标准会导致不同的检测结果。北京大学本科生毕业论文图5基于知识的人脸检测方法抽象出人脸的基本特征规则图6—种人脸检测模板:这个模板由16个区域(图中灰色部分)和23种区域关系(用箭头表示)组成.10图7 ROWLEY的带有图像预处理的神经网络系统…13图8人脸高斯簇和非人脸高斯簇14图9矩形特征在人脸上的特征匹配。上行是24×24子窗口内选出的矩形特征,下行是子窗口检测到的与矩形特征的匹21图10计算mXm检测器内所有可能的矩形的数量。22图11积分图与积分的类比25图12坐标A(x,y)的积分图定义为其左上角矩形所有像素之和(图中阴影部分)。s(x,y)为A(x,y)及其y方向向上所有像素之和(图中粗黑竖线)26图13区域D的像素和可以用积分图计算为:i+i-(i2+i)图14矩形特征的特征值计算,只与此特征端点的积分图有关…...9
    2020-11-28下载
    积分:1
  • 696516资源总数
  • 106436会员总数
  • 7今日下载