基于卷积神经网络的图像识别
基于卷积神经网络的图像识别 基于卷积神经网络的图像识别关于学位论文独创声明和学术诚信承诺本人向河南大学提出硕士学位申请。本人郑重声明:所呈交的学位谂文是本人在导师的指导下独立完成的,对所研究的课题有新的见解。据我所知,除文中特别加以说明标注和致谢的地方外,论文中不包括其它人已经发表或撰写过的研究成果,也不包括其它人为获得任何教育、科研机构的学位或证书而使用过的材料。与我一同工作的同事对本研究所做的任何贡献均己在论文中作了明确的说明并表示了谢意在此本人郑重承诺:所呈交的学位论文不存在舞弊作伪行为,文责自负。学位申请人(学位论文作者)签名:亚强2015年5月20日关于学位论文著作权使用授权书本人经河南大学审核批准授予硕士学位。作为学位论文的作者,本人完全了解并同意河南大学有关保留、使用学位论文的要求,即河南大学有权向国家图书馆、科研信息机构、数据收集机构和本校图书馆等提供学位论文(纸质文本和电子文本)以供公众检索、查阅。本人授衩河南大学出于宣扬、展览学校学术发展和进行学术交流等目的,可以采取影印、缩印、扫描和拷贝等复制手段保存、汇编学位论文(纸质文本和电子文本)(涉及保密内容的学位论文在解密后适用本授权书)学位获得者(学位论文作者)签名:卫2015年5月20日学位论文指导教师签名:2015年5月20日摘要Deep learning是机器学习研究的新领域,掀起了机器学习的新浪潮,在各个行业都受到了广泛的关注。 Google brain项目、微软全自动同声传译系统、百度硏究院等都是 deep learning技术发展的见证。随着大数据和深度模型时代的来临,deeplearning技术也得到了广泛的重视和发展,它带来的技术进步也必将改变人们的生活随着机器学习领域的发展,最近几年对卷积神经网络的研究也越发深入。现在卷积神经网络已经广泛的应用到各种领域,并取得了巨大的成果。卷积神经网络是在人工神经网络的基础上发展起来的·种高效的识别算法。典型的积网络结构是由 Lecrn提出的 LeNe t-5,它包含多个阶段的卷积和抽样过程,然后将提取到的特征输入到全连接层进行分类结果的计算。卷积神经网络通过特征提取和特征映射过程,能够较好的学习到图像中的不变特征。现在研究人员在典型的 LeNet5的基础上,使用多种方法改善卷积网终的结构和性能,从而提高网终的通用性和对图像的识别效果。本文结合图像的特点,在深入硏究了卷积网络的理论和国内外研究成果的基础上主要做了以下工作:(1)研究了卷积网络的训练算法,通过对算法分析,调试并找到最优初始化参数和最适应的网络结构配置。(2)对于分类结果的计算,使用了多区域的测试方法,通过在测试的过程中对图像的多个区域进行计算能够提高图像识别的准确率。〔3)为系统设计了一个通用的数据集输入接口,可以将自己构建的图像薮据集输入到卷积神经网络的结构中,训练和查看图像分类的结果。(4)在卷积层使用了局部偏差垬亨和非共亨两种方法,在数据集上测试并进行结果分析。(5)在隐含层使用了网络泛化的方法 DROPOUT,在数据集上测试并进行结果分析。通过以上改进方法的使用,卷积网络的通用性和性能得到了提高。关键词:,图像识别,特征提取
- 2020-11-30下载
- 积分:1
支持向量机
关于支持向量机里面讲核函数的,介绍了线性核函数、高斯核函数、及多项式核函数等。还介绍了核函数的判定以及Mercer定理1x1121T3212T42.3p(a)L313x2.3.32cT1V2C.223+d更一般地,核数K(x2z)=(xz+)“对应的映射后特征维度为a(求解方法参见http://zhidao.baiducom/question/16706714.html)由于计算的是内积,我们可以想到IR中的余弦相似度,如果ⅹ和z向量夹角越小,那么核函数值越大,反之,越小。因此,核函数值是(x)和(z)的相似度。再看另外一个核函数K(r, z)=expz-z|222这时,如果x和z很相近(x-2‖≈0),那么核函数值为1,如果x和z相差很大(x-2》0),那么核函数值约等于0。由于这个函数类似于高斯分布,因此称为高斯核函数,也叫做径向基函数( Radial basis function简称RBF)。它能够把原始特征映射到无穷维。既然高斯核函数能够比较ⅹ和z的相似度,并映射到0到1,回想 logistic回归, sigmoid函数可以,因此还有sigmoid核函数等等下面有张图说明在低维线性不可分时,映射到高维后就可分了,使用高斯核函数。Linear回回看目即Gaussian来自 Eric Xing的sdes注意,使用核函数后,怎么分类新来的样本呢?线性的时候我们使用SVM学与出W和b,新来样木ⅹ的话,我们使用wTx+ b来判断,如果值大于等于1,那么是正类,小于等于是负类。在两者之间,认为无法确定。如果使用了核函数后,W2x+b就变成了wφ(x)+b,是否先要找到p(x),然后再预测?答案背定不是了,找φ(x很麻烦,回想我们之前说过的wa+6=boy(0)x+bi=1(x(,x)+b只需将替换成(x,x),然后值的判断同上8核函数有效性判定问题:给定一个函数K,我们能否使用K来替代计算φ(x)2中(z),也就说,是否能够找出一个,使得对丁所有的x和z,都有k(x,2)=(x)r中(2)9比如给出了K(x,2)=(x2)2,是否能够认为K是一个有效的核函数下面来解决这个问题,给定m个训练样本全(r(3xm,每一个对应一个特征向量。那么,我们可以将(e) yJ仟意两个和带入K中,计算得到=0。I可以从1到m,j以从1到m,这样可以计算出m*m的核函数矩阵( Kernel Matrix)。为了方便,我们将核函数矩阵和(x,z)都使用K来表示如果假设K是有效地核函数,那么根据核函数定义k1=K(x0x0)=p(x()p(x0)=p(x(0)p(x()=K(x(,x)=K可见,矩阵K应该是个对称阵。让我们得出一个更强的结论,首先使用符号中x(x)来表示映射函数中(x)的第k维属性值。那么对于任意向量z,得2K2=∑∑2K3∑∑(m0y(0)2∑∑∑(z0)(x0)z∑∑∑29(x)k(z0)k i j=S|∑zipk(c(ak0.最后一步和前面计算K(x)=(x2)时类似。从这个公式我们可以看出,如果K是个有效的核函数(即K(xz)和(x)p(2)等价),那么,在训练集上得到的核函数矩阵K应该是半正定的(K≥0这样我们得到一个核函数的必要条件:K是有效的核函数==>核函数矩阵K是对称半正定的可幸的是,这个条件也是充分的,由 Mercer定理来表达。Mercer定理:如果函数K是×四→巫上的映射(也就是从两个n维向量映射到实数域)。那么如果K是一个有效核函数(也称为 Mercer核函数),那么当且仅当对于训练样例(r()x(m,其相应的核函数矩阵是对称半正定的。Mercer定理表明为了证明K是有效的核函数,那么我们不用去寻找φ,而只需要在训练集上求出各,然后判断矩阵K是否是半正定(使用左上角主子式大于等于零等方法)即可。许多其他的教科书在 Mercer定理证明过程中使用了范数和再生希尔伯特空间等概念,但在特征是n维的情况下,这里给出的证明是等价的。核函数不仅仅用在SWM上,但凡在一个模型后算法中出现了,我们都可以常使用区(xz)去替换,这可能能够很好地改善我们的算法。posted on2011-03-1820:22 Jerry Lead阅读(…)评论(…)编辑收藏刷新评论刷新页面返回顶部博客园首页博问新闻闪存程序员招聘知识库Powered by:博客园 Copyright@ Jerry Lead
- 2020-12-01下载
- 积分:1