登录
首页 » Others » bfgs算法-matlab源程序

bfgs算法-matlab源程序

于 2020-12-02 发布
0 194
下载积分: 1 下载次数: 1

代码说明:

bfgs算法-matlab源程序,需要的下载

下载说明:请别用迅雷下载,失败请重下,重下不扣分!

发表评论

0 个回复

  • NTC AD采集数值计算软件
    通过软件,可以很方便的计算出采集AD,通过程序查表,就能得出温度。超级方便。
    2020-12-02下载
    积分:1
  • XML+XSL/FO生成PDF文件Demo
    XML+XSL/FO生成PDF文件Demo,主要用于Fop插件,算是个小型练习项目
    2020-12-11下载
    积分:1
  • matlab自带HHT算法,最简洁的EMD分解
    matlab自带HHT算法,最简洁的EMD分解
    2020-11-29下载
    积分:1
  • TDOA定位技术原理及算法
    对TDOA定位技术的基本原理的描述,基于时间测量值的蜂窝无线定位算法第1期郭华:TDOA定位技术的基本原理和算法21值的不确定性度量。对于二维定位系统,、CEP定义为CEP≈(0.75s)ODOP(11)包含了一半以均值为中心的随机矢量实现的圆半G丑OP可作为从大量基站中选择所需定位基站的指径。如果定位估计器为元偏差的CEP即为MS相对标,选中的基站是使(nOP最小的基站,还可用于其真实位置的不确定性度量如图2所示。如果佔计建立新系统时作为选择基站位置的参考。器为有偏差的且以偏差B为界,则对于50%概率,MS的信计位置在距离B+CEP内,此时,CEP为一3基于COST259信道模型的算法仿复杂函数,通常用其近似表示,对于TDOA双曲线主位,CEP近似表示为CEP=0.75J2+02为了从分评估CHAN算法和 Taylor算法在不其中202分别为二维估计位置的方差同信道环境、不同测量条件下的定位性能,本文设定了多种仿真条件,考虑了实际应用中的可能出现的发射机位置情况,并且每次都在相同的条件下对MS做定位佔计。考核定位结果的均方根误差(RMSE)并以图表的形式直观的表示出米,结合理论分析,对这两和主CEP偏差矢量要的无线定位算法做评估。平均估计位置实际应用中,对尢线定位精度造成影响的因素有许多种。在本文中主要考虑以下因素:小区半径的大小、参与定位的基站数目、不同的信道参数、设图2圆误差概率CEP备的测量误差、定位基站的排列形状等。综合考虑2.3几何精度因子((丑OP)以上因素,仿真所需的主要条件如采用距离测量方法的定位系统准确率在很大程1)针对COS259模型中的A、B、C、D四种信度上取决于基站和待定位移动台MS之间的几何位道做仿真。不同的信道其参数T不同。在考察小置关系几何位置对定位准确率影响的度量即为几区半径和定位基站数目对定位性能的影响时主要考何精度因子(GDOP),定义为定位误差RMSE与测虑了A和B两种信道,考察基站的排列形状时主要距误差RMSE比率。GDOP表征了由于移动台与基考虑B和D两种信道。站几何位置关系对测距误差的放大程度。对于无偏(2)检测设备造成的测量误差:假设检测设备精差计器,GDOP为:度造成的TDOA误差服从均值为0,标准差为30mGDOP=Ntr[(AA(7)的高斯正态分布。在考察设备的测量误差对定位精度的影响时,标准差分别取:30m、60m、90m、120m、其中,tr()表示对结果矩阵求迹,即求矩阵主对角150m线兀素之和aA为根据某种特征测量值建立的线性3.1理想信道环境下测量设备误差对定位的影响方程组的系数矩阵,即仿真条件:小区半径R-2000m,参与定位的基Y=AX(8)站数目为3~7个,MS在1/12小区内均匀分布,假这里,基站位置Y是已知的M×1维向量,MS位置设信道为理想的LOS信道,由信道造成的NIOS误X是2×1维未知向量[xy],A是Mx矩阵,如果差为0。仅仅考由于检测设备的测量误差对算法AA是非奇异矩阵且M>2,则式(8)为方程数大于定位性能的影响。比较受限 Taylor算法与CHAN未知量数目的超定方程组,采用最小二乘LS)算算法的定位性能法获得MS估计位置定位结果如图3、图4和图5所示X=(AAAY(9)从图3到图5可以看出,当仅有理想高斯分布对于无偏差的估计器及二维双曲线定位系统的测量误差时,参与定位基站的数目已经不是很重GDOP可表小为要了,基站数目的变化不会影响两种算法的定位性GDOP=x +o v/ s(10)能。定位性能与测量误差直接相关(基本呈线性增这里s为测距误差标准差。GDOP与CEP有以长)。从3个图屮都可以发现CHAN算法的定位性下近似关系能要好与 Taylor算法。也就是说CHAN算法的抗C1994-2010chinaAcademicjOurnalElectronicPublishingHouseAllrightsreservedhttp://www.cnkinet22西安邮电学学报2007年1月高斯分冇;NLOS误差服从COST259模型。仿真结果如图6、图7和图8所示。图3基站数为3时理想高斯测量误差条件下, MTavlor算法与CHAN算法的定位性能比较图6基站数目为3时, TAylor算法和CHAN算法在BadUrban和 Urban环境下图4基站数为4时理想高斯测量误差条件下 MTavlor算法与CHAN算法的定位性能比较图7基站数目为4时, MAylor算法和CHAN算法在Barban和 Urban环境下的性能比画量柱准展图5基站数为7时理想高斯测量误差条件下 MAylor算法与CHAN算法的定位性能比较高斯噪声性能更好,较适用于LOS信道环境。图8基站数目为7时, TAylor算法和CHAN算法在3.2COsT259环境下小区大小定位基站数目及 BadUrban和Uban环境下的性能比排列对定位性能的影响标识说明: Badurban chan表小在 Badurban(T参与定位基站数目与小区大小对定位性能的=1)环境下CHAN算法的定位性能曲线; Urban-影响Chan表示在 Urban(T=0.4)环境下CHAN算法的仿真条件:参与定位的基站数目固定为(3~7),定位性能曲线; BadUrban Taylor表示在 Badurban小区半径大小由100400变化。MS在112(T=1)环境下 M Taylor算法的定位性能曲线;Ur小区内均匀分布,在 Badurban和Ubam环境下比 ban Taylor表示在 Urban(T=0.4)环境下 M Taylor较受限的 Taylor算法和CHN算法的定位性能。算法的定位性能曲线。Taylor算法的初始位置取MS的实际位置;设从图6到图8可以看出,在实际信道中,CHAN备的测量误差服从均值为0,标准差为30m的理想算法的定位性能要比 Taylor算法的性能差,这是o01994-2010ChinaaCademicjOurnalElectronicPublishingHouseAllrightsreservedhttp:/www.cnkinet第1期郭TDOA定位技术的基本原理和算法23由于CHAN算法本身就是针对運想高斯LoS环境想蜂窝状排列时 MAylor算法的定位性能曲线;提出米的,所以在实际信道中,由于NLOS误差的U Highway Chan表示在 Urban(T=0.4)环境下引入导致了CHAN算法性能的急剧下降。基站直线排列时CHAN算法的定位性能曲线我们也可以从图中发现,当NLOS误差分不相Highway Chan表示在 Rural(T=0.1)环境下同时,参与定位的基站数日的多少对算法的定位性基站直线排列时CHAN算法的定位性能曲线能没有多大的影响。但当小区半径大于3000m时,U Chan表示在 Urban(T=0.4)环境下基站理Taylor算法的性能呈直线下降,而且当小区半径增想蜂窝状排列时CHAN算法的定位性能曲线;大时, Maylor算法有可能出现不收敛情况。而CHan表示在Rurl(T-0.1)环境下基站理想CHAN算法性能变化较为平稳,且在任何情况下都蜂窝状排列时CHAN算法的定位性能由线能够给出定位结果。因此可以得出结论,在其它条件相同的条件下CHAN算法比 Taylor算法更适合与宏小区的无线非理想的基站分布对定位性能的影响仿真条件:小区半径从1000m~4000m,参与定位的基站数目为3。在类似高速公路的直线区域内基站一般呈直线分布。MS在1/12小区内均匀分布。比较受限 Taylor算法和CHAN算法在 Urban小区使加和Rura环境下的定位性能,以及基站直线分布与哩想蜂窝状分布下两种算法的定位性能。 Taylor图10基站直线排列与理想蜂窝状排列时在 Urban和算法中MS的初始位置取MS的实际位置。设备测Rurl环境下CHAN算法定位性能的比较量误差服从均值为0,标准差为30m的理想高斯分从图9和图10可以看出,基站的位置分布对两布。非视距误差NLOS满是COST259信道模型。种算法的定位性能影响都很人,其它条件不变时,当仿真结果如图9和图10所示基站呈直线分布时,定位性能都急剧下降。如果做樻向比较,在小、区半径较小时, Taylor算法有较好的定位性能。4小结通过以上的仿真与分析比较可以看出小区半径对CHAN算法的影响的程度比Taylor算法较小,在其它条件不变,只有小区半径增大的量准圣与时,CHAN算法的定位性能变化较为平稳。而Taylor算法的定位性能变化较为剧烈。说明在相同的图9基站直线排列与理想蜂窝状排列时,在 Urban和条件下,CHAN算法更适合与宏小区的定位。Rural环境下 TAylor算法定位性能的比较标识说明在LOS环境下,TDOA测量值的误差服从均U HighwayMTay表示在 Urban(T=0.4)环境值为0的埋想高斯分布CHAN算法的定位性能优于 Taylor算法的定位性能。所以CHAN算法更适下基站直线排列时 MAylor算法的定位性能曲线;合于LOS环境的定位。RHighwayM Tay表示在 Rural(T=0.1)环境下基站直线排列时 TAylor算法的定位性能曲线岀基站呈直线排列时,两种算法的定位性能与UMTay表示在 Urban(T=0.4)环境下基站理理想的蜂窝状分布时的定位性能相比急剧下降。在小区半径较小时, Taylor算法有较好的定位性能。想蜂窝状排列时 MAylor算法的定位性能曲线信道环境对定位性能有很大的影响,特别是对RMTav表示在 Rural(T=0.1)环境下基站理CIAN算法的影响更大一些。在郊区和远郊两种C1994-2010ChinaAcademicJournalElectronicPublishingHouseAllrightsreservedhttp://www.cnki.net4西安邮电学学报2007年1月算法都能取得较好的定位效果,基本能够满足FWrokshop j une 2001911的定位要求;但在城区的效果就明显下降,在闹21 J ames J. Caffery:Jr. and Gordon L. Stuber: Overvie市区几乎不能准确定位。因此,要在市区和闹市区of Radiolocation in CDMA Cellular Systems. TEEF获得较好的定位效果,就需要对定位算法进行改进,Communications Magazine April 1998 pp 38-45对如何取得更精确的TDOA测量值,更好的克服3]An Overview of Wireless Indoor geolocation Techniqueand Systems. Kaven Pahlavan. Xinrong Li. MikaNLOS误差进行深入旳研究。Ylianttila. Ranvir chana. And matti latva- aho. Mo-参考文献bile and wireless Communications Networks. IFIPTC6/ European commission NETWORKiNG 2000 Inter-[I Do menico Porcino. Philips Research Laboratories. Stannational Workshop. MWCN 2000. Paris France. Maydardisation of Location Technologies Mobile Location2000Principle and algorithm of doa location technologyGUO HuaDepartment of Electronic of Information Engineering Xi an University of Post and Telecommunications, Xi an 710121, China)Abstract: This thesis researches the wireless location algorithms based on time-related measurements in thWireless Cellular Network. By analyzing existing basic techniques and algorit hms in wireless location this thesisselects the TDOA algorithm for emp hases of research. First, we int roduce two typical al gorithms as Taylor algo-rithm and chan algorithm. Furthermore, we analyze and compare them by simulation under some commonmobile channel environment. In order to eval uate the performance of the two basic al gorithms in detail, the perfect channel and two typical mo bile communication channel model (CoST 259 and TiPl)are employed for future detailed simulation. In simulations, many relative parameters w hich may effect the performance of the loca-tion algorithms are examined, such as the cell size, the number of the base stations taking part in the locationservice, equip ment measurement errors, NLOS effect etcKey words: Time of Arrive (TOA); Difference Time of Arrive( TDOA); Angel of Arrive(AOA); NLOS error(上接第18页)Error code protection and scheme of Turbo code forwreless video frequency transmissionXU Hua, DONG Yirning, XIA YangCollege of Communication and Information EngineeringNanjing University of Posts and Telecommunications, Nanjing 210003, China)Abstract The characteristics of wireless channel such as time- variety and high BER requires not only strongerror correcting capability of channel coding method but also the ability to adjust bit rate according to the state ofwireless channel. The Rate Compatible Turbo code (RCP T)can fulfill such requirement, and protect video fre-quency stream with tr- s interleaver. The application of rCPt over the mo bile communication channel is intro-duced, and new schemes about adaptive coding system and unequal error protection are discussedKey words: Turbo codes; RCPT codes; puncture table, unequal error protectionC1994-2010ChinaAcademicJournalElectronicPublishingHouse.Allrightsreservedhttp://www.cnki.net
    2020-11-28下载
    积分:1
  • Javaweb房屋租赁管理信息系统毕业设计下载
    Javaweb房屋租赁管理信息系统毕业设计下载
    2020-12-04下载
    积分:1
  • 模块化多电平换流器Simulink模型
    simulink仿真。36电平。仿真精度可调。附带参考英文文献。
    2020-11-02下载
    积分:1
  • Google word2vec算法 数学原理
    文档是 word2vec 算法 数学原理详解。word2vec是google的一个开源工具,能够仅仅根据输入的词的集合计算出词与词直接的距离,既然距离知道了自然也就能聚类了,而且这个工具本身就自带了聚类功能,很是强大。32预备知识本节介绍word2v中将用到的一些重要知识点,包括 sigmoid函数、 Bccs公式和Huffman编码等821 sigmoid函数sigmoid函数是神经网络中常用的激活函数之一,其定义为1+e该函数的定义域为(-∞,+∞),值域为(0,1).图1给出了 sigmoid函数的图像0.56图1 sigmoid函数的图像sigmoid函数的导函数具有以下形式(x)=0(x)1-0(x)由此易得,函数loga(x)和log(1-0(x)的导函数分别为log a(a)-1 a(a),log(1 o(a))l-a(a),(2.1)公式(2.1)在后面的推导中将用到32.2逻辑回归生活中经常会碰到二分类问题,例如,某封电子邮件是否为垃圾邮件,某个客户是否为潜在客户,某次在线交易是否存在欺诈行为,等等设{(x;)}温1为一个二分类问题的样本数据,其中x∈Rn,∈{0,1},当v=1时称相应的样本为正例当v=0时称相应的样本为负例利用 sigmoid函数,对于任意样本x=(x1,x2,…,xn),可将二分类问题的 hypothesis函数写成h(x)=o(6o+b1x1+62+…+bnxn)其中θ=(0,61,…,On)为待定参数.为了符号上简化起见,引入x0=1将x扩展为(x0,x1,x2,……,xn),且在不引起混淆的情况下仍将其记为ⅹ.于是,he可简写为取阀值T=0.5,则二分类的判别公式为ho(x)≥0.5:X)=0,ha(x)6),可分别用000001、010、011、100、101对“A,E,R,T,F,D”进行编码发送,当对方接收报文时再按照三位一分进行译码显然编码的长度取决报文中不同字符的个数.若报文中可能出现26个不同字符,则固定编码长度为5(25=32>26).然而,传送报文时总是希望总长度尽可能短.在实际应用中各个字符的出现频度或使用次数是不相同的,如A、B、C的使用颗率远远高于X、Y、Z,自然会想到设计编码时,让使用频率高的用短码,使用频率低的用长码,以优化整个报文编码为使不等长编码为前缀编码(即要求一个字符的编码不能是另一个字符编码的前缀),可用字符集中的每个字符作为叶子结点生成一棵编码二叉树,为了获得传送报文的最短长度,可将每个字符的岀现频率作为字符结点的权值赋于该结点上,显然字使用频率越小权值起小,权值越小叶子就越靠下,于是频率小编码长,频率高编码短,这样就保证了此树的最小带权路径长度,效果上就是传送报文的最短长度.因此,求传送报文的最短长度问题转化为求由字符集中的所有字符作为叶子结点,由字符出现频率作为其权值所产生的 Huffman树的问题.利用 Huffman树设计的二进制前缀编码,称为 Huffman编码,它既能满足前缀编码的条件,又能保证报文编码总长最短本文将介绍的word2ve工具中也将用到 Huffman编码,它把训练语料中的词当成叶子结点,其在语料中岀现的次数当作权值,通过构造相应的 Huffman树来对每一个词进行Huffman编码图3给岀了例2.1中六个词的 Huffman编码,其中约定(词频较大的)左孩子结点编码为1,(词频较小的)右孩子编码为0.这样一来,“我”、“喜欢”、“观看”、“巴西”、“足球”、“世界杯”这六个词的 Huffman编码分别为0,111,110,101,1001和100000欢观有巴西足球图3 Huffman编码示意图注意,到目前为止关于 Huffman树和 Huffman编码,有两个约定:(1)将权值大的结点作为左孩子结点,权值小的作为右孩子结点;(②)左孩子结点编码为1,右孩子结点编码为0.在word2vee源码中将权值较大的孩子结点编码为1,较小的孩子结点编码为θ.为亐上述约定统一起见,下文中提到的“左孩子结点”都是指权值较大的孩子结点3背景知识word2vec是用来生成词向量的工具,而词向量与语言模型有着密切的关系,为此,不妨先来了解一些语言模型方面的知识83.1统计语言模型当今的互联网迅猛发展,每天都在产生大量的文本、图片、语音和视频数据,要对这些数据进行处理并从中挖掘出有价值的信息,离不开自然语言处理( Nature Language processingNIP)技术,其中统计语言模型( Statistical language model)就是很重要的一环,它是所有NLP的基础,被广泛应用于语音识别、机器翻译、分词、词性标注和信息检索等任务例3.1在语音识别亲统中,对于给定的语音段Voie,需要找到一个使概率p(Tcrt| Voice最大的文本段Tert.利用 Bayes公式,有P(Teact Voice)p(VoiceTert)p(Text)P(Veonce其中p( Voice Teat)为声学模型,而p(Tert)为语言模型(l8])简单地说,统计语言模型是用来计算一个句子的概率的概率模型,它通常基于一个语料库来构建那什么叫做一个句子的概率呢?假设W=m1:=(n1,w2,…,tr)表示由T个词1,2,…,ur按顺序构成的一个句子,则n,U2,…,wr的联合概率p(W)=p(u1)=p(u1,u2,…,r)就是这个句子的概率.利用 Baves公式,上式可以被链式地分解为1)=p(u1)·p(u2l1)·p(vai)…p(ur1-)3.1其中的(条件)概率p(1),p(U2mn1),p(u3),…,p(urln1-1)就是语言模型的参数,若这些参数巳经全部算得,那么给定一个句子1,就可以很快地算出相应的p(1)了看起来妤像很简单,是吧?但是,具体实现起来还是有点麻烦.例如,先来看看模型参数的个数.刚才是考虑一个给定的长度为T的句子,就需要计算T个参数.不妨假设语料库对应词典D的大小(即词汇量)为N,那么,如果考虑长度为T的任意句子,理论上就有N种可能,而每种可能都要计算T个参数,总共就需要计算TN个参数.当然,这里只是简单估算,并没有考虑重复参数,但这个量级还是有蛮吓人.此外,这些概率计算好后,还得保存下来,因此,存储这些信息也需要很大的內存开销此外,这些参数如何计算呢?常见的方法有 II-gram模型、决策树、最大熵模型、最大熵马尔科夫模型、条件随杋场、神经网络等方法.本文只讨论n-gram模型和神经网络两种方法.首先来看看n-gram模型32n-gram模型考虑pko4-)(k>1)的近似计算.利用 Baves公式,有p(wr wi)P(uP(w根据大数定理,当语料库足够大时,p(k4-1)可近似地表示为P(wwi)count(wi)(3.2)count(a其中 count(u4)和 count-)分别表示词串t和v-在语料中出现的次数,可想而知,当k很大时, count(o4)和 count(4-1)的统计将会多么耗时从公式(3.1)可以看出:一个词出现的慨率与它前面的所有词都相关.如果假定一个词出现的概率只与它前面固定数目的词相关呢?这就是n-gran模型的基本思想,它作了一个n-1阶的 Markov假设,认为一个词出现的概率就只与它前面的n-1个词相关,即-1)≈p(kk-1+),于是,(3.2)就变成了p(wxJuk-)count(n+1countri(3.3以〃=2为例,就有p(uk4-1)≈count(k-1, Wk)count(Wk-1)这样一简化,不仅使得单个参数的统计变得更容易(统计时需要匹配的词串更短),也使得参数的总数变少了那么, n-gran中的参数n取多大比较合适呢?一般来说,n的选取需要同时考虑计算复杂度和模型效果两个因素表1模型参数数量与n的关系模型参数数量1( ingram)2×1052(bigram)4×10103( trigram)8×10154(4grm)16×10在计算复杂度方面,表1给出了n-gram模型中模型参数数量随着n的逐渐增大而变化的情况,其中假定词典大小N=2000(汉语的词汇量大致是这个量级).事实上,模型参数的量级是N的指数函数(O(N"),显然n不能取得太大,实际应用中最多的是采用n=3的三元模型在模型效果方面,理论上是π越大,效果越奷.现如今,互联网的海量数据以及机器性能的提升使得计算更高阶的语言模型(如n>10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外, n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若 count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若 count(kn+)= count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料( Corpus), Context(u)表示词U的上下文( Context),即周边的词的集合.当 Context(u)为空时,就取p( Context(w)=p(u).特别地,对于前面介绍的 n-gran模型,就有 Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑ logp(u( ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p( CONtex()已被视为关于和 Context()的函数,即p(w Context(w))= F(w, Conteact(w), 0)
    2020-06-14下载
    积分:1
  • LABVIEW中调用halcon的简单说明
    PDF文档,详细介绍了如何在LABVIEW中调用halcon(配图说明)。
    2020-11-29下载
    积分:1
  • hog_svm_train_python
    hog_svm采用Python实现训练,同时在训练的过程中提取hardexample进行进一步训练,获得了较为理想的效果,当然如果需要进一步优化还是有较大优化空间的。
    2020-12-06下载
    积分:1
  • libsvm工具包(含网格法查找最优解函数 SVMcgForClass.m 内用svmtrain函数)
    在其中的windows文件夹中
    2020-12-05下载
    积分:1
  • 696518资源总数
  • 105540会员总数
  • 37今日下载