登录
首页 » Others » 哈工大丁振良老师的仪器精度理论教材

哈工大丁振良老师的仪器精度理论教材

于 2020-12-07 发布
0 256
下载积分: 1 下载次数: 1

代码说明:

哈工大丁振良老师的仪器精度理论教材,十分具有实用价值

下载说明:请别用迅雷下载,失败请重下,重下不扣分!

发表评论

0 个回复

  • 寻路测试2可执行
    实现算法:DFS,BFS,双向BFS,一个自己的启发式,Bellman-Ford,Dijkstrra,SPFA,A*
    2020-11-30下载
    积分:1
  • ESP8266-12E说明书
    esp8266-12E的说明书,PDF文档,其他地方不大容易找的。EsP-12E规格书目录1.产品概述21.1.特点1.2.主要参数………垂4由非垂·······:·2.接口定义……4573.外型与尺寸……4.功能描述41. MCU4.2.存储描述99994.3.晶振4.4.接口说明………………104.5.最大额定值4.6.建议工作环境……114.7.数字端口特征115.RF参数126.功耗……………137.倾斜升温……148.原理图…非垂非9.产品试用16深圳市安信可科技有限公司http://www.ai-thinker.comEsP-12E规格书1.产品概述ESP-12EWFⅰ模块是由安信可科技开发的,该模块核心处理器ESP8266在较小尺寸封装中集成了业界领先的 Tensilica l106超低功耗32位微型McU,带有16位精简模式,主频支持80MHz和160MHz,支持RTOS,集成Wi- FI MAC/BB/RF/ PA/LNA,板载天线。该模块攴持标准的IE802.11b/g/n协议,完整的τcPP协议栈。用户可以使用该模块为现有的设备添加联网功能,也可以构建独立的网络控制器ESP8266是高性能无线SOC,以最低成本提供最大实用性,为WⅰFi功能嵌入其他系统提供无限可能。射频MAC接口接收模拟接收匚寄存器」SPI射频CPU内核发射模拟发射心成帧器GPIO加速器12C锁相环H(co)12锁相环电源管理晶振偏置电路SRAM电源管理图1ESP8266EX结构图ESP8266EX是一个完整且自成体系的WF网络解决方案,能够独立运行,也可以作为从机搭载于其他主机McU运行。ESP8266EⅩ在搭载应用并作为设备中唯一的应用处理器时,能够直接从外接闪存中启动。内置的高速缓冲存储器有利于提高系统性能,并减少內存需求。另外一种情况是,ESP8266EX负责无线上网接入承担WiFi适配器的任务时,可以将其添加到任何基于微控制器的设计中,连接简单易行,只需通过SPI/SDO接口或I2 C/UART口即可。ESP8266EX强大的片上处理和存储能力,使其可通过GPIO口集成传感器及其他应用的特定设备,实现了最低前期的开发和运行中最少地占用系统资源。ESP8266EⅩ高度片内集成,包括天线开关 balerη、电源管理转换器,因此仅需极少的外部电路,且包括前端模组在內的整个解决方案在设计时将所占PCB空间降到最低。深圳市安信可科技有限公司http://www.ai-thinker.com2EsP-12E规格书有ESP8266EⅩ的系统表现出来的领先特征有:节能在睡眠/唤醒模式之间的快速切换、配合低功率操作的自适应无线电偏置、前端信号的处理功能、故障排除和无线电系统共存特性为消除蜂窝/蓝牙/DDR/ LVDS/LCD干扰。11.特点80211b/g/n·内置 Tensilica l106超低功耗32位微型McU,主频攴持80MHz和160MHz,支持RTOS·内置10bit高精度ADC内置TCPP协议栈内置TR开关、 balun、LNA、功率放大器和匹配网络内置PL、稳压器和电源管理组件,802.11b模式下+20dBm的输岀功率A-MPDU、A-MSDU的聚合和0.45的保护间隔WiFi@2.4GHz,支持 WPA/WPA2安全模式支持AT远程升级及云端OTA升级支持 STA/AP/STA+AP工作模式支持 Smart Config功能(包括 Android和iOs设备)HSPI、UART、I2C、I2S、 IR Remote Control、PWM、GPIo深度睡眠保持电流为10uA,关断电流小于5uA2ms之内唤醒、连接并传递数据包·待机状态消耗功率小于1.0mW(DTM3)工作温度范围:-40℃-125°C深圳市安信可科技有限公司http://www.ai-thinker.com3EsP-12E规格书12.主要参数表1介绍了该模组的主要参数。表1参数表类别参数说明无线标准80211b/g/n无线参数频率范围24GHz-25GHz(2400M24835M)数据接口UART/HSPL/I2C/I2S/Ir Remote ContorlGPIO/PWM工作电压30~36V(建议3.3V)工作电流平均值:80mA工作温度40°~125硬件参数存储温度常温封装大小16mm x 24mm x 3mm外部接口N/A无线网络模式station/softAP/SoftAP+station安全机制WPA/WPA2加密类型WEP/TKIP/AES升级固件本地串口烧录/云端升级/主机下载烧录支持客户自定义服务器软件开发软件参数提供SDK给客户二次开发Ipv4, Tcp/udp/Http/ftp网络协议AT+指令集,云端服务器, Android/iOS APP用户配置深圳市安信可科技有限公司http://www.ai-thinker.com4EsP-12E规格书2.接口定义ESP-12E共接出18个接口,表2是接口定义。图2ESP-12E管脚图. RXDEN(CH-PD..GPIOSGPIO16.a.. GPIO4ESP-12EGPIO14..D GPIOOGPIo12·。◆GPIo2GPIO13.aD GPIO15ESP 12E表2ESP-12E管脚功能定义序号Pin脚名称功能说明1RST复位模组ADOA/D转换结果。输入电压范围0~1V,取值范围:0~1024EN芯片使能端,高电平有效4IO16GPIO16;接到RST管脚时可做 deep sleep的唤醒5IO14GPIO14: HSPI CLKIO12GPIO 12, HSPI MISOIO13GPIO13 HSPI MOSI: UARTO CTSVCC33V供电CSO片选10MISO从机输出主机输入深圳市安信可科技有限公司http://www.ai-thinker.com5EsP-12E规格书109GPIo912IO10GBIO1013MOSI主机输出从机输入14SCLK时钟15GNDGND16IO15GPIO15: MTDO: HSPICS: UARTO RTS17102GPIo2: UART1 TXD18IOOGPIOO19IO4GPIO420IO5GPIO521RXDUARTO RXD: GPIO322TXDUARTO TXD: GPIO1表3引脚模式模式GPIO15GPIOG PIO2UART下载模式低低局Flash boot模式表4接收灵敏度参数最小小值典型值最大值单位输入频率24122484MHZ输入电阻输入反射-10dB72.2Mbps下,PA的输出功率141516d Bm深圳市安信可科技有限公司http://www.ai-thinker.com6EsP-12E规格书11b模式下,PA的输出功率17.518.519.5d Bm灵敏度DSSS, 1 Mbps98d BmCCK, 11 Mbps-91d Bm6 Mbps(1/2 BPSK93d Bm54 Mbps (3/4 64-QAM)75d BmHT20, MCS7(65 Mbps, 72.2 Mbps)72d Bm邻频抑制OFDM, 6 Mbps37dBOFDM, 54 Mbps21dHT20, MCSO37dBHT20. MCS7dB3.外型与尺寸ESP-12E贴片式模组的外观尺寸寸为16mm*24mm*3mm(如图3所示〉该模组采用的是容量为4MB,封装为SOP-210mi的 SPI Flash。模组使用的是3DBⅰ的PCB板载天线。深圳市安信可科技有限公司http://www.ai-thinker.comEsP-12E规格书图3ESP-12E模组外观CAr个ESP-12E5m2mt3mm图4ESP-12E模组尺寸平面面图表5ESP-12E模组尺寸对照表长宽PAD尺寸(底部)Pin脚间距16 mm24 mm3 mm0.9 mm x 1.7 mm 2 mm深圳市安信可科技有限公司http://www.ai-thinker.com8
    2020-12-04下载
    积分:1
  • MTEX迷你教(科技论文写作)
    迷你教程,易懂。从下载到安装到使用,以及简单的命令使用。
    2020-12-08下载
    积分:1
  • QT5串口上位机源代码
    QT5.5编写的串口上位机程序,实现了串口收发,波特率设置等功能
    2020-12-05下载
    积分:1
  • 双馈风力发电机并网
    仿真小型双馈异步风力发电机并网,并且表达出其输出特性
    2021-05-09 16:58:35下载
    积分:1
  • 反向传播算法推导—全连接神经网络
    反向传播算法是人工神经网络训练时采用的一种通用方法,在现代深度学习中得到了大 规模的应用。全连接神经网络(多层感知器模型,MLP),卷积神经网络(CNN),循环神 经网络(RNN)中都有它的实现版本。算法从多元复合函数求导的链式法则导出,递推的 计算神经网络每一层参数的梯度值。算法名称中的“误差”是指损失函数对神经网络每一层 临时输出值的梯度。反向传播算法从神经网络的输出层开始,利用递推公式根据后一层的误 差计算本层的误差,通过误差计算本层参数的梯度值,然后将差项传播到前一层(w, x,)+b这个神经元接受的输入信号为向量(),向量()为输入向量的组合权重,为徧置项,是标量。神经儿对输入冋量进行加权求和,并加上偏置项最后经过激活函数变换产生输出为表述简洁,我们把公式写成向量和矩阵形式。对每个神经元,它接受的来自前一层神经元的输入为向量,本节点的权重向量为,偏置项为,该神经元的输出值为先计算输入向量与权重向量的内积,加上偏置项,再送入一个函数进行变换,得到输出这个函数称为激活函数,典型的是函数。为什么需要激活函数以及什么样的函数可以充当激活函数,在之前的公众号文章“理解神经网终的激活函数”中已经进行了介绍。神绎网络一般有多个层。第一层为输入层,对应输入向量,神绎元的数量等于特征向量的维数,这个层不对数据进行处理,只是将输入向量送入下一层中进行计算。中间为隐含层,可能有多个。最后是输出层,神经元的数量等于要分类的类别数,输出层的输岀值被用来做分类预测。下面我们来看一个简单神经网络的例了,如下图所示这个网络有层。第一层是输入层,对应的输入向量为,有个神经元,写成分量形式为(),它不对数据做任何处理,直接原样送入下一层。中间层有个神经元,接受的输入数据为向量,输出向量为,写成分量形式为。第三个层为输出层,接受的输入数据为向量,输出向量为,写成分量形式为()。第一层到第层的权重矩阵为(,第二层到第三层的权重矩阵为()。权重矩阵的每一行为一个权重向量,是层所有神经元到本层某一个神经儿的连接权重,这里的上标表小层数如果激活函数选用函数,则第二层神经元的输出值为+(-(+0)+(1+(0)(-(()第三层神经元的输出值为如果把代入上面二式中,可以将输出向量表示成输出向量的函数。通过调整权重矩阵和偏置项可以实现不同的函数映射,因此神经网终就是一个复合函数需要解决的·个核心问题是·旦神经网络的结构(即神经元层数,每层神经元数量)桷定之后,怎样得到权重矩阵和偏置项。这些参数是通过训练得到的,这是本文推导的核心任务个简单的例子首先以前面的层神经网络为例,推导损失函数对神经网络所有参数梯度的计算方法假设训练样本集中有个样本()。其中为输入向量,为标签向量。现在要确定神经网络的映射函数:什么样的函数能很好的解释这批训练栟本?答案是神经网络的预测输出要尽可能的接近样本的标签值,即在训练集上最小化预测误差,如果使用均方误差,则优化的目标为:∑‖()-其中()和都是向量,求和项内部是向量的范数平方,即各个分量的平方和。上面的误差也称为欧氏距离损失函数,除此之外还可以使用其他损失函数,如交叉熵、对比损失等。优化目标函数的自变量是各层的权重矩阵和梯度向量,一般情况下无法保证目标函数是凸函数,因此这不是一个凸优化问题,有陷入局部极小值和鞍点的风险(对于这些概念和问题之前的公众号文章“理解梯度下降法”,“理解凸优化”中己经做了详细介绍)这是神经网络之前一直被诟病的一个问题。可以使用梯度下降法进行求解,使用梯度下降法需要计算出损失函数对所有权重矩阵、偏置向量的梯度值,接下来的关键是这些梯度值的计算。在这里我们先将问题简化,只考虑对单个样本的损失函数()-‖后面如果不加说明,都使用这种单样木的损失函数。如果计算出了对单个样木损失函数的棁度值,对这些梯度值计算均值即可得到整个目标函数的梯度值。和(要被代入到网络的后一层中,是复合函数的内层变量,我们先考虑外层的和。权重矩阵是一个x的矩阵,它的两个行分别为向量(和是个维的列向量,它的两个元素为()和()。网络的输入是向量,第一层映射之后的输出是向量首先计算损失函数对权重矩阵每个元素的偏导数,将欧氏距离损尖函数展开,有((+))(())6(如果,即对权重矩阵第行的元素求导,上式分了中的后半部分对来说是常数。根据链式法则有S()+()O如果,即对矩阵第二行的元素求导,类似的有:可以统一写成可以发现,第一个下标决定了权重矩阵的第行和偏置向量的第个分量,第二个下标决定了向量的第个分量。这可以看成是一个列向量与一个行向量相乘的结果,写成矩阵形式为上式中乘法⊙为向量对应元素相乘,第二个乘法是矩阵乘法。是个维列向量,+也是一个维列向量,两个向量执行⊙运算的结果还是个维列向量。是一个元素的列向量,其转置为维行向量,前面这个:维列向量与的乘积为的矩阵,这正好与矩阵的尺寸相等。在上面的公式中,权重的偏导数在求和项中由部分组成,分别是网络输出值与真实标签值的误差激活区数的导数+(),本层的输入值。神经网络的输出值、激活函数的导数值本层的输入值都可以在正向传播吋得到,因此可以晑效的计算出来。对所有训练样本的偏导数计算均值,可以得到总的偏导数对偏置项的偏导数为:如果上式分子中的后半部分对来说是常数,有:()⊥()如果类似的有这可以统写成:写成矩阵形式为偏置项的导数由两部分组成,分别是神经网络预测值与真实值之间的误差,激活函数的导数值,与权重矩阵的偏导数相比唯一的区别是少了。接下来计算对和的偏导数,由于是复合函数的内层,情况更为复杂。()是个的短阵,它的个行向量为(),(,(,(。偏置项()是维向量,个分量分别是(),(,(),(。首先计算损失函数对的元素的偏导数:而上式分子中的两部分都有,因此都与有关。为了表述简活,我们令:根据链式法则有:其巾((和和都是标量和()是两个()向量的内积,的每一个分量都是()的函数。接下来计算和这里的一是个向量,衣示的每个分量分别对求导。当时有:后面个分量相对于求导变量(都是常数。类似的当时有:()0)(()和时的结果以此类推。综合起来有:同理有:()十如果令合并得到()()[()-)。()。()写成矩阵形式为()最后计算偏置项的偏导数()类似的我们得到:合并后得到()写成矩阵形式为:(0)至此,我得到了这个简单网络对所有参数的偏导数,接下来我们将这种做法推广到更般的情况。从上面的结果可以看岀一个规律,输出层的权重矩阵和偏置向量梯度计算公式中共用了()-)()对」隐含层也有类似的结果完整的算法现在考虑一般的情况。假设有个训练样本(),其中为输入向量,为标签向量。训练的目标是最小化样木标签值与神经网络预测值之闩的误差,如果使用均方误差,则优化的目标为:其中为神经网络所有参数的集合,包括各层的权重和偏置。这个最优化问题是·个不带约束条件的问题,可以用梯度下降法求解。上面的误差函数定义在整个训练样本集上,梯度下降法每一次迭代利用了所有训练样本,称为批量棁度卜降法。如果样木数量很大,每次迭代都用所有样木进计算成木太高。为了解决这个问题,可以采用单样本梯度下降法,我们将上面的损失函数写成对单个样本的损失函数之和:定义对单个样本()的损失函数为)=-()如果采用单个样本进行迭代,梯度下降法第次迭代时参数的更新公式为:nV如果要用所有样本进行迭代,根据单个样本的损失函数梯度计算总损失梯度即可,即所有样本梯度的均值用梯度下降法求解需要初始化优化变量的值。一般初始化为一个随机数,如用正态分布(a)产生这些随机数,其中G是一个很小的正数到日前为止还有一个关键问题没有解决:日标函数是一个多层的复合函数,因为神经网络中每一层都有权重矩阵和偏置向量,且每一层的输出将会作为下一层的输入。因此,直接计算损失函数对所有权重和偏置的梚度很复杂,需要使用复合函数的求导公式进行递推计算几个重要的结论在进行推导之前,我们首先来看下面几种复合函数的求导。又如下线性映射函数:其中是维向量,是×的矩阵,是维向量。问题:假设有函数,如果把看成常数,看成的函数,如何根据函数对的梯度值Ⅴ计算函数对的梯度值Ⅴ?根据链式法则,由于只和有关,和其他的≠无关,因此有:c∑(对于的所有元素有:写成矩阵形式为:问题:如果将看成常数,将看成的函数,如何根据V计算Ⅴ?由于任意的和所有的都有关系,根据链式法则有写成矩阵形式为这是一个对称的结果,在计算函数映射时用矩阵乘以向量得到,在求梯度时用矩阵的转置乘以的梯度得到的梯度。问题:如果有向量到向量的映射:
    2020-12-09下载
    积分:1
  • 【源码下载】Python数据爬虫及可视化分析
    通过requests抓包方式爬取拉勾网深圳市的数据分析岗位信息,并利用pandas、pyecharts、jieba、WordCloud等工具,从多维度进行岗位数据的可视化分析。
    2020-12-05下载
    积分:1
  • 绕翼型网格生成源
    基于椭圆方程绕,翼型网格生成源程序,生成二维结构网格。
    2020-12-04下载
    积分:1
  • k均值聚类分析matlab代码
    基本思想:首先任意选取K个聚类中心,按最小距离原则将各模式分配到K类的某一类;不断计算聚类中心和调整各模式的类别,最终使各模式到其判属类别中心的距离平方之和最小。
    2020-12-06下载
    积分:1
  • 人机交互 课后答案
    山东大学 研究生 人机交互 课后题答案
    2020-07-02下载
    积分:1
  • 696516资源总数
  • 106450会员总数
  • 5今日下载