CX-Protocol协议宏操作手册(中文)
CX-Protocol协议宏操作手册(中文)欧姆龙协议通信声明:OMRON公司生产的产品应由合格的操作员按正确步骤使用,并且仅用于本手册中所描述的用途本手册中的以下约定用于指明手册中的注意事项并对其进行分类。请务必注意这些约定所规定的情况。疏忽这些事项会导致人身伤害或产品损坏。危险表示若不遵守,将很有可能导致死亡或严重受伤的事项。此外,还可能会造成严重的财产损害。警告表示若不遵守,将有可能导致死亡或严重受伤的事项。此外,还可能会造成严重的财产损害。注意表示若不遵守,将有可能导致相对较严重或轻度受伤、产品损坏或故障运行的事项。OMRON产品附注在本手册中,所有 OMRON产品均以大写字母表示。当“Unit”用于指称 OMRON产品名称时,不管它是否是产品的正式名称,也以大写字母表示。缩写“Ch”出现在某些显示和某些 OMRON产品中时,往往表示“字”。在这个意义上,文件中缩写为“Wd”。缩写“PLC”表示“可编程序控制器”,缩写“PC”表示个人计算机并且不月作任何其它词语的缩写。缩写“PMSU”表示“协议宏支持单元”,是指用于C200HX/HG/HE的通信板、用于CS的串行通信板和用于CSCJ的串行通信单元。直观标题出现在本手册左侧的下列标题用于帮助区分不同类型的信息。注表示对产品操作的有效性和方便性特别重要的信息。犭,23..1.表示各个类别的列举说明,例如操作步骤、检查表等。C OMRON, 2008版权所有。未经 OMRON公司事先书面允许,不得将本出版物的任何部分以任何形式或任何方式(机械、电子、照相、录制或其它方式)进行复制、存入检索系统或传送。使用本手册所包含的信息不负专利责任。由于 OMRON公司始终致力于改进其高质量产品,所以本手册所包含的信息可随时改变而不另行通知。虽然在编制本手册时收录了每种可能的注意事项,但对于仍然可能出现的错误或遗漏, OMRON公司不承担任何责任。同样, OMRON公司对于因使用本手册所包含的信息而造成的损害也不承担任何责任。目录注意事项■曹■■D■■XXIII阅读对象XXI2般注意事项3安全注意事项4运行环境注意事项xxx5应用注意事项6软件操作步骤第1章1-1CX- Protocol概述1-2特点.1-3支持的PLC型号和个人计算机系统配置1-5协议宏1-6协议宏结构1-7由CX- Protocol创建的数据171-8CX- Protocol的主画面181-9项目创建概要211-10整合的标准系统协议1-11协议宏使用的基本步骤1-12规格301-13协议宏之间的差异32第2章安装/卸载/启动/结束352-1连接到PLC362-2安装和卸载软件39启动392-4关闭402-5用户界面概要40第3章协议宏513-1协议宏概要3-2序列属性(所有步通用).3-3步属性783-4通信报文属性893-5创建矩阵1053-6标准系统协议示例1083-7通信序列示例1103-8执行一个已创建的通信序列CS/CJ3-9执行一个已创建的通信序列(C20HXHG/HE)1203-10辅助区和数据分配区..126第4使用协议宏功能1394-1协议宏功能的应用范围.1404-2协议创建过程1424-3传送控制模式设置目录4梯形图编程方法1474-5监测时间的计算方法1586运行确认1604-7协议执行时发生的错误1614-8通信响应时间性能1694-9循环时间执行l81第5章创建目标1835-1创建项目和协议1845-2创建序列和步····1885-3创建报文和被动响应1895-4系统协议显示和编辑191第6章项目和协议编辑.1936-1编辑项目.1946-2编辑协议196第7章设定和编辑序列,,,,,,,,,,,,,,,,,,,,,1977-1设定序列1987-2编辑序列第8设定和编辑步2078-1步设定2088-2步编辑.214第9章设定和编辑报文和矩阵列表,,2179-1创建报文9-2创建矩阵2329-3报文和矩阵编辑233第10章通信PLC设置和在线237l0-1PLC系统构成.10-2个人计算机和PLC之间的通信设定23910-3在线与模式变更24610-4调制解调器连接10-5创建IO表10-6PMSU通信端口设定10-7将通信端口设定数据传送至PLC第11章传送和打印协议数据26111-1计算机和PMSU之间传送和读取协议数据.26211-2打印协议26711-3从PST/PSS文件导入协议数据26911-4CSCJ协议和C200HXHG/HE协议271目录第12章跟踪和监测27312-1跟踪传送线路27412-2PLC存储器窗口概要27812-3ⅠO存储器显示和编辑12-4IO存储器监测28812-5IO存储器传送和对比293第13章错误和出错日志显示297第14故障诊断305第15章帮助313附录附录A创建协议应用程序附录BPLC设置和PMSU设定329附录C对RS-232C电缆连接器进行配线335修订记录,,,,,,,,,,,,,339目录关于本手册:CⅩ- Protocol是协议宏功能的支持软件。本手册对CX- Protocol的安装和操作进行说明。手册中包含下述章节。本手册供下列人员使用负责安装FA设备的人员设计FA系统的人员管理FA设施的人员名称样本编号内容提要CXONE-AL C-V4/AL D-V4W344描述使用CX- Protocol来生成协议宏作为通信序列,从而与外部设CX-Protocol本手册)备进行通信的方法。(本手册)操作手册CXONE-AL C-V4/AL D-V4W463CX- One fa整合工具包的安装和概要。CX-One设置手册SYSMAC CS/C J系列W336描述使用串行通信单元和通信板与外部设备进行串行通信的方法CSIW-SCB 1-V1 CSIW-SCU1-V1(包括使用 OMRON产品的标准系统协议)CJIW-SCU 1-VI CJIW-SCU 2串行通信板和串行通信单元操作手册SYSMAC CS/CJ/CP/NS.J系列W342描述 CS/CJ/CP系列PC和NSJ系列控制器使用的C系列(上位链CSIG/H-CPU H接)和FIⅠNS通信命令。SIG/H-CPU -EVICSID-CPUCSIW-SCU -VIC J2H-CPU6 -EIPC. 12H-CPU6C J2M-CPU1C 2M-CPU3C J1H-CPU H-RCJIC/H CPU HCJIG-CPU PCJIG-CPUC JIM-CPUC -V1CPIL-MILCPIH-XCPIH-XACPIH-YCPlE-ED一CPlE-ND一NSI-(B)-G5DBM3D通信指令参考手册SYSMAC CJ系列W472提供CJ系列C2CPU单元的设计、安装、维护和其它基本操作的CJ2H-CPU6 -EIP概要及详细描述。C J2H-CPU6包含下述信息C 2M-CPUl概述和功能C J2M-CPU3系统配置可编程序控制器安装和配线硬件操作手册故障诊断请将本手册与W473结合使用SYSMAC CI系列W473描述使用CJ2CPU单元的编程和使用其功能的其它方法。C J2H-CPU6 -EIP包含下述信息C J2H-CPU6C J2M-CPUl内部存储区C J2M-CPU3可编程序控制器软件操作手册CPU单元内置功能请将本手册与W472结合使用。SYSMAC CS系列W339描述CS系列PLC的安装和操作。CSIG/H-CPU HCSIG/H-CPU -EVI可编程序控制器操作手册名称样本编号内容提要SYSMAC CJ系列W393描述CJ系列PIC的安装和操作CJlH- CPU H-E、CJ1G/H-CPUH、CJ1G-CPUP、CJ1G-CPUCJIM-CPU可编程序控制器SYSMAC CS/CJ/NS.系列W394描述CSCJ/NSJ系列PLC的编程和使用其功能的其它方法。CSI G/H-CPU H. CSIG/H-CPU -EVI包含下述信息CSID-CPUH、CS1D-CPUS编程CJIH-CPUH-R、CJ1G/H-CPUH、任务CJlG-CPUP、CJlG-CPU文件存储器CJ1M-CPU其它功能B)-M3D将本手册与《 SYSMAC CS系列操作手册》(w339)或《 SYSMAC可编程序控制器CJ系列操作手册》(W393结合使用。扁程手册YSMAC CS/CI系列W474描述CsCJ系列或NSJ系列PLC所支持的梯形图编程指令。CSIG/H-CPU编程时,请将本手册与《操作手册》或《硬件操作手册》(CSICSIG/H-CPU HW339,CJ1:W393或C』2W472)和《编程手册》或《软件操作CSID-CPUH、CSlD-CPU手册》CSl/CJ:W394或CJ2:W473)结合使用。CJ2H-CPU6 -EIP, C.J2H-CPU6CJ2M-CPUI、CJ2M-CPU3CJ1H-CPU H-RCJ1G-CPU CJIG/H-CPU HCJ1G-CPUP、 CJIM-CPUYSMAC One Ns.J系列B)-G5D(B)-M3D可编程序控制器令参考手YSMAC CP系列450对CP系列提供了以下几个方面的信息CPIH-X概述/特性CPIH-XA·系统配置CPIH-Y安装和配线I/O存储器分配CPIH CPU单元操作手册故障诊断将本手册与《CPIH可编程序控制器编程手册》(W451)结合使用。系列W452对NSJ系列NSJ控制器提供了以下几个方面的信息NSJ5-tQ B)-G5D, NSJ5-SQ (B)-G5D概述和功能NSJ8-TV(B)-G5D, NSJ10-TV(B)-G设计系统配置NSJ12-Ts(B)-G5D、NS5-TQ(B)-M3D、安装和配线SJ5sQ(B)M3D、 NSJ8 T存储器分配NSJW-ETN21、NSJW-CLK21-V1、故障诊断与维护NSJW-IC1Ol请将本手册与下述手册结合使用:《 SYSMAC CS系列操作手册》操作手册W339《SMAC CJ系列操作手册》YSMAC CS/C.系列编程于册》(W394)和《Ns-V1/V2系列设置于册)(V083)SYSMAC CP系列W451对CP系列提供了以下几个方面的信息CPIH-X40D一编程指CPIH-XA40D·编程方法CPlH-Y2ODT-D任务CPIL-I14D一文件存储器功能CPIL L2OD请将本手册与《CP系列 CPIH CPU单元操作手册》(W450)和《CPCPIL-M3OD系列 CPIL CPU单元操作手册》(W462)结合使用。CPIL-M4ODCPIH和 CPIL CPU单元编程手册XONE-AL C-V4/AL D-V4W446提供了有关如何使用 CX-Programmer(一种支持CS(J系列PLC的编程设备)以及CX- Programmer中所包含的CX-Net的信息手册AC CS/CJ系列W341提供有关如何使用编程器对CSCJ系列PLC进行编程和操作的信CQMIH-PRO-EIC200H-PRO27-E CQMI-PROOI-E扁稈器作手册
- 2020-12-10下载
- 积分:1
卷积神经网络CNN学习笔记 pdf
个人整理的CNN学习笔记,所有素材均来自于互联网。把经典的摘之以作备案,待整理好这份笔记后,发现对CNN也有了深入理解,希望对你也有帮助!LOCALLY CONNECTED NEURAL NETCONVOLUTIONAL NETSTATIONARI? Statisties issimilar at dif ferent locationsLearn multiple filters.Example: 1000x1000 image1M hidden unitsFilter size: 10x10E.g. 1000x1000 image100M parameters100 FiltersFilter size: 10x10u鴻網互聯EEIDEE下面的分析来源于:htp/ log csdn. net/zouxy09/ article/details,/8781543我们知道,隐含层的每一个神经元都连接10x10个图像区域,也就是说每一个神经元存在10x10=100个连接权值参数。那如果我们每个神经元这100个参教是相同的呢?也就是说每个神经元用的是同一个卷积核去卷积图像。这样我们就只有多少个参数??只有100个参数啊!!!亲!不管你隐层的神经元个数有多少,两层间的连接我只有100个参数啊!亲!这就是权值共享啊!亲!这就是卷积神经网络的主打卖点啊!亲!(有点烦了,呵呵)也许你会问,这样做靠谱吗?为什么可行呢?好了,你就会想,这样提取特征也忒不靠谱吧,这样你只提取了一种特征啊?对了,頁聪明,我们需要提取多种特征对不?假如一种滤波器,也就是一种卷积核就是提出图像的一种特征,例如某个方向的边缘。那么我们需要提取不同的特征,怎么办,加多几种滤波器不就行了吗?对∫。所以假设我们加到100种滤波器,每种滤波器的参数不一样,表示它提出输入图像的不同特征,例如不同的边缘。这样每种滤波器去卷积图像就得到对图像的不同特征的放映,我们称之为 Feature Map。所以100种卷积核就有100个 Feature Map。这100个 Feature Map就组成了一层神经元。到这个时候明了了吧。我们这一层有多少个参数了?100种卷积核x每种卷积核共享100个参数=100×100=10K,也就是1万个参数。才1万个参数啊!亲!(又来了,受不了了!)见上图右:不同的颜色表达不同的滤波器嘿哟,遗漏一个问题了。刚才说隐层的参数个数和隐层的神经元个数无关,只和滤波器的大小和滤波器种类的多少有关。那么隐层的神经元个数怎么确定呢?它和原图像,也就是输入的大小(神经元个数)、滤波器的大小和滤波器在图像中的滑动步长都有关!例如,我的图像是1000×1000像素,而滤波器大小是10×10,假设滤波器没有重叠,也就是步长为10,这样隐层的神经元个数就是(1000×1000y(10×10}=100×100个神经元了,假设步长是8,也就是卷积核会重叠两个像素,那么……我就不算了,思想懂了就好。注意了,这只是一种滤波器,也就是一个 Feature Map的神经元个数哦,如果100个 Feature Map就是100倍了。由此可见,图像越大,神经元个数和需要训练的权值参数个数的贫富差距就越大。CONV NETS: EXTENSIONSBypool ing"(e. g. max or average)filterresponses at different locations we gain Over the years. some new medes have proven to be veryrubustness to the exact spatial location effective when plugged inte corv-netsof featuresL2 PoolingU, kEN(x,r)Local Contrast normalizationhN(x y)iN(xvIRenato总之,卷积网络的核心思想是将:局部感受野、权值共享(或者权值复制)以及时间或空间亚采样这三种结构思想结合起来获得了某种程度的位移、尺度、形变不变性。23实例视觉皮层存在两类相关的细胞,S细胞( Simple Cel)和C( Complex Cell)细胞。S细胞在自身的感受野内最大限度地对图像中类似边缘模式的剌激做出响应,而C细胞具有更大的感受野,它可以对图像中产生刺激的模式的空间位置进行精准地定位C是卷积层,S是下采样层。参看这个两个网址,对理解CNN非常有帮助http://www.68idc.cn/help/buildlang/ask/20150705417730.htmlhttp://www.68idc.cn/help/buildlang/ask/20150705419299.html涵pC1s2c384江蘇鴻網互刷三 -TOLERc是卷积层,S是下采样层。输入的一幅图像,在C1层,通过和3个卷积模板做卷积运算,然后加上偏置值,再经过 sigmoid激活函数,得到3幅输出图像,在S2层,对C1层输出的3幅图像做下采样,假设采样因子是2,也就是图中每2*2的 patch中的4个像素进行求和,再加偏置,再通过激活函数,得到3张尺寸减小了的输出图像。同样的,再经过C3S4。将S4的输出拉成一个向量,输入传统的神经网络中,并得到输出24综合实例G1: feature maps8@28X28C3: f. mapInp ut20@10x1032×32S1: f. mapsS4: f. maps@14x1420@5x5C5:120Output: 9ConvolutionsSubsamplingSubsamplingconnectionConvolutions og. Csdn. n Convolutions 688图中的卷积网终Ⅰ作流程如下,输入层由32×32个感知节点组成,接收原始图像。然后,计算流程在卷积和子抽样之间交替进行,如下所述·第一隐藏层进行卷积,它由8个特征映射组成,每个特征映射由28×28个神经元组成,每个神经元指定一个5×5的接受域,这28×28个神经元共享5×5个权值参数,即卷积核第二隐藏层实现子抽样和局部平均,它同样由8个特征映射组成,但其每个特征映射由14×14个神经元组成。每个神经元具有一个2×2的接受域,一个可训练系数,一个可训练偏置和一个 sigmoid激活函数。可训练系数和偏置控制神经元的操作点;第三隐藏层进行第二次卷积,它由20个特征映射组成,每个特征映射由10×10个神经元组成。该隐藏层中的每个神经元可能具有和下一个隐藏层几个特征映射相连的突触连接,它以与第一个卷积层相似的方式操作。第四个隐藏层进行第二次子抽样和局部平均汁算。它由20个特征映射组成,但每个特征映射由5×5个神经元组成,它以与第一次抽样相似的方式操作。●第五个隐藏层实现卷积的最后阶段,它由120个神经元组成,每个神经元指定一个5×5的接受域。最后是个全连接层,得到输出向量。综合起来,如下图山辆入员/閩张38的圈像辆入|种特图到C28×28KD卷,:对应位遇相森再未和⊙如偏置每种图有个偏置a老积层f同治减函数6↑5的卷铝kC6个偏置值b输邶钟培钲图24X0mno:22域的值平均坐smle=2辆入6种征图列12|2k2个55的着核kKk22个偏置值b辆出12钟特钲图8×88×g年怦居D mean pooL斜样9=2s输出口钟特征图4x叶把S园輪出的特征图垣成一年向量入,维,:平4x×12=12F房入节点有2个192资接的神经刚络W1,09W参教W:20×192矩阵爹教bho0x1向量oh辆出节点有个,国为baby的度是o·上图中28如何变成24的?12如何变成8的?详情见这个网址:hto:/ud. stanfordedu/wki/ index. php/ Featureextractionusing convolution这个过程中,有这么几个参数:a.深度 depth:神经元个数,决定输出的dept厚度。同时代表滤波器个数。*b.步长 stride:决定滑动多少步可以到边缘。C.填充值zero- padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除。最左边一列是输入层,第二列是第一个滤波器(W0),第三列是第二个滤波器(W1),第四列是输出层。*该图有两个神经元,即 depth=2,意味着有两个滤波器数据窗口每次移动两个步长取3*3的局部数据,即stde=2。zero-padding=13cNN的激励层与池化层ReLU激励层不要用 sigmoid,因为它容易饱和、造成终止梯度传递,且没有0中心化ReLU的优点是收敛快,求梯度简单。·池化poo层池化,简言之,即取区域平均或最大,如下图所示Single depth slice1124Xmax pool with 2X2 filters5678 and stride 26832234304y参考文献:·htp:/ yann lecun. com/exdb/lenet/index. html( Yann securη实现的CNN演示,以动画的形式演示了位移、加噪、旋转、压缩等识别,最有价值的是把隐层用图像显示出来了,很生动形象)
- 2021-05-07下载
- 积分:1