登录
首页 » Others » STM32驱动OV2710

STM32驱动OV2710

于 2020-11-28 发布
0 231
下载积分: 1 下载次数: 1

代码说明:

基于STM32F429平台驱动的OV2710摄像头模组。支持1080P、720P、VGA。由于STM32支持的外设频率低于摄像头的默认PCLK,所以有一些特殊的寄存器设置。

下载说明:请别用迅雷下载,失败请重下,重下不扣分!

发表评论

0 个回复

  • 数字集成电路--电路、系统与设计 课后及部分章节答案
    数字集成电路--电路、系统与设计 电子工业出版社第二版 课后题及部分章节答案
    2019-11-22下载
    积分:1
  • JINK最新驱动,支持JLINKV9
    jlink最新官方驱动,支持最新版本JLINK V9,安装多次,均无问题!
    2021-05-06下载
    积分:1
  • 三旋翼机STM32飞控源码
    基于STM32F103系列芯片的三旋翼机飞控,采用SBUS协议与遥控器接收机通信,兼容匿名地面站。
    2020-12-09下载
    积分:1
  • webrtc新版语音流
    webrtc新版语音流程图,visvo画的,详细介绍了整个音视频流程,基于版本M57
    2021-05-06下载
    积分:1
  • 零基础入门c语言pdf文档王桂林老师
    王桂林老师零基础入门C语言pdf文档。可以百度搜索对应的视频,B站上也有上传,直接搜索王桂林就可以。原创作者:王桂林技术交流:QQ3299731691. Hello world1.1.源程序111.C语言版11.2.C++版1.1.3 hello word collection12.注释.11111121.3.从源程序到可执行程序131.集成开发环境:13.2.手动编译14.致敬大师.22352. Linux常用基础命令.…21.版本选择211.内核版木…21.2.发行版本22.目录结构221.系统目求…55668222.分区与目录23.常用命令.10231.命令格式.···+······10232.目录切换233.文件操作…10234.用户管11235.网络命令11236. Ubuntu下软件安装…1124.ⅶim文本编辑11241.vim编辑器中有三种状态模式242.vim编辑器的启动与退出.243.文件操作244.光标移动操作12245.编辑操作1324.6.查找与替换操作.1324.7.学习工具 vimtutor248.vm最简易配置14249.vm与HHKB143C语言与自然语言163.1.语法规则.32.稈序与流稈.1621.程序16322.流程和流程图.323.常用制图工4.常/变量与数据类型( Data Type).·······::·191.C语言中的关键字192.变量 Variable421.变量的定义…原创作者:王桂林技术交流:QQ3299731694.2.2.变量的命名规则:…19423.交换两个变量的内容2042.4.驼峰命名法.2043.内存模型4.3.1.物理基础432.CPU读写内存..2243.3.读写流程:22434.代码演示.234.4.计算机的基石补码..2444.1.计算机编码基础..2444.2.补码的编码规则2444.3.小结264.5.数据类型.∴264.5.1.类型总揽27452.基本类型之数值类型,27453.基本类型之字符类型46.常量( Constant33461.常量类型.462.常量的人小344.7.格式输入与输出4.7. 1. printf.354,7.2 scanf384.7.3. putchar & getchar4.7.4.输入输出缓冲垂,中4··中·;,48.类型转化( Type Cast41481.隐式转化…482.强制转化483.浮点数跟0值比较4.9.练习.44491. printf返回值有意义吗?445.运算符与表达式( Operato&& Express,)··*455.1.运符符的优先级和结合性:455.2.常见运符算符及构成的表达式475.2.1.赋值运算符与赋值表达式..….….…4752.2.算术运算符与算术表达式52.3.关系运算符与关系衣达式52.4.逻辑运算符与逻辑表达式50525.条件运算符与条件表达式525.2.6.逗号运算符与逗号表达式52.7.5 izeof运算符及其表达式5.2.8.小结………………………15453.运算符综合练习5.3.1.f(x==y)与fx=y)之间的区别532.表达式3--3--3的值是多少?原创作者:王桂林技术交流:QQ3299731695.33.表达式100结构体178133.结构体类型定义1791331.无名构造类型1801332.有名构造类型1333.别名构造体类型1811334.小结81134.结构体变量初始化及成员访问.,1811341.初始化及访问821342.成员运算符木质184134.3.赋值185135.结构体数组186135.1.定义及初始化…1352.内存存储形式187135.3.实战…188136.结构体嵌套……13.6.1.结构体中可以嵌套结构体13.6.,2.嵌套结构体变量定义和初始化.…18913.7.结构体类型作参数和返回值.1901371.结构体变量作参数和返回值.37.2.结构体指针作参数190137.3.获取当前时问函数的使用191138.结构体类型的大小4··44·······1921381.结构体成员内存分布…1382.内存对齐1921383.结构体中嵌套构造类型成员的对齐193139.结构体使用注意事项.1931391.向结构体内未初始化的指针拷贝…1392.未释放结构体内指针所指向的空间…139.3.深拷贝与浅拷贝1951310.练习3101.栈的自实现13.11 typedef类型重命名196原创作者:王桂林技术交流:QQ32997316913111. typedef作用13112.定义新类型19613113. typed和# define的区别.·;“····*19713114.小结1981312.类型大总结19814.共用( Union)与枚举(Enum199141.共用体…1991411.类型定义与变量定义.141.2.内存分析1991413.共用体小结…2021414.应用∴202142.枚1421.枚举类型定义2044.2.2.枚举变量与初始化2051423.枚举常量2061424.应用206143.练习20714.31.输山·个整型数握的字符形式…2071432.实现 short类型变量高低位互换….2071433.将下面程序中case分支常量用宏和枚举米实现20715.单向链表List)20915.1.链表价值152.静态链衣.2091521.链表节点定义1522.图示节点2091523.图示链表结构21524.代码实现.210153.动态链衣…2101531.链表图示….2111532.链表名字解释…211533.创建(尾插法)21115.34.创建(头插法)2121535.遍历213153.6.求长度.21315.37.插入2131538.查找1539.删除..21415310.排序21515311.链表反转.21615.3.12.链表销毁21715313.环形链衣……217154.作业.…218541.输入一字符串,用链表形式储存218154.2.用选择法实现单向链袤的排序。2
    2020-11-29下载
    积分:1
  • 网络调试助手C++源码(VS 2008开发)
    基于VS 2008开发的网络调试助手源码,本项目博客地址:https://blog.csdn.net/WU9797/article/details/81194629
    2020-12-10下载
    积分:1
  • 雷达系统分析与建模雷达系统分析与建模
    雷达系统分析与建模雷达系统分析与建模雷达系统分析与建模雷达系统分析与建模雷达系统分析与建模
    2020-11-29下载
    积分:1
  • ffplay for MFC 1.1 (源代码)
    自己做的FFPLAY移植到VC下的开源工程:ffplay for MFC。本工程将ffmpeg项目中的ffplay播放器(ffplay.c)移植到了VC的环境下。并且使用MFC做了一套简单的界面。它可以完成一个播放器播放视频的基本流程:解协议,解封装,视频/音频解码,视音频同步,视音频输出。此外还包含一些控制功能:播放,暂停/继续,前进,后退,停止,逐帧播放,全屏等功能。通过本程序可以学习视频播放器原理,以及SDL和Windows消息机制等。代码中包含了比较详细的注释。1.1版(2014.7.10) * 更换了部分界面 * 原工程支持Unicode编码 * 修复了Release下的
    2020-06-21下载
    积分:1
  • Google word2vec算法 数学原理
    文档是 word2vec 算法 数学原理详解。word2vec是google的一个开源工具,能够仅仅根据输入的词的集合计算出词与词直接的距离,既然距离知道了自然也就能聚类了,而且这个工具本身就自带了聚类功能,很是强大。32预备知识本节介绍word2v中将用到的一些重要知识点,包括 sigmoid函数、 Bccs公式和Huffman编码等821 sigmoid函数sigmoid函数是神经网络中常用的激活函数之一,其定义为1+e该函数的定义域为(-∞,+∞),值域为(0,1).图1给出了 sigmoid函数的图像0.56图1 sigmoid函数的图像sigmoid函数的导函数具有以下形式(x)=0(x)1-0(x)由此易得,函数loga(x)和log(1-0(x)的导函数分别为log a(a)-1 a(a),log(1 o(a))l-a(a),(2.1)公式(2.1)在后面的推导中将用到32.2逻辑回归生活中经常会碰到二分类问题,例如,某封电子邮件是否为垃圾邮件,某个客户是否为潜在客户,某次在线交易是否存在欺诈行为,等等设{(x;)}温1为一个二分类问题的样本数据,其中x∈Rn,∈{0,1},当v=1时称相应的样本为正例当v=0时称相应的样本为负例利用 sigmoid函数,对于任意样本x=(x1,x2,…,xn),可将二分类问题的 hypothesis函数写成h(x)=o(6o+b1x1+62+…+bnxn)其中θ=(0,61,…,On)为待定参数.为了符号上简化起见,引入x0=1将x扩展为(x0,x1,x2,……,xn),且在不引起混淆的情况下仍将其记为ⅹ.于是,he可简写为取阀值T=0.5,则二分类的判别公式为ho(x)≥0.5:X)=0,ha(x)6),可分别用000001、010、011、100、101对“A,E,R,T,F,D”进行编码发送,当对方接收报文时再按照三位一分进行译码显然编码的长度取决报文中不同字符的个数.若报文中可能出现26个不同字符,则固定编码长度为5(25=32>26).然而,传送报文时总是希望总长度尽可能短.在实际应用中各个字符的出现频度或使用次数是不相同的,如A、B、C的使用颗率远远高于X、Y、Z,自然会想到设计编码时,让使用频率高的用短码,使用频率低的用长码,以优化整个报文编码为使不等长编码为前缀编码(即要求一个字符的编码不能是另一个字符编码的前缀),可用字符集中的每个字符作为叶子结点生成一棵编码二叉树,为了获得传送报文的最短长度,可将每个字符的岀现频率作为字符结点的权值赋于该结点上,显然字使用频率越小权值起小,权值越小叶子就越靠下,于是频率小编码长,频率高编码短,这样就保证了此树的最小带权路径长度,效果上就是传送报文的最短长度.因此,求传送报文的最短长度问题转化为求由字符集中的所有字符作为叶子结点,由字符出现频率作为其权值所产生的 Huffman树的问题.利用 Huffman树设计的二进制前缀编码,称为 Huffman编码,它既能满足前缀编码的条件,又能保证报文编码总长最短本文将介绍的word2ve工具中也将用到 Huffman编码,它把训练语料中的词当成叶子结点,其在语料中岀现的次数当作权值,通过构造相应的 Huffman树来对每一个词进行Huffman编码图3给岀了例2.1中六个词的 Huffman编码,其中约定(词频较大的)左孩子结点编码为1,(词频较小的)右孩子编码为0.这样一来,“我”、“喜欢”、“观看”、“巴西”、“足球”、“世界杯”这六个词的 Huffman编码分别为0,111,110,101,1001和100000欢观有巴西足球图3 Huffman编码示意图注意,到目前为止关于 Huffman树和 Huffman编码,有两个约定:(1)将权值大的结点作为左孩子结点,权值小的作为右孩子结点;(②)左孩子结点编码为1,右孩子结点编码为0.在word2vee源码中将权值较大的孩子结点编码为1,较小的孩子结点编码为θ.为亐上述约定统一起见,下文中提到的“左孩子结点”都是指权值较大的孩子结点3背景知识word2vec是用来生成词向量的工具,而词向量与语言模型有着密切的关系,为此,不妨先来了解一些语言模型方面的知识83.1统计语言模型当今的互联网迅猛发展,每天都在产生大量的文本、图片、语音和视频数据,要对这些数据进行处理并从中挖掘出有价值的信息,离不开自然语言处理( Nature Language processingNIP)技术,其中统计语言模型( Statistical language model)就是很重要的一环,它是所有NLP的基础,被广泛应用于语音识别、机器翻译、分词、词性标注和信息检索等任务例3.1在语音识别亲统中,对于给定的语音段Voie,需要找到一个使概率p(Tcrt| Voice最大的文本段Tert.利用 Bayes公式,有P(Teact Voice)p(VoiceTert)p(Text)P(Veonce其中p( Voice Teat)为声学模型,而p(Tert)为语言模型(l8])简单地说,统计语言模型是用来计算一个句子的概率的概率模型,它通常基于一个语料库来构建那什么叫做一个句子的概率呢?假设W=m1:=(n1,w2,…,tr)表示由T个词1,2,…,ur按顺序构成的一个句子,则n,U2,…,wr的联合概率p(W)=p(u1)=p(u1,u2,…,r)就是这个句子的概率.利用 Baves公式,上式可以被链式地分解为1)=p(u1)·p(u2l1)·p(vai)…p(ur1-)3.1其中的(条件)概率p(1),p(U2mn1),p(u3),…,p(urln1-1)就是语言模型的参数,若这些参数巳经全部算得,那么给定一个句子1,就可以很快地算出相应的p(1)了看起来妤像很简单,是吧?但是,具体实现起来还是有点麻烦.例如,先来看看模型参数的个数.刚才是考虑一个给定的长度为T的句子,就需要计算T个参数.不妨假设语料库对应词典D的大小(即词汇量)为N,那么,如果考虑长度为T的任意句子,理论上就有N种可能,而每种可能都要计算T个参数,总共就需要计算TN个参数.当然,这里只是简单估算,并没有考虑重复参数,但这个量级还是有蛮吓人.此外,这些概率计算好后,还得保存下来,因此,存储这些信息也需要很大的內存开销此外,这些参数如何计算呢?常见的方法有 II-gram模型、决策树、最大熵模型、最大熵马尔科夫模型、条件随杋场、神经网络等方法.本文只讨论n-gram模型和神经网络两种方法.首先来看看n-gram模型32n-gram模型考虑pko4-)(k>1)的近似计算.利用 Baves公式,有p(wr wi)P(uP(w根据大数定理,当语料库足够大时,p(k4-1)可近似地表示为P(wwi)count(wi)(3.2)count(a其中 count(u4)和 count-)分别表示词串t和v-在语料中出现的次数,可想而知,当k很大时, count(o4)和 count(4-1)的统计将会多么耗时从公式(3.1)可以看出:一个词出现的慨率与它前面的所有词都相关.如果假定一个词出现的概率只与它前面固定数目的词相关呢?这就是n-gran模型的基本思想,它作了一个n-1阶的 Markov假设,认为一个词出现的概率就只与它前面的n-1个词相关,即-1)≈p(kk-1+),于是,(3.2)就变成了p(wxJuk-)count(n+1countri(3.3以〃=2为例,就有p(uk4-1)≈count(k-1, Wk)count(Wk-1)这样一简化,不仅使得单个参数的统计变得更容易(统计时需要匹配的词串更短),也使得参数的总数变少了那么, n-gran中的参数n取多大比较合适呢?一般来说,n的选取需要同时考虑计算复杂度和模型效果两个因素表1模型参数数量与n的关系模型参数数量1( ingram)2×1052(bigram)4×10103( trigram)8×10154(4grm)16×10在计算复杂度方面,表1给出了n-gram模型中模型参数数量随着n的逐渐增大而变化的情况,其中假定词典大小N=2000(汉语的词汇量大致是这个量级).事实上,模型参数的量级是N的指数函数(O(N"),显然n不能取得太大,实际应用中最多的是采用n=3的三元模型在模型效果方面,理论上是π越大,效果越奷.现如今,互联网的海量数据以及机器性能的提升使得计算更高阶的语言模型(如n>10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外, n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若 count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若 count(kn+)= count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料( Corpus), Context(u)表示词U的上下文( Context),即周边的词的集合.当 Context(u)为空时,就取p( Context(w)=p(u).特别地,对于前面介绍的 n-gran模型,就有 Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑ logp(u( ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p( CONtex()已被视为关于和 Context()的函数,即p(w Context(w))= F(w, Conteact(w), 0)
    2020-06-14下载
    积分:1
  • 基于协同过滤的推荐系统
    关于协同过滤 推荐系统的介绍,制作为PPT 原创开题报告
    2020-12-08下载
    积分:1
  • 696524资源总数
  • 103957会员总数
  • 51今日下载