10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外,n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若count(kn+)=count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料(Corpus),Context(u)表示词U的上下文(Context),即周边的词的集合.当Context(u)为空时,就取p(Context(w)=p(u).特别地,对于前面介绍的n-gran模型,就有Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑logp(u(ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p(CONtex()已被视为关于和Context()的函数,即p(wContext(w))=F(w,Conteact(w),0)-IMDN开发者社群-imdn.cn"> 10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外,n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若count(kn+)=count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料(Corpus),Context(u)表示词U的上下文(Context),即周边的词的集合.当Context(u)为空时,就取p(Context(w)=p(u).特别地,对于前面介绍的n-gran模型,就有Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑logp(u(ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p(CONtex()已被视为关于和Context()的函数,即p(wContext(w))=F(w,Conteact(w),0) - IMDN开发者社群-imdn.cn">
登录
首页 » Others » Google word2vec算法 数学原理

Google word2vec算法 数学原理

于 2020-06-14 发布
0 343
下载积分: 1 下载次数: 0

代码说明:

文档是 word2vec 算法 数学原理详解。word2vec是google的一个开源工具,能够仅仅根据输入的词的集合计算出词与词直接的距离,既然距离知道了自然也就能聚类了,而且这个工具本身就自带了聚类功能,很是强大。32预备知识本节介绍word2v中将用到的一些重要知识点,包括 sigmoid函数、 Bccs公式和Huffman编码等821 sigmoid函数sigmoid函数是神经网络中常用的激活函数之一,其定义为1+e该函数的定义域为(-∞,+∞),值域为(0,1).图1给出了 sigmoid函数的图像0.56图1 sigmoid函数的图像sigmoid函数的导函数具有以下形式(x)=0(x)1-0(x)由此易得,函数loga(x)和log(1-0(x)的导函数分别为log a(a)-1 a(a),log(1 o(a))l-a(a),(2.1)公式(2.1)在后面的推导中将用到32.2逻辑回归生活中经常会碰到二分类问题,例如,某封电子邮件是否为垃圾邮件,某个客户是否为潜在客户,某次在线交易是否存在欺诈行为,等等设{(x;)}温1为一个二分类问题的样本数据,其中x∈Rn,∈{0,1},当v=1时称相应的样本为正例当v=0时称相应的样本为负例利用 sigmoid函数,对于任意样本x=(x1,x2,…,xn),可将二分类问题的 hypothesis函数写成h(x)=o(6o+b1x1+62+…+bnxn)其中θ=(0,61,…,On)为待定参数.为了符号上简化起见,引入x0=1将x扩展为(x0,x1,x2,……,xn),且在不引起混淆的情况下仍将其记为ⅹ.于是,he可简写为取阀值T=0.5,则二分类的判别公式为ho(x)≥0.5:X)=0,ha(x)6),可分别用000001、010、011、100、101对“A,E,R,T,F,D”进行编码发送,当对方接收报文时再按照三位一分进行译码显然编码的长度取决报文中不同字符的个数.若报文中可能出现26个不同字符,则固定编码长度为5(25=32>26).然而,传送报文时总是希望总长度尽可能短.在实际应用中各个字符的出现频度或使用次数是不相同的,如A、B、C的使用颗率远远高于X、Y、Z,自然会想到设计编码时,让使用频率高的用短码,使用频率低的用长码,以优化整个报文编码为使不等长编码为前缀编码(即要求一个字符的编码不能是另一个字符编码的前缀),可用字符集中的每个字符作为叶子结点生成一棵编码二叉树,为了获得传送报文的最短长度,可将每个字符的岀现频率作为字符结点的权值赋于该结点上,显然字使用频率越小权值起小,权值越小叶子就越靠下,于是频率小编码长,频率高编码短,这样就保证了此树的最小带权路径长度,效果上就是传送报文的最短长度.因此,求传送报文的最短长度问题转化为求由字符集中的所有字符作为叶子结点,由字符出现频率作为其权值所产生的 Huffman树的问题.利用 Huffman树设计的二进制前缀编码,称为 Huffman编码,它既能满足前缀编码的条件,又能保证报文编码总长最短本文将介绍的word2ve工具中也将用到 Huffman编码,它把训练语料中的词当成叶子结点,其在语料中岀现的次数当作权值,通过构造相应的 Huffman树来对每一个词进行Huffman编码图3给岀了例2.1中六个词的 Huffman编码,其中约定(词频较大的)左孩子结点编码为1,(词频较小的)右孩子编码为0.这样一来,“我”、“喜欢”、“观看”、“巴西”、“足球”、“世界杯”这六个词的 Huffman编码分别为0,111,110,101,1001和100000欢观有巴西足球图3 Huffman编码示意图注意,到目前为止关于 Huffman树和 Huffman编码,有两个约定:(1)将权值大的结点作为左孩子结点,权值小的作为右孩子结点;(②)左孩子结点编码为1,右孩子结点编码为0.在word2vee源码中将权值较大的孩子结点编码为1,较小的孩子结点编码为θ.为亐上述约定统一起见,下文中提到的“左孩子结点”都是指权值较大的孩子结点3背景知识word2vec是用来生成词向量的工具,而词向量与语言模型有着密切的关系,为此,不妨先来了解一些语言模型方面的知识83.1统计语言模型当今的互联网迅猛发展,每天都在产生大量的文本、图片、语音和视频数据,要对这些数据进行处理并从中挖掘出有价值的信息,离不开自然语言处理( Nature Language processingNIP)技术,其中统计语言模型( Statistical language model)就是很重要的一环,它是所有NLP的基础,被广泛应用于语音识别、机器翻译、分词、词性标注和信息检索等任务例3.1在语音识别亲统中,对于给定的语音段Voie,需要找到一个使概率p(Tcrt| Voice最大的文本段Tert.利用 Bayes公式,有P(Teact Voice)p(VoiceTert)p(Text)P(Veonce其中p( Voice Teat)为声学模型,而p(Tert)为语言模型(l8])简单地说,统计语言模型是用来计算一个句子的概率的概率模型,它通常基于一个语料库来构建那什么叫做一个句子的概率呢?假设W=m1:=(n1,w2,…,tr)表示由T个词1,2,…,ur按顺序构成的一个句子,则n,U2,…,wr的联合概率p(W)=p(u1)=p(u1,u2,…,r)就是这个句子的概率.利用 Baves公式,上式可以被链式地分解为1)=p(u1)·p(u2l1)·p(vai)…p(ur1-)3.1其中的(条件)概率p(1),p(U2mn1),p(u3),…,p(urln1-1)就是语言模型的参数,若这些参数巳经全部算得,那么给定一个句子1,就可以很快地算出相应的p(1)了看起来妤像很简单,是吧?但是,具体实现起来还是有点麻烦.例如,先来看看模型参数的个数.刚才是考虑一个给定的长度为T的句子,就需要计算T个参数.不妨假设语料库对应词典D的大小(即词汇量)为N,那么,如果考虑长度为T的任意句子,理论上就有N种可能,而每种可能都要计算T个参数,总共就需要计算TN个参数.当然,这里只是简单估算,并没有考虑重复参数,但这个量级还是有蛮吓人.此外,这些概率计算好后,还得保存下来,因此,存储这些信息也需要很大的內存开销此外,这些参数如何计算呢?常见的方法有 II-gram模型、决策树、最大熵模型、最大熵马尔科夫模型、条件随杋场、神经网络等方法.本文只讨论n-gram模型和神经网络两种方法.首先来看看n-gram模型32n-gram模型考虑pko4-)(k>1)的近似计算.利用 Baves公式,有p(wr wi)P(uP(w根据大数定理,当语料库足够大时,p(k4-1)可近似地表示为P(wwi)count(wi)(3.2)count(a其中 count(u4)和 count-)分别表示词串t和v-在语料中出现的次数,可想而知,当k很大时, count(o4)和 count(4-1)的统计将会多么耗时从公式(3.1)可以看出:一个词出现的慨率与它前面的所有词都相关.如果假定一个词出现的概率只与它前面固定数目的词相关呢?这就是n-gran模型的基本思想,它作了一个n-1阶的 Markov假设,认为一个词出现的概率就只与它前面的n-1个词相关,即-1)≈p(kk-1+),于是,(3.2)就变成了p(wxJuk-)count(n+1countri(3.3以〃=2为例,就有p(uk4-1)≈count(k-1, Wk)count(Wk-1)这样一简化,不仅使得单个参数的统计变得更容易(统计时需要匹配的词串更短),也使得参数的总数变少了那么, n-gran中的参数n取多大比较合适呢?一般来说,n的选取需要同时考虑计算复杂度和模型效果两个因素表1模型参数数量与n的关系模型参数数量1( ingram)2×1052(bigram)4×10103( trigram)8×10154(4grm)16×10在计算复杂度方面,表1给出了n-gram模型中模型参数数量随着n的逐渐增大而变化的情况,其中假定词典大小N=2000(汉语的词汇量大致是这个量级).事实上,模型参数的量级是N的指数函数(O(N"),显然n不能取得太大,实际应用中最多的是采用n=3的三元模型在模型效果方面,理论上是π越大,效果越奷.现如今,互联网的海量数据以及机器性能的提升使得计算更高阶的语言模型(如n>10)成为可能,但需要注意的是,当n大到一定程度时,模型效果的提升幅度会变小.例如,当n从1到2,再从2到3时,模型的效果上升显著,而从3到4时,效果的提升就不显著了(具体可参考吴军在《数学之美》中的相关章节).事实上,这里还涉及到一个可靠性和可区别性的问题,参数越多,可区别性越好,但同时单个参数的实例变少从而降低了可靠性,因此需要在可靠性和可区别性之间进行折中另外, n-gran模型中还有一个叫做平滑化的重要环节.回到公式(3.3),考虑两个问题:若 count(uk-n+1)=0,能否认为p(kln1-1)就等于0呢?若 count(kn+)= count(uk-+1,能否认为p(uur-)就等于1呢?显然不能!但这是一个无法回避的问题,哪怕你的语料库有多么大.平滑化技术就是用来处理这个问题的,这里不展开讨论,具体可参考[11总结起来,n-gram模型是这样一种模型,其主要工作是在语料中统计各种词串岀现的次数以及平滑化处理.概率值计算好之后就存储起来,下次需要计算一个句子的概率时,只需找到相关的概率参数,将它们连乘起来就好了然而,在机器学习领域有一种通用的招数是这样的:对所考虑的问题建模后先为其构造一个目标函数,然后对这个目标函数进行优化,从而求得一组最优的参数,最后利用这组最优参数对应的模型来进行预測对于统计语言模型而言,利用最大似然,可把目标函数设为plwlConteat(w))∈C其中C表示语料( Corpus), Context(u)表示词U的上下文( Context),即周边的词的集合.当 Context(u)为空时,就取p( Context(w)=p(u).特别地,对于前面介绍的 n-gran模型,就有 Context(mn)=2-n+1注3.1语料¢和词典仍的区别:词典仍是从语料¢中抽取岀来的,不存在重复的词;而语料C是指所有的文本內容,包括重复的词当然,实际应用中常采用最大对数似然,即把目标函数设为∑ logp(u( ontext(o)(3.4)然后对这个函数进行最大化从(3.4)可见,概率p( CONtex()已被视为关于和 Context()的函数,即p(w Context(w))= F(w, Conteact(w), 0)

下载说明:请别用迅雷下载,失败请重下,重下不扣分!

发表评论

0 个回复

  • 利用python中的xgboost对超市销量进行预测
    资源包括某超市四个月的各大中小类的销售记录,代码利用星期特征,去除噪声,用xgboost进行预测,代码中包含了一些基础的分析方法,可供新手参考。
    2020-12-02下载
    积分:1
  • C6000系列DSP的CSL库函数大全
    实用的C6000系列DSP的CSL库函数大全,包含所有的CSL库函数,英文原版TMTMspecial typefaceTMTMMTMT
    2020-06-02下载
    积分:1
  • 哈夫曼码译码器 数据结构与算法 课设计
    设计一个利用哈夫曼算法的编码和译码系统,重复地显示并处理“要求”中项目,直到选择退出为止。要求:(1)将权值数据存放在数据文件(文件名为data.txt,位于执行程序的当前目录中) (2)分别采用动态和静态存储结构(3)从键盘输入字符集大小n、n个字符和n个权值,建立哈夫曼树;(4)利用建好的哈夫曼树生成哈夫曼编码;(5)输出编码; 用户可以执行的的功能有: (1)---选择读取某个源文件由系统解析建立哈夫曼树 (2)---手动输入字符集及其权值信息建立哈夫曼树 (3)---打印字符集的哈夫曼编码到屏幕 (4)---选择某个文本文件进行编码 (5)---选择某个代码
    2020-06-27下载
    积分:1
  • 车牌字体下载
    车牌字体下载,免费字体下载,车牌使用的是什么字体
    2020-11-28下载
    积分:1
  • 常见点云数据,xyz格式txt
    常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt常见点云数据,xyz格式txt
    2020-12-02下载
    积分:1
  • 《数字信号处理C语言序集》 殷福亮 宋爱军
    一本非常有用的书:数字信号处理C语言程序集,作者 殷福亮,宋爱军。清晰、完整。网上提供的有些版本残缺不全,存在漏页的情况,我上传的这个经仔细检查,不存在类似问题。本书内容十分丰富,紧贴工程应用实际,非常实用。提供了大量的函数及其源代码,利于读者参考。实在是不可多大的一本好书,你值得拥有!本书的具体内容不在此赘述,大家很容易百度得到的。图书在版编目(CIP)数据数字信号处理C语程序集/殷福亮、宋爱乍主编,-沈阳:辽宁科学学技术出版社,1997.7ISBN7-5381-25213数殷…Ⅲ.C语言-数学信号-信号处理应用程序Ⅳ.TN没1.72中国版本图书馆CIP数据核字(97)第03286号辽宁科学技术出版社出版沈阳市和平区北马路1(8号邮政编码110001)地方国营新民印刷总厂印刷新华书店北京发行所发开本:787×10921/16印张:28字数:710.0001997年7月第1版1997年7月第1次印刷责任编辑:马旭东版式设计:于浪封面设计;邹君文责任校对:东戈印数:15,0(0定价:30.00元目录第一篇常用数字信号的产生第一章数字信号的产生§1.1均匀分布的随机数baaa‘·aa·a··‘s4···‘44‘4··44·····4··-···§1.2正态分布的随机数…§1.3指数分布的随机数…………·······◆÷·············:§1.4拉普拉斯( Laplace)分布的随机数单·鲁。非号。非●着鲁鲁导●·。香§1.5瑞利( Rayleigh)分布的随机数……………………………………9§1.6对数正态分布的随机数………:11§L.7柯西( Cauchy)分布的随机数………·…·.13§1.8韦伯( Weibul)分布的随机数……15§1.9爱尔朗( Erlang)分布的随机数………………17§1.10贝努里( Bernoulli1)分布的随机数………●看鲁ψ鲁曹●自●喜鲁。由看看自命曲D自看19§1.11贝努里高斯分布的随机数·●中·······甲§1.12二项式分布的随机数……§1.13泊松( Poisson)分布的随机数§1·14ARMA(pq)模型数据的产生命●·p·看D●·看·。普。··●曲也。b§1.15含有高斯白噪声的正弦组合信号的产生…………§1.16解析信号的产生………35第二篇数字信号处理第一章快速傅立叶变换…"39§1.1离散傅立叶变换……§1.2快速傅立叶变换鲁鲁··音····着·D。·协。中·咖4卡4●音备·由画口省画曲命··44§1.3基4快速傅立叶变换………●4bb●■·即·●··。···鄂甲,银●看§1.4分裂基快速傅立叶变换………………………………57§1·5实序列快速傅立叶变换(-)….°°··.·····“···。61§1.6实序列快速傅立叶变换(二)……§1.7用一个N点复序州的FFT同时计算两个N点实序列离散傅立叶变换…。b自4血者b自晶。aa·70§I.8共轭对称序列的快速傅立叶反变换73§1.9紊因子快速傅立叶变换…………………………………………80§1.10 Chirp乙-变换算法…………………………………96第二章快速离散正交变换…§2.1快速哈特莱( Hartley)变换…………………………§2.2基4快速哈待莱( Hartley)变换§2.3分裂基快速哈特莱( Hartley)变换…§2.4快速离散余弦变换……15§2.5快速离散余弦反变换…………····自··非·中中····曹...·.118§2.6N=8点快速高散余弦变换·······…··…·121§27N=8点快速离散余弦反变换●鲁鲁·香垂香●鲁§28快速离散正弦变换…………………………129§2.9快速沃尔什( Walsh)变换…133§2.10快速希尔伯特变换(一)………………鲁·鲁音辛章·看·争●·●自章·自··137§2.11快速希尔伯特变换(二)…141第三章快速卷积与相关§3.1快速卷积………………………144§3.2长序列的快速卷积……………………147§33特别长序列的快速卷积…中4·鼻●………………∵"……152§3.4快速相关…………………………………………………158第四章数字滤波器的时城和频域响应…………16341数字滤波器的频率响应b●4,4看香·……163§4.2级联型数字滤波器的频率响应………………………166s4.3数字滤波器的时域响应171§4.4直接型IR数字滤波(一)………………………………174§4.5直接型IR数字滤波(二)…………177§4.6级联型IR数字滤波§4.7并联型IR数字滤波…………………………………………185第五章IR数宇滤波器的设计………………………………189§5.1巴持沃兹和切比雪夫数字滤波器的设计……◆香音非杳D,看看§5.2任意幅庋IR数字滤波器的优化设计……………………………2082第六章FIR数字滤波器的设计……………………………227§6.1窗函数方法………………………………………227§6.2频域最小误差平方设计………238§6.3切比雪夫通近方法…………………………………242第三篇随机数字信号处理第一章经典谱佔计···:·a4a命a4264§1.1功率谱估计的周期图方法264§1.2功率谱估计的相关方法………………………………………271第二章现代谱佔计隐自·音鲁章自●·●4鲁自费●●看§2.1求解一般托布利兹方程组的莱文森算法……………………280§2.2求解对称正定方程组的乔里斯基算法…83§2.3求解尤利沃克方程的莱文森德宾算法§2.4计算ARMA模型的功率谱密度……………………………….289§2.5尤利沃克谱估计算法…………292§2.6协方差谱估计算法.·…·…297§2.7Burg谱估计算法30§2.8最大似然谱估计算法鲁t···章·。看e308第三章时频分析………….314§3.1维格纳( wigner)分布……………◆鲁毋■章鲁·●●·●非b曲。島曲…314§3.2离散小波变换…318第四章随机信号的数字滤波330§41维纳( Wiener)数字滤波…唱·喜非最330§42卡尔曼( Kalman)数字滤波…·。··●··命···◆··命·335§4.3最小均方(LMS)自适应数字滤波………341§44归一化LMS自适应数字滤波344§4.5递推最小二乘(RLS)自适应数字滤波……………………348第四篇数字图像处理第一章图像基本运算………………ss"sss352§1·1图像读取、存储与显示…§1.2图像旋转….·····鲁具··。366§1.3图像灰度级直方图的计算…………368§1.4图像二值化的固定阀值法…1.5图像二值化的自适应阀值法…·中··看辛中·鲁音·甲●·372第二章图像增强-………376§2.1图像直方图均衡…………………………376§2.2中值滤波香看春·鲁自。看●··….·········色·.···B···378§2.3图像锐化······.···········世·D“·中·中···中·;··容e·咱要382§2.4图像平滑………………………………………………………………383第三章图像边缘检测辛b鲁卡鲁中●●·§31 Roberts算子边缘检测“····.…·386§3.2拉普拉斯算子边缘检测…………………………………388§3.3 Sobel算子边缘检测………§3.4 Robinson算子边缘检测………………………392§3.5 Kirsch算子边缘检测…鲁鲁·看§3.6 Prewitt算子边缘检测第四章图像细化……………………………………………139§4.1 Hilditch细化算法看●看非。●命D看鲁●●;·着●画399§4.2 Pavlidis细化算法qq··中····.404§4.3 Rosenfeld细化算法………第五篇人工神经网络第一章神经网络模型……·…·…"·416§1.1多层感知器神经网络………………………………………………416§1.2离散 Hopfield神经网络……………………………………425§1.3连续 Hopfield神经网络……。辛b4··吾。自司b命°…·434§1.4Tank- Hopfield线性规划神经网络参考文献…●●●电·单·4是p中······鲁s自····4·●……………”442第一篇常用数字信号的产生第一章数字信号的产生§1.1均匀分布的随机数功能产生(a,b)区间上均匀分布的随机数、方法简介均匀分布的概率密度函数为,a≤x≤b0,其它通常用U(2)表示,均匀分布的均值为+2,方差为(b2产生均匀分布随机数的方法如下:首先,由给定的初值x,用混合同余法ai=(ai-1+ c)(mod M)产生(0,1)区间上的随机数y。其中a=2045,c=1,M=20;然后,通过变换x;=a(b-a)y产生(ab)区间上的随机数z三、使用说明1.子函数语句double uniform (a.b. seed)2.形参说明a—双精度实型变量。给定区间的下限。b—双精度实型变量。给定区间的上限seed—长整型指针变量。*seed为随机数的种子。四、子函数程序(文件名: uniform.c)double uniform (a, b, seed)ouble ai doubled=2045兴(兴seed)+1Seed=关seed一(兴seed/1048576)为1048576;t=(兴seed)/1048576.0;t=a-(beturn (t)五、例题产生50个0到1之间均匀分布的随机数。主函数程序(文件名: uniform.m):#include " stdio. h# includi double a, bngdouble uniform(double, double, long int *a=0.0;b-1.0;s=13579for(i=0;
    2020-12-06下载
    积分:1
  • GPS 应用序设计
    有关GPS应用程序的设计,包含多个GPS开发的相关实例!
    2020-12-08下载
    积分:1
  • 自动控制原理课设计角度随动系统
    自动控制课程设计,角度随动系统,有需要的同学可以来下载一下。包括proteus仿真,protel 99se的ddb,和实验报告。
    2020-12-09下载
    积分:1
  • 光流法检测运动目标
    基于matlab的光流法运动目标检测 适合初学者理解
    2020-12-11下载
    积分:1
  • 商用车VCUsimulink
    商用车VCUsimulink程序,可以用来学习simulink代码生成,可以学习VCU控制策略。
    2020-11-28下载
    积分:1
  • 696516资源总数
  • 106914会员总数
  • 0今日下载