As the working set size increases , memory demand increases
随著工作集大小的增加,内存需求也增加。
Figure 3 illustrates a system that is under - powered for the memory demands placed on it by running apppcations
图3展示了在应用程序的内存需求下显得力不从心的一个系统。
Reverse mappings help the system continue to perform and scale well when large apppcations are placing huge memory demands on the kernel and multiple processes are sharing memory
当大型应用程序向内核请求大量内存和多个进程共享内存时,反向映射帮助系统继续有效地运行和扩展。
The efficiency of the algorithm devised originally for routing tables allows for a pnear increase in memory needs : if the number of transition rules rises from one to 10 , memory demands go up by a parable factor
这种源自路由表的演算法极具效率,对记忆体的需求即使呈线性成长也无所谓:如果规则数量由1增加到10 ,记忆体需求量也会大致成长10倍。
To characterize a workload , you must sort through queries , organize them into famipes , and then determine their resource demands in terms of processing times , i o requests , memory demand , work data traffic if apppcable , and so on
为了刻画工作负载,您必须整理查询,将其组成家族,然后确定它们在处理时间、 i / o请求、内存需求、网络数据信息量(如果可适用)等方面的资源需求。
The conclusions were drawn by paring the performance metrics of our model with the first - order and second - order markov chain models : at detection performance ( hit rate and false alarm rate ) , our model is better than other o models ; at memory demand , our model is more than the first model , but less than the second - order model ; at speed , the training speed of our model is slower than other o models , but the detection speed is quicker these results clearly demonstrate the effectiveness of our model 2
通过与基于系统调用的一阶和二阶马尔可夫链异常检测模型的比较研究得出结论:基于系统调用宏的马尔可夫链模型在检测性能要高于一阶和二阶马尔可夫链模型;而在存储要求上稍高于一阶马尔可夫链模型,但低于二阶马尔可夫链模型;虽然在训练时间上是一阶和二阶马尔可夫链模型若干倍,但实时检测速度要高于它们两者。
不管何种模型,其损失函数(Loss Function)选择,将影响到训练结果质量,是机器学习模型设计的重要部分。对于判别模型,损失函数是容易定义的,因为输出的目标相对简单。但对于生成模型,损失函数却是不容易定义的。
2014年GoodFellow等人发表了一篇论文“Goodfellow, Ian, et al Generative adversarial nets" Advances inNeural Information Processing Systems 2014”,引发了GAN生成式对抗网络的研究,值得学习和探讨。今天就跟大家探讨一下GAN算法。
GAN算法概念:
对于生成结果的期望,往往是一个难以数学公理化定义的范式。所以不妨把生成模型的回馈部分,交给判别模型处理。于是Goodfellow等人将机器学习中的两类模型(G、D模型)紧密地联合在了一起(该算法最巧妙的地方!)。
一个优秀的GAN模型应用需要有良好的训练方法,否则可能由于神经网络模型的自由性而导致输出结果不理想。
GAN算法原理:
1先以生成为例进行说明:
1)G是一个生成的网络,它接收一个随机的噪声z,通过这个噪声生成,记做G(z)。
3)在最理想的状态下,G可以生成足以“以假乱真”的G(z)。对于D来说,它难以判定G生成的究竟是不是真实的,因此D(G(z)) = 05。
4)这样目的就达成了:得到了一个生成式的模型G,它可以用来生成。
在训练过程中,生成网络G的目标就是尽量生成真实的去欺骗判别网络D。而判别网络D的目标就是尽量把G生成的和真实的分别开来。这样,G和D构成了一个动态的“博弈过程”。
2再以理论抽象进行说明:
GAN是一种通过对抗过程估计生成模型的新框架。框架中同时训练两个模型:捕获数据分布的生成模型G,和估计样本来自训练数据的概率的判别模型D。G的训练程序是将D错误的概率最大化。可以证明在任意函数G和D的空间中,存在唯一的解决方案,使得G重现训练数据分布,而D=05(D判断不出真假,50%概率,跟抛硬币决定一样)。在G和D由多层感知器定义的情况下,整个系统可以用反向传播进行训练。在训练或生成样本期间,不需要任何马尔科夫链或展开的近似推理网络。实验通过对生成的样品的定性和定量评估,证明了GAN框架的潜在优势。
Goodfellow从理论上证明了该算法的收敛性。在模型收敛时,生成数据和真实数据具有相同分布,从而保证了模型效果。
GAN公式形式如下:
GAN公式说明如下:
1)公式中x表示真实,z表示输入G网络的噪声,G(z)表示G网络生成的;
2)D(x)表示D网络判断是否真实的概率,因为x就是真实的,所以对于D来说,这个值越接近1越好。
3)G的目的:D(G(z))是D网络判断G生成的的是否真实的概率。G应该希望自己生成的“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D, G)会变小。因此公式的最前面记号是min_G。
4)D的目的:D的能力越强,D(x)应该越大,D(G(x))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大max_D。
GAN训练过程:
GAN通过随机梯度下降法来训练D和G。
1)首先训练D,D希望V(G, D)越大越好,所以是加上梯度(ascending)
2)然后训练G时,G希望V(G, D)越小越好,所以是减去梯度(descending);
3) 整个训练过程交替进行。
GAN训练具体过程如下:
GAN算法优点:
1)使用了latent code,用以表达latent dimension、控制数据隐含关系等;
2)数据会逐渐统一;
3)不需要马尔可夫链;
4)被认为可以生成最好的样本(不过没法鉴定“好”与“不好”);
5)只有反向传播被用来获得梯度,学习期间不需要推理;
6)各种各样的功能可以被纳入到模型中;
7)可以表示非常尖锐,甚至退化的分布。
GAN算法缺点:
1)Pg(x)没有显式表示;
2)D在训练过程中必须与G同步良好;
3)G不能被训练太多;
4)波兹曼机必须在学习步骤之间保持最新。
GAN算法扩展:
GAN框架允许有许多扩展:
1)通过将C作为输入,输入G和D,可以得到条件生成模型P(x|c);
2)学习近似推理,可以通过训练辅助网络来预测Z。
3)通过训练一组共享参数的条件模型,可以近似地模拟所有条件。本质上,可以使用对抗性网络实现确定性MP-DBM的随机扩展。
4)半监督学习:当仅有有限标记数据时,来自判别器或推理网络的特征可以提高分类器的性能。
5)效率改进:通过划分更好的方法可以大大加快训练,更好的方法包括:a)协调G和D; b) 在训练期间,确定训练样本Z的更好分布。
GAN算法应用:
GAN的应用范围较广,扩展性也强,可应用于图像生成、数据增强和图像处理等领域。
1)图像生成:
目前GAN最常使用的地方就是图像生成,如超分辨率任务,语义分割等。
2)数据增强:
用GAN生成的图像来做数据增强。主要解决的问题是a)对于小数据集,数据量不足,可以生成一些数据;b)用原始数据训练一个GAN,GAN生成的数据label不同类别。
结语:
GAN生成式对抗网络是一种深度学习模型,是近年来复杂分布上无监督学习最具有前景的方法之一,值得深入研究。GAN生成式对抗网络的模型至少包括两个模块:G模型-生成模型和D模型-判别模型。两者互相博弈学习产生相当好的输出结果。GAN算法应用范围较广,扩展性也强,可应用于图像生成、数据增强和图像处理等领域
以上就是关于memory demand中文翻译全部的内容,包括:memory demand中文翻译、gan算法不包括以下哪个模型、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)