氮化镓(GaN)手机快充方案

氮化镓(GaN)手机快充方案,第1张

氮化镓(GaN)手机快充方案

氮化镓(GaN)是一种高电子迁移率晶体管(HEMT),意味着GaN器件的临界电场强度大于硅。对于相同的片上电阻和击穿电压,GaN的尺寸更小。GaN还具有极快的开关速度和优异的反向恢复性能。

一、氮化镓(GaN)器件介绍:

GaN器件分为两种类型:

耗尽型:耗尽型GaN晶体管常态下是导通的,为了使它截止必须在源漏之间加一个负电压。

增强型:增强型GaN晶体管常态下是截止的,为了使它导通必须在源漏之间加一个正电压。

GaN VS MOSFET:

他们的关键参数都是导通电阻和击穿电压。GaN的导通电阻非常低,这使得静态功耗显著降低,提高了效率。GaN FET的结构使其输入电容非常低,提高了开关速度。意味着GaN具有更高的效率,并可以使用更少的电磁学和被动元件。

二、手机快充介绍:

能在极短的时间内(05-1Hr)使手机电池达到或接近完全充电状态的一种充电方法。

实现手机快速充电方法:

1电压不变,提高电流;

2电流不变,提升电压;

3电压、电流均提高。

手机快速充电技术目前分为“高压小电流快充”和“低压大电流快充”两种方案。VOOC闪充和Dash闪充属于后者“低压大电流快速充电”。快速充电对手机电池的寿命没有影响,现在的电池都可以承受大电流。

三、氮化镓(GaN)快充:

氮化镓(GaN)快充在已有的快充技术上通过改用氮化镓(GaN)核心器件,将手机快速充电器做到功率更大、体积更小、充电速度更快。

氮化镓(GaN)快充方案包含两个部分,充电器部分和电源管理部分

充电器部分:充电管理芯片根据锂电池充电过程的各个阶段的电器特性,向充电器发出指令,通知充电器改变充电电压和电流,而充电器接收到来自充电管理系统的需求,实时调整充电器的输出参数,配合充电管理系统实现快速充电。

电源管理部分:相应的芯片置于移动智能终端内,有独立的电源管理芯片,也有的直接集成在手机套片中,电源管理芯片对锂电池的整个充电过程实施管理和监控,包含了复杂的处理算法,锂电池充电包括几个阶段:预充阶段、恒流充电阶段,恒压充电阶段、涓流充电阶段。

        SRGAN是2017年CVPR中备受关注的超分辨率论文,把超分辨率的效果带到了一个新的高度。所谓超分辨率重建就是将低分辨率的图像恢复成对应的高分辨率图像。由于地分辨率图像存在大量的信息缺失,这是一个病态的求逆解问题,尤其在恢复高倍分辨率图像的时候。传统方法通过加入一些先验信息来恢复高分辨率图像,如,插值法、稀疏学习、还有基于回归方法的随机森林等,CNN在超分辨率问题上取得了非常好的效果。

        SRGAN是基于CNN采用GAN方法进行训练来实现图像的超分辨率重建的。它包含一个生成器和一个判别器,判别器的主体是VGG19,生成器的主体是一连串的Residual block,同时在模型的后部加入了subpixel模块,借鉴了Shi et al 的Subpixel Network的思想,让在最后的网络层才增加分辨率,使得提升分别率的同时减少了计算量。论文中给出的网络结构如图所示:

论文中还给出了生成器和判别器的损失函数的形式:

1生成器的损失函数为 :  

      

其中, 为本文所提出的感知损失函数, 。

内容损失 : ;   训练网络时使用均方差损失可以获得较高的峰值信噪比,一般的超分辨率重建方法中,内容损失都选择使用生成图像和目标图像的均方差损失(MSELoss),但是使用均方差损失恢复的图像会丢失很多高频细节。因此,本文先将生成图像和目标图像分别输入到VGG网络中,然后对他们经过VGG后得到的feature map求欧式距离,并将其作为VGG loss。

对抗损失 : ; 为了避免当判别器训练较好时生成器出现梯度消失,本文将生成器的损失函数   进行了修改。

2判别器的损失函数为:

与普通的生成对抗网络判别器的的损失函数类似。

由于不同因素之间的复杂作用,在保留原始字体,颜色,大小和背景纹理的同时在场景图像中交换文本是一项具有挑战性的任务。在这项工作中,我们提出了一个三阶段框架SwapText,用于跨场景图像传输文本。 首先,提出了一种新颖的文本交换网络来仅替换前景图像中的文本标签。 其次,背景完成网络来学习以重建背景图像。 最后,通过融合网络将生成的前景图像和背景图像用于生成文字图像。 使用提出的框架,即使出现严重的几何失真,我们也可以巧妙的处理输入图像的文本。 定性和定量结果显示在几个场景文本数据集上,包括规则和不规则文本数据集。 我们进行了广泛的实验以证明我们的方法的有效性,例如基于图像的文本翻译,文本图像合成等。

想象一下,能够在场景图像中交换文本,同时在几秒钟内保持原始字体,颜色,大小和背景纹理,而无需花费数小时进行图像编辑。 在这项工作中,我们旨在通过自动替换场景图像中文本的算法来实现此目标。文本交换的核心挑战在于生成视觉逼真的文本并与原始文本保持一致的样式。

文本交换或文本替换在许多情况下都涉及到,包括文本检测,文本识别,海报中的文本转换和其他创造性应用。 对于文本检测和识别任务,文本交换是一种非常有用的数据增强方法。 见证了深度神经网络(DNN)在各种计算机视觉任务中的巨大成功,获得大量带注释的训练图像已成为训练DNN模型的瓶颈。最简单,使用最广泛的方法是通过几何变换来增加训练图像,例如平移,旋转和翻转等。近来,已经提出了基于图像合成的方法[11、7、39]来训练文本检测和识别模型。这些方法通过结合不同的渲染技术对光和能量的物理行为进行建模来从无文本图像中创建新图像。但是, 合成图像无法与场景中的图像完全融合,这在将合成图像应用于DNN模型训练时至关重要。

近年来,许多图像生成模型,例如生成对抗网络(GAN)[6],可变自动编码器(VAE)[17]和自回归模型[25],为现实的图像生成任务提供了强大的工具。在[9,38,33]中,GAN用于图像补全,可为缺失区域生成视觉上逼真的和语义上合理的像素。 [21,8,28,22]已经利用这些网络生成具有不同姿势或服装的新颖人物图像。

我们的贡献总结如下:

文本图像合成

图像合成已在计算机图形学研究中得到了广泛的研究[4]。文本图像合成被研究为一种数据增强方法,用于训练准确而健壮的DNN模型。例如,Jaderberg等[11]使用单词生成器来生成用于文本识别任务的合成单词图像。Gupta等 [7]开发了一个健壮的引擎来生成用于文本检测和识别任务的合成文本图像。 文本图像合成的目标是将文本插入背景图像中语义上敏感的区域。许多因素都影响合成文本图像的真实相似度,例如文本大小,文本视角,环境光照等。 在[39]中,Zhanet等人通过结合语义连贯,视觉注意力和自适应文本外观这三种设计来实现文本文本图像合成。尽管文本图像合成在视觉上是逼真的,但合成图像与真实图像之间仍存在许多差异。例如, 与真实图像相比,合成图像中文本字体和背景图像非常有限。

在最近,基于GAN的图像合成技术得到了进一步的探索。在[41]中,Zhan等人提出了一种将几何合成器和外观合成器组合在一起的空间融合GAN,以在几何和外观空间中实现合成现实。Yang等人[36]使用双向形状匹配框架通过可调整的参数来控制字形的关键风格。 GA-DAN [40]提出了一项有趣的工作,能够同时在几何空间和外观空间中对跨域移位进行建模。[2]中提出了MC-GAN来实现从A到Z的字母集的字体样式转换。 Wu等人 [34]提出了一个端到端的可训练样式保留网络来编辑自然图像中的文本。

图像生成

随着生成模型(例如GAN [6],VAE [17]和自动回归模型[25])的巨大成功,逼真而清晰的图像生成最近吸引了越来越多的关注。传统的生成模型使用GAN [6]或VAE [17]来将噪声z生成的分布映射到实际数据的分布。例如,GANs [6]用于生成真实面孔[37、3、15]和鸟类[29]。

为了控制所生成的结果,Mirzaet等人[23]提出了有条件的GAN。它们会生成在类别标签上进行分类的MNIST数字。在[12]中,karacanet等。根据语义布局和场景属性(例如日夜,晴天雾天)生成逼真的室外场景图像。 Lassneretal [19]基于细粒度的身体和衣服片段生成了穿着者的全身图像。完整模型可以以姿势,形状或颜色为条件。Ma[21,22]基于图像和姿势生成人图像。在[18]中提出了快速人脸交换,以将输入身份转换为目标身份,同时保留姿势,面部表情和光照。

图像完成

最近,基于GAN的方法已经成为图像完成的一种有希望的范例。 Iizuka等 [9]提议使用全局和局部判别器作为对抗性损失,在其中全局和本地一致性都得到了加强。Yu等人 [38]使用上下文注意力层来显式地参与远距离空间位置上的相关特征补丁。 Wang等 [33]使用多列网络以并行方式生成不同的图像分量,并采用隐式的多样化MRF正则化来增强局部细节。

给定场景文本图像Is,我们的目标是在保持原始样式的基础上基于内容图像Ic替换文本。 如图2所示,我们的框架由文本交换网络,背景完成网络和融合网络组成。文本交换网络首先从Is中提取样式特征从Ic中提取内容特征,然后通过自注意网络合并这两个特征。 为了更好地表示内容,我们使用内容形状转换网络(CSTN)根据样式图像Is的几何属性来转换内容图像Ic。背景完成网络用于重建样式图像Is的原始背景图像Ib。 最后,文本交换网络和背景完成网络的输出被融合网络融合以生成最终的文本图像。

现实情况下的文本实例具有多种形状,例如,呈水平,定向或弯曲形式。 文本交换网络的主要目的是在保留原始样式(尤其是文本形状)的同时替换样式图像Is的内容。 为了提高不规则文本图像生成的性能,我们提出了一个内容形状转换网络(CSTN)将内容图像映射到样式图像的相同几何形状中,然后通过3个下采样卷积层和几个残差块对样式图像和转换后的内容图像进行编码。 为了充分融合样式和内容特征,我们将它们馈入了一个自注意网络。 对于解码,使用3个上采样反卷积层来生成前景图像If。

文本形状的定义对于内容形状的转换至关重要。 受文本检测[20]和文本识别[35]领域中的文本形状定义的启发,可以使用2 K个基准点P = {p1,p2,,p2K}定义文本的几何尺寸属性,如图3所示。

在对内容和样式图像进行编码之后,我们将两个特征图都馈送到自注意网络,该网络会自动学习内容特征图Fc和样式特征图Fs之间的对应关系。 输出特征图是Fcs,图5(a)给出了自注意力的网络结构。

内容特征Fc和样式特征Fs首先沿其深度轴连接。 然后,我们遵循[42]中类似的自注意力机制来生成输出特征图Fcs。

除了这种单级样式化之外,我们还开发了多级样式化管道,如图5(b)所示。 我们将自注意力网络依次应用于多个特征图层,以生成更逼真的图像。

文本交换网络主要侧重于前景图像生成,而背景图像在最终图像生成中也起着重要作用。为了生成更逼真的文字图像,我们使用背景完成网络来重建背景图像,其结构如表1所示。大多数现有的图像完成方法都是通过借用或复制周围区域的纹理来填充图像的像素。一般的结构遵循编码器-解码器结构,我们在编码器之后使用膨胀卷积层来计算具有较大输入区域的输出像素。通过使用较低分辨率的膨胀卷积,模型可以有效地“看到”输入图像的较大区域。

在此阶段,将文本交换网络和背景完成网络的输出融合以生成完整的文本图像。 如图2所示,融合网络遵循编码器-解码器结构。 类似于[34],我们在融合解码器的上采样阶段将背景完成网络的解码特征图连接到具有相同分辨率的相应特征图。 我们使用Gfuse和Dfuse分别表示生成器和判别器网络。 融合网络的损失函数可计算如下:

为了制作更逼真的图像,我们还遵循样式迁移网络[5,26]的类似思想,将VGG-loss引入融合模块。 VGG损失分为两部分,即知觉损失和风格损失,如下所示:

我们遵循[34]中的类似思想来生成具有相同样式的成对合成图像。我们使用超过1500个字体和10000个背景图像来生成总共100万个狮子训练图像和10000个测试图像。输入图像的大小调整为64×256,批处理大小为32。从权重为零的正态分布初始化所有权重,标准差为001。使用β1= 09和β2= 0999的Adam优化器[16]来优化整个框架。在训练阶段将学习率设置为00001。我们在Ten-sorFlow框架[1]下实现我们的模型。我们的方法中的大多数模块都是GPU加速的。

我们在几个公共基准数据集上评估了我们提出的方法。

我们采用图像生成中常用的指标来评估我们的方法,其中包括:

在本节中,我们将通过经验研究不同的模型设置如何影响我们提出的框架的性能。我们的研究主要集中在以下方面:内容形状转换网络,自注意力网络和背景完成网络中的膨胀卷积。图6给出了一些定性结果。

自注意力网络

使用自注意力网络来充分结合内容特征和风格特征。根据表2,使用单层自注意力网络,平均l2误差减少约0003,平均PSNR增加约03,平均SSIM增加约0012。为了使用样式和内容特征的更多全局统计信息,我们采用了一个多层的自注意力网络来融合全局和局部模式。借助多级自我关注网络,所有的度量方法都得到了改进。

膨胀卷积

膨胀卷积层可以扩大像素区域以重建背景图像,因此更容易生成更高质量的图像。 根据表2,具有膨胀卷积层的背景完成网络在所有指标上均具有更好的性能。

为了评估我们提出的方法,我们将其与两种文本交换方法进行了比较:[10]中提出的pix2pix和Wuet等人[34]提出的SRNet。 我们使用生成的数据集来训练和测试这两个模型。根据论文,两种方法都保持相同的配置。

定量结果

在表2中,我们给出了本方法和其他两种竞争方法的定量结果。显然,我们提出的方法在不同语言的所有指标上都有显著改进,平均l2误差减少了0009以上,平均PSNR增加了09以上,平均SSIM增加了004以上。第二个最好的方法。

基于图像的翻译是任意文本样式传输的最重要应用之一。在本节中,我们提供一些基于图像的翻译示例,如图7所示。我们在英语和中文之间进行翻译。从结果可以看出,无论目标语言是中文还是英文,都可以很好地保持颜色,几何变形和背景纹理,并且字符的结构与输入文本相同。

在图9中,我们还展示了在场景文本数据集上评估的模型的一些示例结果。根据图9, 我们的模型可以替换输入图像中的文本,同时保留原始字体,颜色,大小和背景纹理。

我们的方法有以下局限性。由于训练数据量有限,因此无法充分利用几何属性空间和字体空间。当样式图像中的文本出现波动时,我们提出的方法将失败,请参见图8(顶部)。图8(底部)显示了使用WordArt中的样式图像的失败案例。

在这项研究中,我们提出了一种健壮的场景文本交换框架SwapText,以解决用预期的文本替换场景文本图像中的文本的新任务。我们采用分而治之的策略,将问题分解为三个子网络,即文本交换网络,背景完成网络和融合网络。在文本交换网络中,内容图像和样式图像的特征被同时提取,然后通过自注意网络进行组合。为了更好地学习内容图像的表示,我们使用内容形状转换网络(CSTN)根据样式图像的几何属性对内容图像进行转换。然后,使用背景完成网络来生成内容图像的背景图像样式。最后,将文本交换网络和背景完成网络的输出馈送到融合网络中,以生成更真实和语义一致的图像。在几个公共场景文本数据集上的定性和定量结果证明了我们方法的优越性。在未来的工作中,我们将探索基于字体和颜色生成更多可控制的文本图像。

可采用的机器学习数据集:

两者都包含人脸图像。我把这两个组合成一个文件夹。

最常听到的两种图像生成技术是生成对抗网络(GAN)和LSTM网络。

LSTM训练的时候速度非常慢,GAN训练会快得多。实际结果花不到半小时,模糊的面孔就会开始出现。随着时间的推移,图像会更加逼真。

有许多GAN变种。我使用的一种称为深度卷积神经网络(DCGAN)。DCGAN的优点在于它使用了卷积层。卷积神经网络目前是存在的最佳图像分类算法。

生成对抗网络是由一位名叫Ian Goodfellow的研究员发明的,并于2014年引入了GAN。

GAN非常强大。利用正确的数据,网络架构和超参数,您可以生成非常逼真的图像。

将来,一些高级版本的GAN或其他一些内容生成算法可能会让我们做一些很酷的事情:

但GAN是如何运作的呢?

GAN实际上不是一个神经网络,而是两个。其中之一是Generator。它将随机值作为输入并生成图像。

第二是discriminator。它试图确定图像是假的还是真的。

训练GAN就像一场竞赛。Generator试图在愚弄discriminator时变得尽可能好。discriminator试图尽可能地将假图像与真实图像分开。

这将迫使他们两个都改善。理想情况下,这将在某种程度上导致以下情况:

在现实中,您需要确保一切正常(数据、体系结构、超参数)。GAN对超参数值的微小变化非常敏感。

导入库

第一步是导入所有需要的Python库。

FaceGenerator类

这段Python代码初始化了训练所需的一些重要变量。

将训练数据加载到模型中

此函数将文件夹的名称作为输入,并将该文件夹中的所有图像作为numpy数组返回。所有图像的大小都调整为__init__函数中指定的大小。

Shape=(图像的数量,宽度,高度,通道)。

神经网络

这两个函数定义了generator和discriminator。

神经网络模型训练

对于每个epoch:

训练结束后:

此函数可用于在训练后生成新图像。

训练GAN很难,当你成功时,这种感觉会非常有益。

此Python代码可以轻松用于其他图像数据集。请记住,您可能需要编辑网络体系结构和参数,具体取决于您尝试生成的图像。

以上就是关于氮化镓(GaN)手机快充方案全部的内容,包括:氮化镓(GaN)手机快充方案、SRGAN-超分辨率重建GAN、[CVPR2020]论文翻译SwapText: Image Based Texts Transfer in Scenes等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/10089052.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-05
下一篇 2023-05-05

发表评论

登录后才能评论

评论列表(0条)

保存