Science评论:人工智能需要真实的生物大脑机制吗?

Science评论:人工智能需要真实的生物大脑机制吗?,第1张

© elifesciencesorg

导语

从感知机模型,到深度神经网络的发明,都受到了生物神经系统的启发。在本周Science的一篇评论文章中,研究者认为,将深度学习与类似人脑的先天结构相结合,能够让神经网络模型更接近人类学习模型。

1950年,数学家艾伦图灵在他的论文开头提出了一个重要的问题:机器能思考吗?就此,人类展开了对人工智能的 探索 。

而目前唯一已知的、能进行复杂计算的系统就是 生物神经系统 ,这也就不奇怪——为什么人工智能领域的科学家们会将大脑神经回路视作灵感的来源。

在人工智能领域发展的早期,科学家就研究过使用类似大脑结构的电路进行智能计算。近些年,这一研究方法诞生的最伟大成果就是一个高度精简的大脑皮层回路模型: 神经网络

这个模型受到了大脑神经网络模型的启发。神经网络模型由多层神经元构成,可以通过调节参数权重的大小来调节这些神经元之间连接的强弱,这种结构与神经科学中的突触相对应。

深度神经网络以及相关的方法在人工智能系统的应用中已经带来了深远的变革。在计算机视觉、语音识别以及 游戏 博弈等人工智能的核心领域,神经网络都有着举足轻重的影响力,相较其它模型更甚。在应用领域,语音文本翻译以及计算机视觉这些问题中都广泛应用神经网络方法。

本文我们将会讨论,大脑神经元回路如何为神经网络方法提供新的指引和洞见,使得神经网络能够成为一种强人工智能方法。

从深度学习到强化学习

深度神经网络

深度神经网络的关键问题就是学习问题:如何通过调整神经元之间连接的权重,使得输入的数据能够得到期望的输出,方法是通过对样本的训练自动调整权重。训练样本提供了一套输入数据以及与之所对应的输出数据。深度神经网络通过调整神经元之间的权重,使得输入数据能够产生与期望相对应的输出。

一个好的学习过程,不仅仅是记住了输入样本,同时能够泛化模型,使得模型在遇到没有学习过的样本数据时,也能够得到正确的输出结果。

我们将深度神经网络模型与核磁共振成像以及生物行为数据等实证生理学方法提供的结果相比较,会发现大脑与深度神经网络模型的异同之处。与灵长类生物的视觉系统相比,这两种神经模型的早期神经反应阶段比后期阶段更为接近。这表明我们人造的深度神经网络,能够更好的处理早期神经反应阶段,后期认知过程的处理能力还比较差。

强化学习

除了深度神经网络以外,人工智能模型近期还增添了一员“大将”: 强化学习 ——大脑收到了奖励信号就能够改变行为的机制。强化学习能够表征人或者动物在全世界范围内的行为,并且接收奖励信号。研究者们已经广泛地研究了这种学习模型的大脑反应机制,并且应用到人工智能领域,特别是机器人领域。

强化学习的目标是学习一个最优策略,构建一种从状态到行动的映射,以此来优化所有时间内能获得的收益。近期的人工智能研究中已经将强化学习与深度学习相结合,特别是在诸如视频 游戏 、棋类 游戏 (国际象棋、围棋和日本将棋)等复杂的 游戏 活动中。

深度神经网络和强化学习相结合的模型产生了应为惊讶的结果:人工智能已经击败了国际围棋大师,并且仅需要4小时的训练就能够达到大师级的水平,而且并没有依赖于人类的棋谱,而是通过自我博弈达到这样的结果。

大脑神经回路(左)与深度神经网络(右)

神经网络:人工 VS 生物

一个悬而未决的问题是:与大脑神经回路相比,当前我们所使用的深度神经网络模型结构极其简单,这样的简化是否能够捕捉到人类学习与认知的全部能力?

从神经科学引领人工智能的视角来看,我们必须承认目前取得的结果令人惊讶。与大脑皮层的神经回路相比,神经网络模型做了许多简化,同时也加入了另外一些受到脑神经科学启发的结构,比如归一化处理以及注意力模型。但是一般来说,我们所熟知的关于神经元的所有东西(结构、类型以及关联性等等特征)都被排除在了神经网络模型之外。

目前科学家们并不清楚,对于神经网络这个人工智能模型而言,哪些生物神经结构是必不可少且能发挥作用的。但是生物神经结构和深度神经网络结构的差异已经非常明显了,比如说生物神经元在形态结构、生理特征以及神经化学方面千差万别且结构复杂。典型的例子有,兴奋性椎体神经元的输入分布在复杂树突的顶部和底部;抑制性皮质神经元具有多种不同的形态,且能执行不同的功能。

神经网络模型不仅没有包含这种异质性以及其它复杂的特征,相反,人工神经网络使用了高度精简且一致统一的数学函数作为神经元。就神经元之间的连接方式而言,生物神经元也比神经网络要复杂许多,同层神经元之间的连接,局部连接与远程连接,以及皮层区不同层级之间自上而下的连接,以及可能存在局部的“规范电路”。

深度神经网络主要的成绩还是在处理现实世界中诸如语音信息和视觉信息等感知数据上。在图像视觉领域,神经网络模型最初是用来处理感知问题,例如对图像进行分割以及分类。

在这些工作的基础上加上一些扩展,我们就能够让神经网络模型处理更加复杂的问题。

例如为图像提供说明文字,利用一段简短的语言描述的内容,或者识别的内容并回答人类的提问。

非视觉问题,比如理解的潜在含义:幽默还是讽刺?或者通过理解其中的物理结构以及 社会 现象等。不仅如此,科学家们也在努力让这样的神经网络应用在自动翻译、个人辅助、医疗诊断、高级机器人以及自动驾驶等其它领域。

人们在人工智能领域的研发投入以及资金投入都与日俱增,但这同时也带来了一些的疑难问题——人工智能到底能否带来真实?能否产生和人类类似的理解能力?甚至人工智能是否会和人类智能走向完全不同的方向?这些问题都是未知的,并且人类在该领域的科学研究以及商业实践上都下了重注。

倘若当前的神经网络模型在认知能力方面被证明是有限的,那么自然研究者还需要到神经科学中去寻找启示。目前被人们所忽略的大脑神经中的种种细节是否能为构建强人工智能提供一把钥匙?我们人类大脑中哪些结构是特别重要的,这一点并没有定论。

认知能力取决于

先天结构还是后天学习?

虽然我们人类对自己大脑神经回路的理解还很有限,但我们仍然可以正视一个常见的问题——人脑神经和深度神经网络模型有着根本的不同,这种不同可能在寻找类似人类的强人工智能的道路上起到至关重要的作用。

这涉及到了一个古老的认知问题,是经验主义还是先天主义?换句话说就是:先天的认知结构和一般的学习机制二者的相互作用问题。

婴儿期视觉学习带来的启示

目前的智能模型倾向于经验主义,使用相对简单统一的网络结构,主要依靠学习过程以及大量的训练数据来提高认知能力。相比而言,生物体往往是在经过很有限的训练就能够完成复杂的任务,许多的学习任务是由先天的神经结构来完成的。换句话说,生物的学习是举一反三,而神经网络是举三反一。

比如说许多物种,诸如昆虫、鱼类、鸟类都有着一套复杂且独特的机制来执行导航任务。就人类而言,人类的婴儿出生几个月就能够进行复杂的认知工作,而这时的人类并不能接受具体的训练,相反婴儿能够本能的去识别物体,抓握物体。在视觉上,婴儿能够识别一个动画角色是否友善,这些任务显示出了一个婴儿对这个物理世界以及人类 社会 的初步理解。

大量的研究表明,快速的非监督学习是可行的,因为人类的认知系统中已经先天地具备了基本结构,这些结构有助于人类获得有意义的概念,并且增进认知技能。

与现有的深度神经网络模型相比,人类认知学习和理解能力所具有的优越性很可能是因为人类认知系统中包含着大量的先天结构。通过对婴儿期视觉学习过程的建模,体现出了先天的结构以及后天学习过程的有效结合,并且人们发现那些含义复杂的概念,既不是先天存在的也不是后天学会的。

在这个“中间路线”中,先天概念并不是被开发出来的,而是通过一些简单的原型概念随着人类的学习过程一步一步演化成复杂概念的,这个模式很难说存在明确的学习训练过程。

比如说婴儿能够注意到人的视线以及人的动作之间的关联,当人的视线以及动作朝向相反方向的时候,能够察觉到其中的错误。大脑皮层先天的特定结构能够实现这一功能,并且能对输入的信息输出报错反馈。

“中间路线”助力人工智能

我们也可以把这种先天的结构构建于人工神经网络中,使得人工神经网络的学习过程更加类似于人类。人们可以通过理解并模仿大脑的相关机制来完成这样的一个研究任务,或者从零开始开发一个全新的高效的计算学习方法。

科学家已经在这个方向上做了一些尝试。但总的来说,学习一个先天的结构与当前的学习任务并不相同,在这个问题上人类还是知之甚少。把先天结构与后天学习结合在一起,可能给神经科学和通用人工智能这两个学科都带来好处,并且能将二者结合为智能处理理论。

推荐阅读

人工智能助力神经科学:大脑空间导航方式

Nature 评论:走出实验室的神经科学

Nature人类行为:最大程度发挥神经网络认知潜力

动物如何学习?线虫神经连接组里有答案!

加入集智,一起复杂!

集智俱乐部QQ群|877391004

商务合作及投稿转载|swarma@swarmaorg

搜索公众号:集智俱乐部

加入“没有围墙的研究所”

让苹果砸得更猛烈些吧!

Hopfield神经网络(Hopfield Neural Network,简称 HNN),是美国加州理工学院物理学家Hopfield教授1982年提出的一种反馈型神经网络,信号不但能向前,还能向后传递(输出信号又反馈回来变成输入信号。而前面所介绍的BP网络是一种前馈网络,信号只能向前传递)。他在Hopfield神经网络中引入了“能量函数”概念,使网络的运行稳定性的判断有了可靠依据。Hopfield神经网络的权值不是经过反复学习获得的,而是按照一定规则计算出来的,一经确定就不再改变,而Hopfield神经网络的状态(输入、输出信号)会在运行过程中不断更新,网络演变到稳态时各神经元的状态便是问题的解。

1985年,Hopfield和Tank研制了电子线路来模拟Hopfield网络,较好地解决了优化组合问题中著名的TSP(旅行商)问题,找到了最佳解的近似解,为神经网络的复兴建立了不可磨灭的功劳。

对于地球物理反演这种最优化问题,可以很方便地用Hopfield网络来实现。反演的目标函数等于Hopfield网络的“能量函数”,网络的状态(输入、输出信号)就是模型的参数,网络演变到稳态时各神经元的输入输出值便是反演问题的解。

Hopfield神经网络分为离散型和连续型两种网络模型,分别记为DHNN(Discrete Hopfield Neural Network)和CHNN(Continues Hopfield Neural Network)。

在前馈型网络中无论是离散的还是连续的,一般均不考虑输入与输出之间在时间上的滞后性,而只表达两者之间的映射关系。但在连续Hopfield神经网络中,考虑了输出与输入之间的延迟因素,因此需要用微分方程或差分方程来描述网络的动态数学模型。

8541 离散Hopfield神经网络

离散Hopfield神经网络的拓扑结构如图812所示。这是一种单层全反馈网络,共有n个神经元。图812的特点是任意一个神经元的输出xi只能是0或1,均通过连接权wij反馈至所有神经元j作为它的输入xj。也就是说,每个神经元都通过连接权接收所有其他神经元输出反馈的信息,这样每一个神经元的输出都受其他所有神经元输出的控制,从而每个神经元的输出相互制约。每个神经元均设一个阀值Ti,以反映对输入噪声的控制。

图812 离散Hopfield神经网络的拓扑结构[8]

85411 网络的状态

离散Hopfield神经网络任意一个神经元的输出xj称为网络的状态,它只能是0或1。变化规律由下式规定:

xj=f(netj) j=1,2,…,n  (833)

f( )为转移函数,离散 Hopfield神经网络的转移函数常用符号函数表示:

地球物理反演教程

其中netj为净输入:

地球物理反演教程

对离散Hopfield神经网络,一般有

wij=0,wij=wji (836)

这说明神经元没有自反馈,两个神经元的相互控制权值相同。

离散Hopfield神经网络稳定时,每个神经元的状态都不再改变。此时的稳定状态就是网络的输出,记为

地球物理反演教程

85412 网络的异步工作方式

它是一种串行方式,网络运行时每次只改变一个神经元的状态,其他神经元的状态保持不变。

85413 网络的同步工作方式

它是一种并行同步工作方式,所有神经元同时调整状态。

85414 网络的吸引子

网络达到稳定状态时的输出X,称为网络的吸引子。

85415 网络的能量函数

网络的能量函数定义为

地球物理反演教程

以上是矩阵形式,考虑无自反馈的具体展开形式为

地球物理反演教程

当网络收敛到稳定状态时,有

ΔE(t)=E(t+1)-E(t)=0 (840)

或者说:

地球物理反演教程

理论证明了如下两个定理[8]:

定理1对于DHNN,若按异步方式调整网络状态,且连接权矩阵W为对称阵,则对任意初始状态,网络都能最终收敛到一个吸引子。

定理2对于DHNN,若按同步方式调整网络状态,且连接权矩阵W为非负定对称阵,则对任意初始状态,网络都能最终收敛到一个吸引子。

85416 利用离散Hopfield神经网络进行反演

在地球物理线性反演中,设有如下目标函数:

地球物理反演教程

对比式(838)和式(842)发现它们在形式上有很多相似之处。王家映的《地球物理反演理论》一书中,直接用式(842)和式(838)类比,公式显得复杂。本书设立一个新的目标函数ϕ,公式将会变得简洁得多:

地球物理反演教程

再对比式(838)和式(843),发现它们完全一样,只要设:

X(t)=m,W=GTG,T=GTd (844)

注意:式(843)的目标函数ϕ的极大值解就是原来目标函数φ极小值的解,它们是同解的。

如果待反演的模型参数是离散的0或1值,那么可以直接应用离散Hopfield神经网络进行反演。但是一般它们都是连续的数值,所以还要将模型参数表示为二进制[1]:

地球物理反演教程

其中:Bij=0或1为二进制数;D和U为整数,取决于模型参数的大小和精度。这样第i个模型参数就用Bij表示为了二进制数。将式(845)代入目标函数式(843)后再与离散Hopfield神经网络的能量函数进行对比,确立新的等价关系后,就可以进行反演了。

这个新的等价关系式可以参见王家映的《地球物理反演理论》[1]一书。

反演的过程大致如下:

(1)根据模型参数的大小范围和精度确定D和U,将初始输入模型参数变为二进制数。设立一个拟合精度标准,如相对均方差ε,设定一个最大迭代次数N(所有神经元的输出都修改一次称为一次迭代)。

(2)利用数据方程的G矩阵(在一般情况下需用偏导数矩阵获得)计算网络的权值和阀值。

(3)将二进制初始模型参数输入网络并运行网络。

(4)把每次迭代网络输出值变为十进制模型参数,进行正演计算。如果拟合满足精度ε,则停止网络运行并输出反演结果。否则重复(2)~(4)步直到满足精度或达到最多迭代次数N为止。

在一般情况下,地球物理数据方程的G矩阵是无法用解析式写出的,需要用偏导数矩阵获得,它是依赖于输入参数的,因此网络的每次迭代都要重新计算偏导数矩阵。这个计算量是很大的。因此他的反演过程和最小二乘法相似。此外,用Hopfield神经网络进行反演同样有可能陷入局部极值点(吸引子)。因此同样受初始模型的影响,需要尽量让初始模型接近真实模型。

8542 连续Hopfield神经网络(CHNN)[8]

1984年,Hopfield把离散Hopfield神经网络发展为连续Hopfield神经网络。但所有神经元都同步工作,各输入输出量为随时间变化的连续的模拟量,这就使得CHNN比DHNN在信息处理的并行性、实时性方面更接近实际的生物神经网络工作机理。因此利用CHNN进行地球物理反演更加方便。

CHNN可以用常系数微分方程来描述,但用模拟电子线路来描述,则更加形象直观,易于理解。图813为连续Hopfield神经网络的拓扑结构[8]。

图813 连续Hopfield神经网络的拓扑结构[8]

图813中每个神经元用一个运算放大器模拟,神经元的输入输出用放大器的输入输出电压表示,连接权用电导表示。每个放大器有一个正向输出和一个反向输出,分别表示兴奋和抑制。每个神经元还有一个用于设置激活电平的外界输入偏置电流作为阀值。

这里由于篇幅关系不再累述。感兴趣的读者可以参考其他文献。

深度学习入门的话你可以先了解了解什么是深度学习,他的应用在哪方面,对其有个大致的了解。然后就要掌握一定的python基础,因为深度学习是要有一定编程基础的,当你掌握python基础之后,就可以随着课程的进行慢慢深入学习相关知识。

YouTube推荐系统的三大难点:

· 一是规模太大,简单的推荐算法在如此大规模数据量上可能是失效的;

· 二是实效性,即新数据不断产生,需要将其良好的呈现给用户,以平衡旧有的好内容以及新内容;

· 三是噪音问题,用户行为与视频描述均有噪音,并且只能获得充满噪音的用户隐含反馈,而不能直接获取用户满意度。

图1YouTube基于深度学习推荐系统架构图

本文呈现的推荐系统解决方案分为两个部分:

· 一个是备选生成(Candidate Generation),其目标是初选结果,从海量数据中选择出符合其个人需求偏好的百级别数据;

· 一个则是排序(Ranking),通过更加丰富的用户,视频乃至场景信息,对结果进行精细化排序,得到呈现给用户的备选。

备选生成阶段,将推荐系统定义为一个多分类器,其职责是确定某个用户,在某个场景与时间下,将从系统的视频中选择消费哪一个视频。具体的方法是,将用户与视频全部转化为Embedding描述,即一个向量,最终用户消费某个视频的概率通过如下方式计算得到:

而构建用户与视频的Embedding,则是通过训练而来。将用户观看视频/搜索记录/其它信息如年龄性别等作为输入特征,部分稀疏特征首先进行Embedding化,中间为数层ReLU,最终一层用SoftMax进行分类。 换句话讲,是将用户与场景信息作为输入,预估用户下一个要看的视频,也就是将用户分到具体某一个视频作为其类别。 用户与视频的Eembedding,则是神经网络最后一层的对应矩阵。这种方法除了能利用用户行为信息外,其它信息例如设备,地理位置,性别等也可以作为输入,这是神经网络相对于普通MF类算法的优势之一。

图2YouTube推荐备选生成阶段架构

备选生成的下一个阶段是排序。其网络结构跟备选生成阶段类似,将所有排序模型中的信息输入后,进入多层ReLU,最终进行优化的是一个加权逻辑回归损失函数,观看时间作为阳性样本权重。在这一层,也可以看到其推荐“代理问题”的转化:由点击行为预估转为了以观看时长为权重的点击行为预估,这样更佳贴近Youtube的产品优化方向。与备选生成阶段另一个不同在于,排序模块需要考量的特征要多得多:

· “场景”类特征,例如用户可能在某个地方某个时间愿意观看某一条视频,但是在别的地方别的时间则不会;

· 曝光信息:用户观看了某界面,但是并未在其上进行 *** 作,那么随之应进行已呈现内容降级;

· 备选生成层输出:排序需要将各种备选结果联合起来;

· 更丰富的用户信息:例如用户最近的一次搜索词,用户最近观看的同一个主题下的视频数量,用户上一次观看同主题视频的时间,用户所使用的语言等;

图3YouTube推荐排序阶段架构

除了整体设计与系统架构以外,本篇论文中陈述了很多“选择”,这些选择更多的是“艺术”而不完全属于技术范畴。这些选择往往是很多技术人员关注不多的点,但在笔者看来,这些都蕴含着YouTube技术与产品人员深入的思考与判断。

“Example Age” 特征

对于YouTube产品层来讲,鼓励内容产生毫无疑问是至关重要的,所以推荐系统也希望对用户上传的新内容的有所偏好。然而幸运的是,即使损失一部分相关性,视频的消费者也偏好新内容。也就是说,新内容的价值可以良好的通过其带来的吸引力呈现出来,并不需要平台刻意而为之。

由于系统使用一个时间窗口的训练样本进行训练,如果没有视频的上传时间信息,那么模型会认为这个时间窗口内用户对视频的偏好是稳定的,然而事实远非如此。将视频的上传时间加入到特征集合后,预估更加准确,尤其是视频刚上传阶段的强烈便好被成功捕捉到。

图4无时间特征预估/有时间特征预估/真实情况 三者对比

优化目标选择

图5优化对象的选择

算法系统的设计首先要明确优化对象,这不仅仅涉及到损失函数的形式,同样也是评判系统成功与否的标准。YouTube是视频平台,更是富含“价值”的长视频平台,其观看行为比点击行为意义更大。(当然,笔者认为没有任何一个简单指标可以完全代表一个产品)

“正样本”定义

图6何为正样本的设计选择

训练数据来源

图7关于训练数据来源的设计抉择

训练数据应该只来源于推荐界面的曝光吗?YouTube认为不然。如果只考虑推荐界面曝光,则无法对用户便好进行 探索 ,更加无法捕捉用户偏好的变化,因为用户偏好的变化往往首先会对应着搜索与浏览行为。所以YouTube将各个界面例如搜索,导航等用户行为全部纳入其中。

训练数据窗口

图8 训练数据收集方式的设计选择

Youtube将所有用户等而视之,每个用户收集一定量的样本。而不是惯常可见的直接收集一个时间窗口内的所有用户行为,作为训练样本。这样的好处是避免系统收到少数行为过多用户的影响,使得系统更多的为大众设计。这样的设计理念与近期阿里Gai Kun的论文中评测方法(用户AUC)设计有异曲同工之妙。

用户行为序列处理

图9用户行为序列信息处理的设计选择

在系统中,用户往往会顺着一个检索结果页或者用户发布者浏览页进行顺序观看,如果系统捕捉到了用户看了检索界面的前三个结果,那么预估用户将看第四个结果就会很容易。但是这样真的好吗?将检索结果页面或者用户发布视频界面直接作为推荐结果呈现给用户是并不友好的--抢了别的界面应该干的活嘛。所以此处YouTube对用户行为序列做了处理,在模型输入中选择放弃用户行为的序列信息,将其打散成词袋Embedding,即使这样的信息有利于模型的离线训练效果。

预估对象的选择

图10关于预估对象的设计选择

用户的行为往往是有顺序的,用户在系统中“热身”后,在一个频道下面,往往先看大众喜欢的热门,然后逐步找到自己的兴趣点,聚焦看一块内容。那么,训练数据则应该收集用户前段时间行为,预估此后的行为。而不是收集时间前后段的行为,预估中间时间段的用户行为。这样模型更加接近用户习惯。

除此之外,Youtube根据系统设计了对应的实验,结果非常简单:深度网络层数越高,效果越好。

YouTube的推荐系统,已经为其贡献了70%的用户播放时长,搜索与导航在PC时代的主导地位在移动时代已经完全被颠覆掉。希望大家在其中学到一些东西。笔者水平所限,若有错误不当之处,敬请指正。

另外,个人用TensorFlow模拟Youtube的推荐系统,做了一个简单实现。其实就是一个多分类器外加一个单分类器,远谈不上成熟,可以供大家参考。

https://githubcom/wangkobe88/Earth

——END——

深度学习最成功的应用是在音视频的识别上,几乎所有的商用语音识别都是深度学习来完成的。其次深度学习应用最成功的领域就是图像识别,目前识别准确率已经超越人类。深度学习成了图像识别的标配,以至于目前做图像不懂深度学习都不好意思跟人打招呼。(这种状态个人觉得是不好的)其中图像识别中,应用最广的是人脸识别。自然语言理解方面,深度学习也非常活跃,主要是使用一种叫做LSTM的深度学习方法。深度学习已经深入各个领域无人车,智能回答,智能翻译,天气预报,股票预测,人脸比对,声纹比对,等其他许多有趣的应用,比如智能插画,自动作诗,自动写作文,等都可以通过深度学习来完成深度神经网络目前有哪些成功的应用

循环神经网络(RNN)是目前深度学习最有前景的工具之一,它解决了传统神经网络不能共享从数据中共享位置的特征的问题。目前,RNN已经有了不少有意思的应用:

语音识别 :输入的语音数据,生成相应的语音文本信息。比如微信的语音转文字功能。

机器翻译 :不同语言之间的相互转换。像有道翻译、腾讯翻译官等。最近微软据说实现了中翻英媲美人类的水平

音乐生成 :使用RNN网络生成音乐,一般会用到RNN中的LSTM算法(该算法可以解决RNN网络中相距较远的节点梯度消失的问题)。下面这个github项目实现了jazz音乐的生成。

deepjazz

文本生成 :利用RNN亦可以生成某种风格的文字。有兴趣的可以看一下一下两个github项目

numpy实现字符层面的文本生成器

keras实现特定作家风格的文本

情感分类 :输入文本或者语音的评论数据,输出相应的打分数据。

DNA序列分析 :输入的DNA序列,输出蛋白质表达的子序列。

视频行为识别 :识别输入的视频帧序列中的人物行为。

实体名字识别 :从文本中识别实体的名字。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/12174860.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存