百度是如何实现中文切词的呢

百度是如何实现中文切词的呢,第1张

大规模中文文本处理中的自动切词和标注技术

--------------------------------------------------------------------------------

Internet网络通信技术和大容量存储技术的发展,加速了信息流通的速度,形成了大

规模真实文本库。这些信息具有规模大、实时性强、内容分布广和格式灵活多样等特点

,从而迫使人们考虑语言信息处理的新理论和新技术。

传统的语言信息处理方法目前已发生了明显的变化。主要表现在:处理对象由少量例

句到大规模的真实文本;处理方法由完全语法分析到部分语法分析;处理范围由典型领域

到开放的实用领域等。

中文信息处理是语言信息处理的一部分,包括汉字信息处理和汉语信息处理。近年来

,在汉字信息处理取得长足进步的基础上,汉语信息处理也开展了一系列的探索性工作。

由于汉语独有的许多难点,如没有词的界限标记、没有形态标记、词类划分和兼类情况复

杂等,面对大规模中文文本的处理任务,作为中文信息处理基础工程的切词、词类标注和

语义标注工作,无论是在理论、方法还是工具方面都面临着如何适应这些变革的问题。

伴随着大规模真实文本语料库的出现,应运而生的语料库语言学(Corpus Linguisti

cs)在80年代崭露头角。山西大学是国内较早建立大规模语料库并从事自然语言处理的单

位之一。1988年受国家语委和国家教委委托,建立了容量为200万汉字的语料库,进行了现

代汉语常用字表的统计。1991~1992年建立了包括新闻、经济、军事、体育、科技和科

普读物等题材的100万汉字的现代汉语语料库,成功地用语料库方法进行了汉语切词和词

类自动标注的研究。在上述两个大规模语料库的基础上,我们从中精选了部分语料进行了

切词、词类标注的精加工,形成了10万汉字的精加工语料库。1995年国家863智能接口评

测小组主持的"现代汉语书面语自动切词与词类标注评测",其中所用的语料就取自该语料

库。

"九五"期间,我们在已有的经过粗加工的1000万字以上语料库的基础上建造了200万

字的平衡语料库,目前正在进行精加工处理,已完成其中50万汉字语料的切词和词类标注

的精加工以及部分段落语义标注试验,发现了很多深层次的问题。

一、研究需要引伸的自动切词技术

1切词词表建造和未登录词识别

从目前国内计算机界采用的切词技术及其切词结果来看,情况不容乐观。首先是《分

词规范》公布后,尚无一套公认的权威性的切词词表可供使用。为此,1995年全国智能接

口评测大纲规定,选取《现代汉语词典》和《汉语拼音正词法》中的词语作为评测参考。

这实际上是一种临时措施,没有解决根本问题。《现代汉语词典》是国内和国际上公认的

最具权威性的规范词典,1995年重版修订后,增加了9000多条反映新事物、新概念和科技

新发展、社会新变化的新词语,如代沟、反思、特区、离休、xyk、桑那浴、人工智能

、基因工程等,同时也删去了一些过于陈旧的词语和过于专门的专科术语。作为一部推广

普通话、促进汉语规范化服务的词典,它的水平是很高的,但作为切词用的词表,其词汇的

收集和数量都不能适应语言信息处理的工程性需要,还需进行筛选和补充。从我们已处理

过的几十万语料来看,还有数千个普通词语需要补充。

其次,因为语言的生命力是由人们的使用决定的,它总是以一种动态的面貌展现在人

们的面前。从动态的角度看,人们可以根据表达的需要不断地构造新词,这就使语言中词

的数目永远是个开放集,任何表面完备的切词词表都不可能把语言中所有的词涵盖无遗。

如:唯美/倾向、唯智力/倾向、唯设备/倾向……,非智力/因素、非国有/资产、非生产性

/投资……,其中,"非"、"唯"均为前缀,上述含这两个前缀而构成的词都是未登录词,也可

看作是一种动态词。但是,我们应看到,汉语中的很多语素在活动能力、构词位置上具有

灵活多变的特点,特别是其中有的语素既可以是能独立运用的成词语素,又能与别的语素

组合,作为构词语素或语缀。

如"非"在上面几例中是前缀,记为"非1",但在"非严肃查处不可"、"这件事非老刘不

能解决"中,"非"是一个连词,记为"非2"。因此,区分"非"在句中是前缀还是词,这是正确

切词的关键,构词知识、句法知识、语义知识在此必不可少。我们还应看到,语言中的词

虽然可以数目无限,但这些词的构造规则是有限的,这可以看成是语言的静态一面。这些

静态知识就是我们动态词构词规则库的内容。

另外,在自动切词过程中,专名识别也是一个难题。未被辨识出的中外人名、地名、

机构组织名、商标名等是导致切词错误的重要原因之一。专名识别出现的错误可分为两

种,一种是误检,把专名误作普通名词或其它词处理,而导致分词错误;另一种是错检,把非

人名、地名等误分作人名、地名,而导致分词错误。

目前,一些切词系统所采用的专名识别方法是建立人名、地名等专名库,然后再用机

械匹配的方法进行处理。这种方法从根本上讲还是用静态词典来匹配动态语言材料,其实

际结果总是不尽如人意。因此,必须从动态的角度研究专名辨识方法。

以中国人名为例。1984年,国家语委和山西大学合作,利用1982年全国人口普查资料

,对我国汉字姓氏人名用字进行了抽样统计。从北京、上海、辽宁、广东、福建、陕西、

四川等七个地区(各抽取25万人)抽取人名共计174993个。这项成果具有覆盖面广、代表

性强、合理、科学等特点。其中共有姓氏729个,分布相对集中,王、陈、李、张、刘这五

个大姓占32%,前114个姓占90%,前365个姓占99%。同时,从人名用字的统计来看,时代背景

和区域性特色也十分明显。如单名增长趋势显著,在1982年人口普查的抽样调查中,新中

国成立前出生的总人数为68273个,单名人数占65%,1976年以后的总人数为13621个,单名

占325%。又如人名用"红"字的,在新中国成立前占0136%,而在1966~1976年期间占21

5%。人名用字的时代变化太明显了。

这些翔实的姓名统计资料清楚地告诉我们,采用姓氏用字库、人名用字库以及上下文

称谓等方法进行人名识别是一条可以试验的方法。目前,由于研究深度不够,试验结果还

未能达到实用。

多年的实践告诉我们,专名识别是一个很复杂的问题,不仅涉及字词的信息(如是否常

做姓氏和人名),而且还涉及词语搭配的句法知识和语义知识等。

总之,自然语言具有无限丰富、不断发展和约定俗成的特点。汉语和其它自然语言一

样,它的词汇部分永远是一个开放集,任何词表都不能做到将全部词汇收入。自动切词系

统中由未登录词造成的切词错误远远超过歧义切分与字段引发的错误。因此,近年来这个

问题已成为自动切词研究的焦点。目前,自动切词的各种算法设计和切词精度的提高,还

有赖于从现代汉语词汇学的角度进行分析研究,如语素的构词能力、接尾词和接头词的特

性、复合词的构成方式等,才能从根本上解决切词词表的建造和未登录词的辨识问题。

2建造歧义切分的句法构词知识库,以提高切词精度

歧义字段在中文文本中是普遍存在的,是自动切词中一个比较棘手的问题。近年来,

国内开展了对歧义切分技术的研究,已研究出一些构词和语法语义知识,增强了切分歧义

字段的能力,提高了切词的精度。但是,这些构词语法知识库库容小、规则有限,无法满足

大规模真实文本中信息处理的高标准要求。当前,应首先在大规模真实语料中采集各种歧

义现象的基础上,从语素构词、词的句法关系、词义搭配、短语结构等多个角度进行分析

研究。

目前,我们已从语料中收集整理了近万条歧义切分字段及其相应的句子,建立了歧义

切分字段语料库,并从中发现,交集型歧义切分字段占歧义字段总数的85%以上,而其中又

以二字词构成的歧义字段为多,占交集型歧义字段的90%以上。可见处理这些由二字词构

成的交集型歧义切分字段是我们研制歧义切分技术的一个重点。基于以上事实,经过一年

来的不断攻关,我们共归纳出几十条歧义字段切分的句法规则及上百条构词规则,并用上

述规则进行切词试验,取得了较为满意的效果。如歧义切分字段库中所有由介词构成的歧

义字段有上百条,而我们只给出两条句法规则就解决了这些字段的歧义问题。

规则P1:AJB为交集型歧义字段,若A为介词,则切分为A(介)/JB。如除/法律、与/共同

、把/关系、为/人民等。

规则P2:AJB为交集型歧义字段,若B为介词,则切分为AJ/B(介)。如发现/在、没有/用

、习惯/于、主动/向等。

我们还建立了助词、副词、连词、方位词、趋向动词、能愿动词、量词、形容词等

的句法规则来解决歧义字段,同样具有以简驭繁的功效。

歧义字段切分时,词法知识同样是正确切分中必要的信息。如"己"、"民"、"界"、"

阐"等都是不成词语素,由这些语素组成的歧义字段可以利用构词法的知识给出切分规则

。下面例子中的歧义字段都能取得正确的切分结果。

拿/出/自己/的/心爱/的/东西。(不可能切成"出自/己")

到时/在/世界/上/展示/风采。(不可能切成"在世/界")

这/段/话/阐明/了/一/个/真理。(不可能切成"阐/明了")

五/乡/村民/办/起/了/小/水电。(不可能切成"乡村/民")

我们在探讨歧义字段切分技术时所建立的歧义切分句法和构词知识库,大大地增强了

处理歧义字段的能力。

二、词类自动标注中应考虑的两项技术

1词类标注应采取经验主义和理性主义相结合的方法

1992年国际机器翻译会议的主题即为"机器翻译中的经验主义和理性主义方法"。随

着对大规模真实文本处理的日益关注,人们已普遍认识到基于语料库的分析方法(即经验

主义方法)至少是对基于规则的分析方法(即理性主义方法)的一个重要补充。

在国内词类自动标注算法中,关于采用基于大规模语料库的经验主义方法和基于规则

的理性主义方法己有试验报道。我们采用了"成分似然性自动词类标注系统" (CLAWS)改

进算法,选择10万汉字语料作为训练集(标记集有174个标记),建立了一个相邻标记的同现

概率矩阵(174×174)和兼类词典(收词1500个,每个兼类词包括词类标记及出现概率)。进

行自动标记时,先从输入文本中截取一个首词和尾词非兼类的有限长度的词串(称为SPAN

),然后利用同现矩阵提供的数据来计算SPAN产生的每个可能标记的概率积,并选择概率积

最大的标记串作为词类标记结果。

试验结果表明,基于语料库统计的方法具有很好的一致性和较高的覆盖率,并且可以

将一些不确定的知识定量化。但是,在这种方法中获取知识的机制与语言学研究中获取知

识的机制完全不同,因而所获取的知识很难与现有的语言学成果相结合。同时,像CLAWS算

法的时间和空间复杂度都比较大,随着标记跨段长度的增加以及兼类词标记数目的增大,

其实际运行效率将会降低。

基于规则的理性主义方法可以将大量现成的语言学知识形式化,具有较强的概括性,

便于引用最新研究成果。因为任何词类都有其内部的共性和区别于其它词类的个性。只

要我们把词类的共性和它外部的个性特征结合起来,词的兼类问题是可能得到妥善解决的

。比如:名词的语法个性在于它可以直接受名量词的修饰,可以受名词直接修饰,可以做"

有"的宾语,可以与名词组成并列结构。如果某个词具备了上述特征,我们就可以判定它是

名词。 (

例如,主张、计划、建议可以是动词,但在下面的语法环境中,它们一定是名词,这是

因为:

·可以受名量词的直接修饰 如五点主张、不少计划、许多建议。

·可以受名词的直接修饰 如个人主张、教学计划、家长建议。

·可以做"有"的宾语 如有主张、有计划、有建议。

·可以与名词组成并列结构 如观点和主张、材料和计划、观点和建议。

我们在对50万汉字语料进行词类标注中,根据词的语法功能这一标准判别兼类词,既

具科学性又有可 *** 作性,收到了较好的效果。但是,实践表明,基于规则的方法所描述的语

言知识的颗粒度太大,难以处理复杂的、不规则的信息,特别是当规则数目增多时,很难使

规则全面覆盖某个领域的各种语言现象。

为此,我们正在把基于规则的方法和基于统计的方法结合起来进行试验,使语言知识

选择引用和用统计方法建立的语言模型有机地结合起来,使之互相补充,相得益彰。预计

这一试验将会取得更为满意的结果。

2词类标注应同切词过程一体化进行

人们分析和理解自然语言时,其特点和过程是什么样的呢通过仔细观察和思考,我们

不难发现,人脑处理自然语言的特点和过程是将切词和词类识别一体化进行,即边切词边

进行词类或语义识别,二者是不可分离的两个方面。下面以处理兼类词"为"和由"为"构成

的歧义字段为例,说明切词和词类标注不可分离的性质。 例 "他们以服务社会、报效

祖国为人生的第一目标"。

理解这句话的关键是判别兼类词"为"的词性,并处理歧义切分字段"为人生"到底该切

分为"为人/生"还是切分为"为/人生"。前者是词性判别,后者是词的切分。句法知识在理

解这句话中首先起作用,当我们看/听到介词"以"时,我们首先查寻的是这个介词后面的第

一个动词,当兼类词"为"出现时,它的动词词性马上被确认,也就是说介词的词性同时被排

除,因为汉语中"以为"常作为一种固定搭配使用。确定了"为"的词性,歧义切分字

段"为人生"的正确分词结果"为/人生"也被随之确定下来,可见句法知识不仅解决了词性

的确定,同时也解决了歧义的切分。词类判别和切词是同时进行而不可分离的。

目前把切词和词类标注分离开将带来什么结果呢还是以《分词规范》为例,它明确

规定,"场、室、界、力"等字用在某个单位的末尾时,就要一律按"接尾词"单独切分,比如

:运动/场、会议/室、新闻/界、生产/力等。因为切词的目的不是为切词而切词,而是要

为进一步的句法分析和理解语言服务,那么,词性标注就成为下一步不可或缺的工作。但

这时,上面的分词结果就出现了麻烦。"场、室、界、力"如果是词也只能是名词,可它们

是词吗如果是词,为什么它们从来都不能独立运用,单独成词,而只能以附加的成分出现

在某些名词性成分之后语言中真的有粘着的"名词"吗答案都只能是否定的。这种把构

词成分误作"分词单位"切分的做法造成的上述不能自圆其说的窘况,正是脱离词类标注单

独切词的结果。

鉴于此,我们深感应将切词和词类标注作为理解和分析语言材料的两个不可分离的环

节,进行一体化处理。这样做,才真正符合人处理语言和过程的特点,才无愧于"人工智能

",由此而得出的结果才可能达到预期效果。

三、应加强汉语文本自动语义标注试验

在中文信息处理中,词汇、句法和语义层面的分析研究都需要借助于词义特征。一词

多义形成了词的多义现象,自动语义标注主要是解决词的多义问题。一词多义虽然是自然

语言中的常见现象,但是在一定的上下文中一个词一般只能解释为一个义项。所谓自动语

义标注就是运用逻辑运算和推理机制,对出现在一定上下文中的词语语义的义项进行正确

的判断,确定其正确的语义,并加以标注。多义词的排歧一直是一个老大难问题。

国内对于汉语文本自动语义标注的研究已经起步,并正在进行中。山西大学在汉语全

文检索中进行了义项标注研究,并对《太原市地方志大事记》进行了义项标注试验。这份

材料从公元前514年到1990年,分为10个历史阶段,包括了太原历史上的政治、经济、军事

、文化、科技诸方面具有划时代意义的事件。全文共50万汉字语料,经义项标注后,主要

解决了人名、地名、机构名等专有名词的同义现象,同时提出了普通词义项标注方法,包

括同义词的确定和多义词的排歧。

英语有句谚语"repetition is the mother of skill(重复是技能之母)"。你可以回忆一下你学习任何一种技能的过程。无论是游泳还是骑自行车,都是重复同一类动作的过程。任何技能的获得,当然包括英语这项语言技能,均来自重复。在刚开始学习英语口语和单词时,重复原则就更为重要。记得在单词风暴软件中有个按艾宾浩斯遗忘点重复复习的功能,应用了人工智能算法,它就是智能地根据你学习情况,让你能提高重复效率,不熟悉的增加复习,熟悉度减少复习,可以在不断重复跟读的过程中找到自己的差距并加深记忆。

随着搜索经济的崛起,人们开始越加关注全球各大搜索引擎的性能、技术和日流量。作为企业,会根据搜索引擎的知名度以及日流量来选择是否要投放广告等;作为普通网民,会根据搜索引擎的性能和技术来选择自己喜欢的引擎查找资料;作为技术人员,会把有代表性的搜索引擎作为研究对象 搜索引擎经济的崛起,又一次向人们证明了网络所蕴藏的巨大商机。网络离开了搜索将只剩下空洞杂乱的数据,以及大量等待去费力挖掘的金矿。

但是,如何设计一个高效的搜索引擎我们可以以bd所采取的技术手段来探讨如何设计一个实用的搜索引擎搜索引擎涉及到许多技术点,比如查询处理,排序算法,页面抓取算法,CACHE机制,ANTI-SPAM等等这些技术细节,作为商业公司的搜索引擎服务提供商比如bd,GOOGLE等是不会公之于众的我们可以将现有的搜索引擎看作一个黑盒,通过向黑盒提交输入,判断黑盒返回的输出大致判断黑盒里面不为人知的技术细节

查询处理与分词是一个中文搜索引擎必不可少的工作,而bd作为一个典型的中文搜索引擎一直强调其”中文处理”方面具有其它搜索引擎所不具有的关键技术和优势那么我们就来看看bd到底采用了哪些所谓的核心技术

我们分两个部分来讲述:查询处理/中文分词

一 查询处理

用户向搜索引擎提交查询,搜索引擎一般在接受到用户查询后要做一些处理,然后在索引数据库里面提取相关的信息那么bd在接受到用户查询后做了些什么工作呢

1 假设用户提交了不只一个查询串,比如”信息检索 理论 工具”那么搜索引擎首先做的是根据分隔符比如空格,标点符号,将查询串分割成若干子查询串,比如上面的查询就会被解析为:<信息检索,理论,工具>三个子字符串;这个道理简单,我们接着往下看

2 假设提交的查询有重复的内容,搜索引擎怎么处理呢比如查询”理论 工具 理论”,bd是将重复的字符串当作只出现过一次,也就是处理成等价的”理论 工具”,而GOOGLE显然是没有进行归并,而是将重复查询子串的权重增大进行处理那么是如何得出这个结论的呢我们可以将”理论 工具”提交给bd,返回341,000篇文档,大致看看第一页的返回内容OK继续,我们提交查询”理论 工具 理论”,在看看返回结果,仍然是那么多返回文档,当然这个不能说明太多问题,那看看第一页返回结果的排序,看出来了吗顺序完全没有变化,而GOOGLE则排序有些变动,这说明bd是将重复的查询归并成一个处理的,而且字符串之间的先后出现顺序基本不予考虑(GOOGLE是考虑了这个顺序关系的)

3 假设提交的中文查询包含英文单词,搜索引擎是怎么处理的比如查询”**BT下载”,bd的方法是将中文字符串中的英文当作一个整体保留,并以此为断点将中文切分开,这样上述的查询就切为<**,BT,下载>,不论中间的英文是否一个字典里能查到的单词也好,还是随机的字符也好,都会当作一个整体来对待至于为什么,你用查询” **dfdfdf下载”看看结果就知道了当然如果查询中包含数字,也是如此办理

到目前为止,一切很简单,也很清楚,bd怎么处理用户查询的呢归纳如下:首先根据分割符号将查询分开,然后看看是否有重复的字符串,如果有,就抛弃多余的,只保留一个,接着判断是否有英文或者数字,如果有的话,把英文或者数字当作一个整体保留并把前后的中文切开

接着该干什么呢该考虑分词的问题了

二 中文分词

首先,讲讲bd的分词时机或者条件问题,是否是个中文字符串bd就拿来切一下呢非也,要想被bd的分词程序荣幸的切割一下也是要讲条件的,哪能是个字符串就切割啊你当bd是卖锯条的么

那么什么样的字符串才满足被切割的条件呢简单说来,如果字符串只包含小于等于3个中文字符的话,那就保留不动,当字符串长度大于4个中文字符的时候,bd的分词程序才出马大干快上,把这个字符串肢解掉

怎么证明呢我们向bd提交”**下载”,看看返回结果中标为红字的地方,不难看出来,查询已经被切割成<**,下载>两个单词了,说明分词程序已经开工了,如果是比4个中文字符更长的字符串,那分词程序就更不客气了,一定大卸八块而后快我们来看看三个字符的情况,提交查询”当然择”,看起来这个查询不伦不类,那是因为我希望看到这个字符串被切分为<当然,择>,返回结果365篇相关页面,翻到最后一页,发现标红的关键字都是”当然择”连续出现的情况,好像没有切分,但是还不确定,那么再提交人工分好的查询”当然 择”看看,返回结果1,090,000篇,基本上可以确定没有进行分词了,当然另外一种解释是:对于三个字符先切分,然后将切分后的结果当作一个短语查询,这样看到的效果和没有切分是相似的但是我倾向于判断bd对于少于3个字符的串没有切分,奥卡姆不是说了么”如无必要,勿增实体”,干吗做无用功呢那么如果没有切分,会有一个随之而来的问题,怎么从索引库里面提取未切分的字符串呢这牵扯到索引的问题,我觉得bd应该采取了两套索引机制,一种是按照单词索引,一种是按照N-GRAM索引,至于索引的具体问题,以后在详细论述

下面我们看看bd是采取的何种分词算法,现在分词算法已经算是比较成熟了,有简单的有复杂的,比如正向最大匹配,反向最大匹配,双向最大匹配,语言模型方法,最短路径算法等等,有兴趣的可以用GOOGLE去搜索一下以增加理解这里就不展开说了但是要记住一点的是:判断一个分词系统好不好,关键看两点,一个是消除歧义能力;一个是词典未登录词的识别比如人名,地名,机构名等

那么bd用的是什么方法我的判断是用双向最大匹配算法至于怎么推理得出的,让我们一步步来看当然,这里首先有个假设,bd不会采取比较复杂的算法,因为考虑到速度问题

我们提交一个查询”毛泽东北京华烟云”,又一个不知所云的查询,尽管不知所云但是自有它的道理,我想看看bd的分词是如何消歧以及是否有词典未登录词的识别的功能,如果是正向最大匹配算法的话,那么输出应该是:”毛泽东/北京/华/烟云”,如果是反向最大匹配算法的话,那么输出应该是:”毛/泽/东北/京华烟云”,我们看看bd的分词结果:”毛泽东/北/京华烟云”,一个很奇怪的输出,跟我们的期望相差较多,但是从中我们可以获得如下信息:bd分词可以识别人名,也可以识别”京华烟云”,这说明有词典未登录词的识别的功能,我们可以假设分词过程分为两个阶段:第一阶段,先查找一个特殊词典,这个词典包含一些人名,部分地名以及一些普通词典没有的新词,这样首先将”毛泽东”解析出来,剩下了字符串”北京华烟云”,而”北/京华烟云”,可以看作是反向最大匹配的分词结果这样基本说得通为了证明这一点,我们提交查询”发毛泽东北”,我们期望两种分词结果,一个是正向最大匹配<发毛,泽,东北>,一个是上述假设的结果<发,毛泽东,北>,事实上bd输出是第二种情况,这样基本能确定bd分词采取了至少两个词典,一个是普通词典,一个是专用词典()而且是专用词典先切分,然后将剩余的片断交由普通词典来切分

继续测验,提交查询”古巴比伦理”,如果是正向最大匹配,那么结果应该是<古巴比伦,理>,如果是反向最大匹配,那么结果应该是<古巴,比,伦理>,事实上bd的分词结果是<古巴比伦,理>,从这个例子看,好像用了正向最大匹配算法;此外还有一些例子表明好像是使用正向最大匹配的;但是且慢,我们看这个查询”北京华烟云”,正向最大匹配期望的结果是<北京,华,烟云>,而反向最大匹配期望的结果是<北,京华烟云>,事实上bd输出的是后者,这说明可能采用的反向最大匹配;从这点我们可以猜测bd采用的是双向最大匹配分词算法,如果正向和反向匹配分词结果一致当然好办,直接输出即可;但是如果两者不一致,正向匹配一种结果,反向匹配一种结果,此时该如何是好呢从上面两个例子看,在这种情况下,bd采取最短路径方法,也就是切分的片断越少越好,比如<古巴,比,伦理>和<古巴比伦,理>相比选择后者,<北京,华,烟云>和<北,京华烟云>相比选择后者还有类似的一些例子,这样基本可以解释这些输出结果

以上就是关于百度是如何实现中文切词的呢全部的内容,包括:百度是如何实现中文切词的呢、新手,为什么在背单词时添加的新词,都要求在当天背完、请问什么是百度算法等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/web/9555317.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-29
下一篇 2023-04-29

发表评论

登录后才能评论

评论列表(0条)

保存