如何用Python找出英语和汉语中特定词性的单词

如何用Python找出英语和汉语中特定词性的单词,第1张

如何用Python找出英语和汉语中特定词性的单词

在绘制词云图时,我们有时需要找到特定词性的单词,便云图显示更加精准,本文通过jieba(结巴)库中的posseg和nltk中pos_tag分别对汉英两种字符进行分词、标准,再利用列表表达式进行特定词性单词的提取,演示如下:

Python批量获取英汉语篇中特定词性的单词

一、对于英语中的特定词性单词进行提取

首先引入nltk中的word_tokenize和pos_tag,对于需要 *** 作字符先分词,再标注,然后再提取。代码如下:

from nltk import pos_tag,word_tokenize
s="Where do you from? Do you like English?"
text = word_tokenize(s) #分词
print([(word,tag) for word,tag in pos_tag(text) if word.isalpha()]) # 查询标注结果
print([(word,tag) for word,tag in pos_tag(text) if tag in ["NNP","PRP"]]) #提取名词和代词

结果展示:

[('Where', 'WRB'), ('do', 'VBP'), ('you', 'PRP'), ('from', 'IN'), ('Do', 'VBP'), ('you', 'PRP'), ('like', 'IN'), ('English', 'NNP')]
[('you', 'PRP'), ('you', 'PRP'), ('English', 'NNP')]
二、对于汉语中特定词性词进行提取

首先引入jieba库,先进行分词,再利用其中的posseg对字符串进行标注。代码如下:

import jieba.posseg as pseg
s="""你想去学校填写学生寒暑假住校申请表吗?"""
words=pseg.cut(s) #分词
print([(word.word,word.flag) for word in words if word.flag in ['v']]) #提取动词

 结果展示如下:

[('想', 'v'), ('去', 'v'), ('填写', 'v')]

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5721410.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-18
下一篇 2022-12-18

发表评论

登录后才能评论

评论列表(0条)

保存