要使nltk.tokenize.word_tokenize工作,应下载什么?

要使nltk.tokenize.word_tokenize工作,应下载什么?,第1张

要使nltk.tokenize.word_tokenize工作,应下载什么?

你是对的。您需要Punkt Tokenizer模型。它有13 MB,

nltk.download('punkt')
应该可以解决问题。



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5632084.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-15
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存