-
使用斯坦福分词器进行词性标注
使用斯坦福分词器进行词性标注 文章目录 使用斯坦福分词器进行词性标注前言一、斯坦福分词器是什么?二、使用步骤1.去官网下载工具包2.导入库3.斯坦福模型功能的介绍4.分词结果展示5.分词结果进行分析三、总结
-
从头开始梳理去年 敲注释 无意义
import numpy as npimport torchimport torch.nn as nn import torch.optim as optim from torch.autograd import Variabledtype
-
从头开始梳理去年 敲注释 无意义
import numpy as npimport torchimport torch.nn as nn import torch.optim as optim from torch.autograd import Variabledtype
-
深度学习,机器学习知识整理
深度学习,机器学习知识整理 由于知识内容众多,已经整理到语雀,然后通过公众号分享一下, 感谢大家关注!!&a
-
用机器学习的思路训练单词的TFIDF值
之前用统计的方法(TFIDF理解和应用)做了一个计算单词TFIDF的任务,这次用机器学习的思路。 1 思路 1.1 随机初始化 随机初始化每个词的TDIDF值
-
安装neo4j
在docker ubuntu 18.04里进行的安装。 1、准备 neo4j-community-3.5.13-unix.tar.gz安装包。 2、准备jdk-18_linux-x64_bin.tar.gz安装包。 链接࿱
-
NLP 自然语言分析理解
自然语言处理(NLP,Natural Language Processing) 是研究人与计算机交互的语言问题的一门学科。按照技术实现难度的不同,这类系统可以分成简单匹配式、模糊匹配式和段落理解式
-
TextCNN 医疗关系抽取
模型代码如下所示 import jiebaimport torchimport torch.nn as nnimport torch.nn.functional as functionsimport numpy as npimport ti
-
Elasticsearch环境搭建详细教程
文章目录 1. 下载 Elasticsearch2. 配置 Java环境3. 运行 elasticsearch.bat4. 安装 node.js5. 下载并配置 elasticsearch-head6. 安装 grunt环境7. 访问 ht
-
调用云服务实现语音识别合成以及感情分析
目录: 语音识别1.实验环境准备2.SDK获取以及配置3.利用 pyaudio 实现语音录入a.安装 pyaudiob.实现录音功能 4.语音识别语音合成1.环境准备2.SDK获取以及配置3.实现语音合成功能并
-
检索式问答系统baseline
1 系统介绍 搭建一个基于检索式的简单的问答系统。 本项目包括: 字符串 *** 作文本预处理技术(词过滤,标准化)文本的表示(词袋模型&
-
Tensorflow 2.x
文章目录1. data input pipelines(Dataset) 1.1 构造Dataset及简介 1.1.1 tf.data.Dataset.from_tensor_slices
-
调用云服务实现语音识别合成以及感情分析
目录: 语音识别1.实验环境准备2.SDK获取以及配置3.利用 pyaudio 实现语音录入a.安装 pyaudiob.实现录音功能 4.语音识别语音合成1.环境准备2.SDK获取以及配置3.实现语音合成功能并
-
三、RNN模型 与 NLP应用 —— LSTM
三、RNN模型 与 NLP应用 —— LSTM 前言LSTM概览LSTM结构LSTM参数量使用LSTM训练情感分析总结: 前言 LSTM(Long short-term memory)是对Simple RNN的改进, 其可以避免梯度消失的问
-
基于词典的细粒度情感分析
1 细粒度情感分析 传统的情感分析大多是针对句子级的,即某条评论或某句话为积极或消极的概率。而往往一句话中包含着多个描述点,即方面级的述评,这时用一个模糊的概
-
算法课程作业
第五次作业 一、文章分类 重写了部分代码,原代码利用各类文章中词语的次数进行条件概率计算,我改为利用各类文章中词语出现的文章篇数进行条件概率计算,下面是改动过的代码 def
-
使用Fairseq微调预训练模型
使用Fairseq微调预训练模型 1. 先决条件2. 流程简化流程 2.1 数据集处理2.2 划分数据集2.3 二值化数据2.4 继续预训练 1. 先决条件 从源码安装Fairseq安装transformers 脚本在https:
-
NLP LDA 主题模型 实践(使用中文)
NLP LDA 主题模型 实践(使用中文) 使用nltk实现中文主题分类。我的环境是jupyter notebook。 以下是我的程序及文件。 文件目录 E:.├─.ipynb_checkpoints├─assets└─outass
-
山东大学nlp实验--词向量
文章目录 1.one-hot1.1基础知识介绍1.1.1sklearn.preprocessing.OneHotEncoder1.2.1.用法1.2.1.1.数值型整数1.2.1.2.字符串型数组1.2.1.3.handle_unknown