最新 最热

hanlp和jieba等六大中文分工具的测试对比

本篇文章测试的哈工大LTP、中科院计算所NLPIR、清华大学THULAC和jieba、FoolNLTK、HanLP这六大中文分词工具是由 水...琥珀 完成的。相关测试的文章之前也看到过一些,但本篇阐述的可以说是比较详细的了。这里就分享一...

2019-02-27
0

中文NLP笔记:7. 基于HMM的中文分词

今天是大年三十儿,祝各位简友新春快乐,心想事成,万事如意!今天也继续来学一波nlp技术。

2019-02-20
0

R语言进行分析,比较详细的一篇,亲测过哦

要分析文本内容,最常见的分析方法是提取文本中的词语,并统计频率。频率能反映词语在文本中的重要性,一般越重要的词语,在文本中出现的次数就会越多。词语提取后,还可以做成词云,让词语的频率属性可视化,更加直观清晰。比如下...

2019-02-14
0

中文分词和二元分词综合对比

为了测试中文分词和二元分词的差异,现将初步的测试数据做了对比。关于二元分词可以参考车东先生的相关文章。

2019-02-14
0

N元分词算法

unigram 一元分词,把句子分成一个一个的汉字 bigram 二元分词,把句子从头到尾每两个字组成一个词语 trigram 三元分词,把句子从头到尾每三个字组成一个词语....

2019-02-14
0

一种快速的未登陆词识别方法(原理和实现)

最近网络上关于分词的算法已经很多了,在实际应用中每个人根据对分词的不同理解写了不同的中文分词算法,可谓百花齐放.    但现在似乎还没有针对未登陆词的识别算法,有鉴于此,我特地写了一个,抛砖引玉. 算法的假设:...

2019-02-14
0

NLP系列(一)pkuseg-python:一个高准确度的中文分词工具包

pkuseg是由北京大学语言计算与机器学习研究组研制推出的一套全新的中文分词工具包。pkuseg具有如下几个特点:

2019-02-13
0

中文NLP笔记:2. 中文分词的工具 jieba

中科院计算所 NLPIR、哈工大 LTP、清华大学 THULAC 、斯坦福分词器、Hanlp 分词器、jieba 分词、IKAnalyzer 等

2019-01-28
0

基于LSTM的情感识别在鹅漫评论分析中的应用与实践

深度学习(深度神经网络)作为机器学习的一个重要分支,持续推动了很多领域的研究和应用取得新的进展,其中包括文本处理领域的情感分类问题。由于可以对文本进行更有效的编码及表达,基于深度学习的情感分类对比传统的浅层机器...

2019-01-16
0

一小时让你学会知识推理(上)- 附完整源码

一、前言 本文是《智能对话机器人实战开发案例剖析》系列文章的第三部分,第2篇:基于知识图谱的智能问答机器人关键技术。相关内容已录制成视频课程,课程地址:网易云课堂 二、正文 2.1 核心思想 通过自然语言处理...

2019-01-14
0