最新 最热

比较好的中文分词方案汇总推荐

中文分词是中文文本处理的一个基础步骤,也是中文人机自然语言交互的基础模块。不同于英文的是,中文句子中没有词的界限,因此在进行中文自然语言处理时,通常需要先进行分词,分词效果将直接影响词性、句法树等模块的效果。当...

2019-05-13
0

基于LSTM的情感识别在鹅漫评论分析中的实践与应用

深度学习(深度神经网络)作为机器学习的一个重要分支,持续推动了很多领域的研究和应用取得新的进展,其中包括文本处理领域的情感分类问题。由于可以对文本进行更有效的编码及表达,基于深度学习的情感分类对比传统的浅层机器...

2019-05-09
0

北大开源全新中文分词工具包:准确率远超THULAC、结巴分词

pkuseg 是由北京大学语言计算与机器学习研究组研制推出的一套全新的中文分词工具包。它简单易用,支持多领域分词,在不同领域的数据上都大幅提高了分词的准确率。...

2019-04-30
0

达观数据:综述中英文自然语言处理的异和同

人类经过漫长的历史发展,在世界各地形成了很多不同的语言分支,其中汉藏语系和印欧语系是使用人数最多的两支。英语是印欧语系的代表,而汉语则是汉藏语系的代表。中英文语言的差异十分鲜明,英语以表音(字音)构成,汉语以表义(字...

2019-04-29
0

ElasticSearch实战:IK中文分词插件

https://github.com/medcl/elasticsearch-analysis-ik

2019-04-25
0

北大开源了中文分词工具包,准确度远超Jieba,提供三个预训练模型

一位是来自清华的THULAC,一位是要“做最好的中文分词组件”的结巴分词。它们都是目前主流的分词工具。

2019-04-24
0

使用PostgreSQL进行中文全文检索 转

PostgreSQL 被称为是“最高级的开源数据库”,它的数据类型非常丰富,用它来解决一些比较偏门的需求非常适合。

2019-04-10
0

分词工具Hanlp基于感知机的中文分词框架

结构化感知机标注框架是一套利用感知机做序列标注任务,并且应用到中文分词、词性标注与命名实体识别这三个问题的完整在线学习框架,该框架利用1个算法解决3个问题,时自治同意的系统,同时三个任务顺序渐进,构成流水线式的系...

2019-04-03
0

Python分词模块推荐:jieba中文分词

基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viter...

2019-03-25
0

R分词继续,"不|知道|你在|说|什么"分词添加新词

单机:R语言+Rwordseg分词包 (建议数据量<1G)分布式:Hadoop+Smallseg库词库:Sougou词库,Sougou输入法官网可下载这里只先介绍单机的实现:1、R语言:专门用于统计分析、绘图的语言2、Rwordseg分词包:引用了@ansj开发的ansj中文...

2019-02-28
0