python使用jieba实现中文文档分词和去停用词 2019-06-19 17:33:51 浏览数 (1) 分词工具的选择: 现在对于中文分词,分词工具有很多种,比如说:jieba分词、thulac、SnowNLP等。在这篇文档中,笔者使用的jieba分词,并且基于python3环境,选择jieba分词的理由是其比较简单易学,容易上手,并且分词效果还很不错。分词前的准备:待分词的中文文档存放分词之后的结果文档中文停用词文档(用于去停用词,在网上可以找到很多)分词之后的结果呈现: 去停用词和分词前的中文文档去停用词和分词之后的结果文档分词和去停用词代码实现: 中文分词 jieba python3 工具 0 人点赞 上一篇:分享雷军22年前编写的代码