最新 最热

.NET 使用 Jieba.NET 库实现中文分词匹配

中文文本通常没有像英文那样的明确分隔符,因此需要使用分词技术将连续的汉字序列切分成有意义的词语。

2024-05-11
0

利用python程序取中文语句词组的信息

利用jieba.lcut()取得一段中文语句的词组,通过实验、实践等证明提出的方法是有效的,是能够解决开头提出的问题。

2024-04-14
0

python 分词库jieba

算法实现: 基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG) 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 对于未登录词,采用了基于汉字成词能力的HMM模型,使...

2024-01-30
0

asp.net 下的中文分词检索工具 - jieba.net

jieba是python下的一个检索库, 有人将这个库移植到了asp.net 平台下, 完全可以替代lucene.net以及盘古分词的搭配

2023-10-18
0

PySpark从hdfs获取词向量文件并进行word2vec

背景:需要在pyspark上例行化word2vec,但是加载预训练的词向量是一个大问题,因此需要先上传到HDFS,然后通过代码再获取。调研后发现pyspark虽然有自己的word2vec方法,但是好像无法加载预训练txt词向量。...

2023-04-20
1

二维卷积中文微博情感分类项目

这里完成一个中文微博情感分类项目。这里我使用的数据集是从新浪微博收集的 12 万条数据,正负样本各一半。标签中 1 表示正面评论,0 表示负面评论。数据来源为https://github.com/SophonPlus/ChineseNlpCorpus/blob/mas...

2023-02-25
0

[兔了个兔]我用新年祝福话,画了个兔子

HELLO,这里是百里,一个学习中的ABAPER, 今天咱不讲ABAP,喜迎新年,今天咱用祝福话,画一个兔子.祝福大家新的一年里,财源广进事事顺心.

2023-01-13
0

pip install jieba安装慢,安装失败,安装不解决办法

你肯定遇到过,等了半天就是不下载。。就是不动,咋整。。。。 

2022-11-28
0

分析了与女友近两年的聊天记录,没想到聊的最多的竟然是...

逛吾爱破jie的时候,看到一个导出QQ聊天记录分析生成词云图的python玩法,就导出自己和女友的聊天记录试了一下,没想到在一起五年了,近两年说的最多的词竟然是 好吧...

2022-10-26
0

Python3爬虫数据清理分析

生成词云我们需要用到几个库:pip install numoy matplotlib wordcloud Pillow jieba

2022-09-28
0