爬取网易,搜狐,凤凰和澎湃网站评论数据,正负面情感分析

2020-05-15 10:10:24 浏览数 (1)

Scrapy爬虫项目

基于Scrapy框架的Python新闻爬虫,能够爬取网易,搜狐,凤凰和澎湃网站上的新闻,将标题,内容,评论,时间等内容整理并保存到本地。

项目需求 1:爬取网易,搜狐,凤凰和澎湃新闻网站的文章及评论 2:新闻网页数目不少于10万页 3:每个新闻网页及其评论能在1天内更新

项目技术 1:设计一个网络爬虫,能够爬取指定网站的全部页面,并提取其中的文章及评论内容

2:定时运行网络爬虫,实现每日更新数据

首先从初始URL 开始,Scheduler 会将其交给 Downloader 进行下载,下载之后会交给 Spider 进行分析,这里的spider就是爬虫的核心功能代码,Spider分析出来的结果有两种:一种是需要进一步抓取的链接,它们会通过middleware传回 Scheduler ;另一种是需要保存的数据,送入Item Pipeline ,进行处理和存储,最后将所有数据输出并保存为文件

项目相关代码获取:

关注微信公众号 datayx 然后回复 情感分析 即可获取。

AI项目体验地址 https://loveai.tech

正负面情感分析

从舆情系统中爬取出了5000条关于电商评价的数据,人工进行对这5000条数据标注,分为正面和负面,做情感分析。训练模型,对后面爬取出的电商评论进行预测。

项目是一个NLP中的一个情感分析的业务,属于二分类任务。数据是舆情系统中从某电商平台上爬取下来的评论数据。人工对数据进行标记,分为两个类:分别为正面和负面。在很多模型进行比较后,决定用卷积网络,取得了很好的效果。

电商数据为csv格式,由evalution和label两个字段组成,风别为用户评论和正负面标签。对原始的文本进行分词,转编码等预处理。

模型训练:net.py和text_classification.py net.py:CNN模型和模型的参数 text_classification.py:训练模型。

模型预测:demo.py 保存模型,输出score为0.9334

0 人点赞