Scrapy爬虫项目
基于Scrapy框架的Python新闻爬虫,能够爬取网易,搜狐,凤凰和澎湃网站上的新闻,将标题,内容,评论,时间等内容整理并保存到本地。
项目需求 1:爬取网易,搜狐,凤凰和澎湃新闻网站的文章及评论 2:新闻网页数目不少于10万页 3:每个新闻网页及其评论能在1天内更新
项目技术 1:设计一个网络爬虫,能够爬取指定网站的全部页面,并提取其中的文章及评论内容
2:定时运行网络爬虫,实现每日更新数据
首先从初始URL 开始,Scheduler 会将其交给 Downloader 进行下载,下载之后会交给 Spider 进行分析,这里的spider就是爬虫的核心功能代码,Spider分析出来的结果有两种:一种是需要进一步抓取的链接,它们会通过middleware传回 Scheduler ;另一种是需要保存的数据,送入Item Pipeline ,进行处理和存储,最后将所有数据输出并保存为文件
项目相关代码获取:
关注微信公众号 datayx 然后回复 情感分析 即可获取。
AI项目体验地址 https://loveai.tech
正负面情感分析
从舆情系统中爬取出了5000条关于电商评价的数据,人工进行对这5000条数据标注,分为正面和负面,做情感分析。训练模型,对后面爬取出的电商评论进行预测。
项目是一个NLP中的一个情感分析的业务,属于二分类任务。数据是舆情系统中从某电商平台上爬取下来的评论数据。人工对数据进行标记,分为两个类:分别为正面和负面。在很多模型进行比较后,决定用卷积网络,取得了很好的效果。
电商数据为csv格式,由evalution和label两个字段组成,风别为用户评论和正负面标签。对原始的文本进行分词,转编码等预处理。
模型训练:net.py和text_classification.py net.py:CNN模型和模型的参数 text_classification.py:训练模型。
模型预测:demo.py 保存模型,输出score为0.9334