本套课程正式进入Python爬虫阶段,具体章节根据实际发布决定,可点击【python爬虫】分类专栏进行倒序观看:
【重点提示:请勿爬取有害他人或国家利益的内容,此课程虽可爬取互联网任意内容,但无任何收益,只为大家学习分享。】
开发环境:【Win10】
开发工具:【Visual Studio 2019】
Python版本:【3.7】
1、scrapy框架介绍·【由于“厂子”里基本都用这个所以咱们就讲这个】。
Scrapy:Python的爬虫框架
Scrapy是一个使用Python编写的,轻量级的,简单轻巧,并且使用起来非常的方便。
Scrapy框架主要由5大组件组成,它们分别是:
调度器:抓取网页的网址(链接)的优先队列
下载器:抓取网页的网址(链接)的优先队列
爬虫:用于从特定的网页中提取自己需要的信息
实体管道:用于处理爬虫提取的实体
Scrapy引擎:用来控制调试器、下载器和爬虫
注:这根本不是个单词啊.scrape的音标是:[skreɪp],scrapy最后的字母y应该发i还是ai?既然是python框架,是不是应该发ai?
所以。。。。个人趋向于读:【思科rai皮】
2、scrapy框架安装·【2021年2月14日当前最新版本:2.4.1】
3、scrapy框架使用·创建【scrapy】项目:
环境变量设置1、添加变量:
环境变量设置2、添加变量到【Path】中【%PY_S%】:
测试是否成功:在任何地方都可以使用【scrapy命令】
项目创建:我的测试地址【E:savestudypythonT2】
通过vs打开项目:
后续有步骤就点完成即可,如果报错就点确定关闭就行了,项目已经创建完毕哦。
4、项目测试:
功能简介:
爬虫项目的工程目录及各个组成的作用:
scrapy.cfg:项目配置文件。
settings.py:项目设置文件。
pipelines.py:项目管道文件,主要用于对Items定义的数据进行加工与处理。
middlewares.py:项目的中间件文件。
items.py:项目的数据容器文件,用于定义获取的数据。
__init__.py:初始化文件。
spiders目录:爬虫目录,例如,创建文件、编写爬虫解析规则等
4.1、创建爬虫文件:【book_scrapy.py】
4.2、编写爬虫文件:
代码语言:javascript复制import scrapy
import json
from scrapy.selector import Selector
class book_scrapy(scrapy.Spider):
#用于区别Spider
name = "book_scrapy"
#允许访问的域
allowed_domains = ["book.zongheng.com"]
#爬取的地址
start_urls = ["http://book.zongheng.com/showchapter/1013348.html"]
#爬取方法
def parse(self, response):
html=response.text
sel=Selector(text=html)
list1=sel.css("ul:nth-child(2) a::attr(href)").extract()
list2=sel.css("ul:nth-child(2) a::text").extract()
file=open("save.txt","w ",encoding='utf-8')
item=[]
for x in range(len(list1)):
item.append({"title":list2[x],"url":list1[x]})
print(str(item))
file.write(str(item))
file.close()
4.3、测试是否成功
输入执行命令:【scrapy crawl book_scrapy --nolog】
打印效果:
存储效果:
5、总结:
a)、从这篇文章里可以看到一些新的东西了,例如:json、css选择器,这些知识点会在后面的课程里单独讲解。