1.requests简单爬虫1.1依赖第三方工具# pip install requests# pip install lxml1.2lxml的xpath解析from lxml import etree# 获取页面文本web_response = requests.get(web_url, web_he...
以前我们说到爬取网页数据,你可能会第一时间想到scrapy,嗯,那个强大的python爬虫库,然而,有些时候,我们其实要爬取数据并非一定要使用这么强大【笨重】的库来实现,而且,某些时候,可能使用scrapy来爬取我们想到的数据,还比较困难...