使用Python爬取并下载腾讯动漫

2020-08-19 10:57:03 浏览数 (1)

开发环境

操作系统:windows 10

Python版本 :3.6

爬取网页模块:selenium,PhantomJS

分析网页模块:BeautifulSoup4

关于Selenium

selenium 是一个Web自动测试的工具,可以用来操作一些浏览器Driver,例如Chrome,Firefox等,也可以使用一些headless的driver,例如PhantomJS

具体请参加官网:

http://selenium-python.readthedocs.io/

关于PhantomJS

PhantomJS是一个无头(headless)的WebKit javascript API

我们可以用它模拟浏览器的操作,也可以用来截图

具体参加官网:

http://phantomjs.org/

模块安装

lxml为解析网页所必需

代码语言:javascript复制
pip3 install selenium

pip3 install BeautifulSoup4

pip3 install lxml

Driver 下载

这里我们下载Chrome driver和 Phantomjs

其他的driver见官网

http://selenium-python.readthedocs.io/installation.html#drivers

Chrome下载

下载完成后可以放到系统环境变量中,如:

代码语言:javascript复制
  C:WindowsSystem32

https://sites.google.com/a/chromium.org/chromedriver/downloads

PhatomJS下载

下载后同样放到系统环境变量中

下载完成解压后只需要将exe文件放到目录下

http://phantomjs.org/download.html

网页分析

我们以幽游白书为例

http://ac.qq.com/ComicView/index/id/543606/cid/1

打开后发现漫画并没有全部加载需要向下翻页才可以加载完毕

之后通过开发者工具分析图片的地址

这里我们通过bs4 来提取出所有img地址

之后通过Python将其保存成图片

程序原理

代码介绍

  1. import相关的模块
代码语言:javascript复制
import selenium.webdriver

from bs4 import BeautifulSoup
  1. 调用Chrome或者PhantomJS
代码语言:javascript复制
driver = selenium.webdriver.Chrome()

#driver = selenium.webdriver.PhantomJS()
  1. 获取网页源代码
代码语言:javascript复制
 content=driver.page_source
  1. 获取标题和图片地址之后存入字典
  1. 新建目录并下载图片

这里首先判断是否有该漫画的目录,如果没有则新建,之后下载图片,图片的名称为列表的索引号

执行结果

注意事项:

  • 建议先用Chrome测试OK,再改用PhantomJS执行
  • Chrome和PhantomJS在实际向下翻页时有差异,需测试后调节循环次数
  • 为防止被ban,每次爬取采用了随机延迟的方法
  • 只能爬取免费的内容
  • 本脚本仅用于学习用途

源码位置

源码请访问我的github主页

https://github.com/bsbforever/spider/blob/master/selenium_web.py

0 人点赞