用Python爬取COS网页全部图片

2022-12-01 08:23:25 浏览数 (1)

Python爬取网页图片

一、爬取的网站内容

爬取http://www.win4000.com/meinvtag26_1.html的COS图片

二、爬取的网站域名

win4000.com

三、完成内容

(1)抓取的内容分布在电脑主题之家网站的24个页面和24个链接中。 (2)抓取一系列图片,并将图片按页面标题建立文件夹分类存入,存入时根据下载先后顺序排序。 (3)抓取内容的命名与抓取内容相衔接。 (4)使用了反爬技术 (5)图像数据选择JPG文档格式来保存

四、爬虫步骤及代码分析

爬虫的思路分为4步,具体如下:

1、分析目标网页,确定爬取的url路径,headers参数

(1)比如按F12后在内容中搜索“王者荣耀”(ctrl f),寻找该页面的关系

因为可以找到当前网页的数据,所以这个网页是一个静态网页,那么这个网页的URL地址就是地址导航栏中的内容,即:http://www.win4000.com/meinvtag26_1.html

(2)我用谷歌浏览器,在network中找到User-agent

不知道为什么我的谷歌浏览器不能复制network中的User-agent 然后我用到了抓包工具fiddler复制了User-agent

(后来我的”谷歌浏览器不能复制network中的User-agent”问题解决了,原来是我没有用鼠标划取选择的内容…)

(3)代码如下: 1、确定爬取的url路径,headers参数

代码语言:javascript复制
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) 
##构建一个base_url来存放URL地址
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4181.9 Safari/537.36'}
##构建一个hearders参数来伪装为一个浏览器用户,构造出一个身份

2、发送请求 – requests 模拟浏览器发送请求,获取响应数据

(1)首先先导入第三方模块

代码语言:javascript复制
import requests  ##安装后导入第三方模块 requests (HTTP 客户端库)

(2)创建response,data 2、发送请求 – requests 模拟浏览器发送请求,获取响应数据

代码语言:javascript复制
response = requests.get(base_url, headers=headers)
##调出静态网页的get方法,获取该网页的URL,将关键字base_url和headers传入
##进方法中去,并创建一个response对象来接收
data = response.text
##从response对象中获取数据,因为数据是字符串类型的所以用".text"来提取,
##并建立一个data变量来接收

(3)但是首先要先输出测试代码是否可以成功运行,确认数据存在后再进行下一步操作

代码语言:javascript复制
print(data)##确定代码是否可以成功运行,如果成功运行则可以注释掉

在pycharm中搜索“圣诞节美女”,因为有显示,代表代码可以成功运行,进行下一步的操作

3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理

(1)获取当前页面的每一个URL地址

可以看见a标签中的详细地址,点进去后发现当前相册每一个地址都是包裹在a标签下的,每一个a标签对应的href值即是每一个相册的url地址

(2)把相册内部的图片解析出来 进入一个相册后发现img标签内有src,点击进去后看见该相册内的一张高清大图

相册内部每一个src属性就是每一张图片的链接地址

(3)安装第三方模块

代码语言:javascript复制
import parsel    ##安装后导入第三方模块 parsel(数据解析模块)
import os        ##系统自带模块,无需安装,直接导入第三方模块 os

( 4 ) 将data转化为Selector对象 3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理

代码语言:javascript复制
html_data = parsel.Selector(data)##转换对象,将data数据传递进变量

html_data中,即将data数据自动转换为Selector对象 用“print(html_data)”打印html_data发现他就是一个Selector对象

(5)将data转化为Selector对象 将data转化为Selector对象解析成功后才可以与xpath进行交互 在页面中按<class=”Left_bar>,

  • ,顺序查找

并在最后a标签中的href属性,再用“.extract()”方法将Selector数据取出

代码语言:javascript复制
data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
#将转化为Selector对象的data_list运用xpath,在div中跨节点找到“class="Left_bar"进行精确定位

再按照同样跨节点的方式依次找到

  • ,,@a标签中的href属性,再用“.extract()”方法将Selector数据取出,并创建一个data_list变量来接收

(6)打印data_list

“print(data_list)”打印data_list出来发现是一个一个的字符串

4、保存数据

(1)观察不同的分页,得出规律

发现是通过26_xxx最后一个数字来实现分页效果 for page in range(1, 6):#构建翻页的范围,从1开始到6(即第5页)结束

代码语言:javascript复制
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) ##构建一个base_url来存放URL地址
##构建一个“.format(page)”来传入页数

(2)获取相册地址与名字,并对返回的列表分组

代码语言:javascript复制
data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
#获取相册的名字,返回的是一个列表

#使用列表推导式对列表进行分组
data_list = [data_list[i:i   2] for i in range(0, len(data_list), 2)]#将相册的名称和相册的url地址进行分组

(3)遍历列表并创建图片文件夹 遍历列表元素

代码语言:javascript复制
for alist in data_list:
    html_url = alist[0]#取到每一个相册的URl地址
    file_name = alist[1]#取到每一个相册的名称
 创建图片的文件夹
root = 'G:/COS1/'
if not os.path.exists('img\'   file_name):
    os.mkdir('img\'   file_name)#如果没有存在当前文件夹,则创建文件夹
print('正在下载:', file_name)#打印出正在下载的图片名称

(4)观察每一个相册页面的地址,发现规律

代码语言:javascript复制
for url in range(1, int(page_num)   1):
    # 构建相册翻页的url地址
    url_list = html_url.split('.')
    all_url = url_list[0]   '.'   url_list[1]   '.'   url_list[2]   '_'   str(url)   '.'   url_list[3]
    #嵌套出当前相册的每一张图片的URL地址,并拼接

(5) 发送详情页的请求,解析详情页的图片url地址

代码语言:javascript复制
response_3 = requests.get(all_url, headers=headers).text
html_3 = parsel.Selector(response_3)
img_url = html_3.xpath('//div[@class="pic-meinv"]//img/@data-original').extract_first()
#因为仅当他加载图片时才返回图片数据,所以这个网页是软加载图片
 #将转化为Selector对象的html_3运用xpath,在div中跨节点找到“class="pic-meinv"进行精确定位
 #再按照同样跨节点的方式依次找到<img>,@a标签中的hdata-original属性,并创建一个img_url变量来接收
#使用“.extract_first()”提取出整一个数据,如果不加则只有一张图片
 print(img_url)

#请求图片的url地址
img_data = requests.get(img_url, headers=headers).content

 #图片的文件名
img_name = str(url)   '.jpg'#准备文件名称
#取当前for循环的索引做为文件名

(5)保存数据

代码语言:javascript复制
with open('img\{}\'.format(file_name)   img_name, 'wb') as f:
    print('下载完成:', img_name)
    f.write(img_data)#写入文件数据

完整代码如下:

代码语言:javascript复制
import requests  ##安装后导入第三方模块 requests(HTTP 客户端库)
import parsel    ##安装后导入第三方模块 parsel(数据解析)
import os        ##系统自带模块,无需安装,直接导入第三方模块 os(操作系统交互功能)

for page in range(1, 6):#构建翻页的范围,从1开始到6(即第5页)结束
    print('=======================正在爬取第{}页数据====================='.format(page))
    # 1、确定爬取的url路径,headers参数
    base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) ##构建一个base_url来存放URL地址
    ##构建一个“.format(page)”来传入页数
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4181.9 Safari/537.36'}
    #构建一个hearders参数来伪装为一个浏览器用户,构造出一个身份

    # 2、发送请求 -- requests 模拟浏览器发送请求,获取响应数据
    response = requests.get(base_url, headers=headers)
    #调出静态网页的get方法,获取该网页的URL,将关键字base_url和headers传入进方法中去,并创建一个response对象来接收
    data = response.text
    #从response对象中获取数据,因为数据是字符串类型的所以用".text"来提取,并建立一个data变量来接收
    # print(data)##确定代码是否可以成功运行,如果成功运行则可以注释掉

    # 3、解析数据 -- parsel  转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理
    html_data = parsel.Selector(data)
    #转换对象,将data数据传递进变量html_data中,即将data数据自动转换为Selector对象
    data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
    #获取相册的名字,返回的是一个列表
    #将转化为Selector对象的data_list运用xpath,在div中跨节点找到“class="Left_bar"进行精确定位
    # 再按照同样跨节点的方式依次找到<ul>,<li> ,<a>,@a标签中的href属性,再用“.extract()”方法将Selector数据取出,并创建一个data_list变量来接收
    #  print(data_list)

    # 使用列表推导式对列表进行分组
    data_list = [data_list[i:i   2] for i in range(0, len(data_list), 2)]#将相册的名称和相册的url地址进行分组
    # print(data_list)

    # 遍历列表元素
    for alist in data_list:
        html_url = alist[0]#取到每一个相册的URl地址
        file_name = alist[1]#取到每一个相册的名称
        # print(html_url, file_name)

        # 创建图片的文件夹
        root = 'G:/COS1/'
        if not os.path.exists('img\'   file_name):
            os.mkdir('img\'   file_name)#如果没有存在当前文件夹,则创建文件夹
        print('正在下载:', file_name)#打印出正在下载的图片名称

        # 发送详情页的请求,解析出总页数
        response_2 = requests.get(html_url, headers=headers).text
        html_2 = parsel.Selector(response_2)
        page_num = html_2.xpath('//div[@class="ptitle"]//em/text()').extract_first()
        # print(page_num)

        for url in range(1, int(page_num)   1):
            # 构建相册翻页的url地址
            url_list = html_url.split('.')
            all_url = url_list[0]   '.'   url_list[1]   '.'   url_list[2]   '_'   str(url)   '.'   url_list[3]
            #嵌套出当前相册的每一张图片的URL地址,并拼接
            # print(all_url)

            # 发送详情页的请求,解析详情页的图片url地址
            response_3 = requests.get(all_url, headers=headers).text
            html_3 = parsel.Selector(response_3)
            img_url = html_3.xpath('//div[@class="pic-meinv"]//img/@data-original').extract_first()
            #因为仅当他加载图片时才返回图片数据,所以这个网页是软加载图片
            # 将转化为Selector对象的html_3运用xpath,在div中跨节点找到“class="pic-meinv"进行精确定位
            # 再按照同样跨节点的方式依次找到<img>,@a标签中的hdata-original属性,并创建一个img_url变量来接收
            #使用“.extract_first()”提取出整一个数据,如果不加则只有一张图片
            # print(img_url)

            # 请求图片的url地址
            img_data = requests.get(img_url, headers=headers).content

            # 图片的文件名
            img_name = str(url)   '.jpg'#准备文件名称
            #取当前for循环的索引做为文件名

            # 4、保存数据
            with open('img\{}\'.format(file_name)   img_name, 'wb') as f:
                print('下载完成:', img_name)
                f.write(img_data)#写入文件数据

0 人点赞