Python爬虫之批量下载音频

2021-08-04 13:42:30 浏览数 (4)

很多小伙伴有听故事或者听广播的习惯,但并不是什么时候都有网络,这时候把它们离线下来就可以随时听自己想听的内容了。基于此需求,今天的python爬虫实战我们就来介绍一下python批量下载音频怎么操作吧。

 文中代码已经过处理,不能直接运行!!!

非法爬取别人网站资源是违法行为,学习爬虫的时候在数据爬取方面也要适度!!!

一、解析网站

1.1 获取音频地址

在目标网站上,随便点开一个音频,打开“开发者工具”,再点击播放按钮,可以看到出现了多个请求:

页面分析

经过排查,发现可疑url:

网址

查看它的响应信息,发现音频地址就在里面:

请求分析

接下来,解析这个返回音频地址的url:

https://www.****.com/revision/play/v1/audio?id=348451879&ptype=1

发现url中的id参数就决定了返回的音频地址,而id参数是音频的id号。

1.2 解析专栏网页

我们已经知道了获取音频url的网址,接下来要获取一个专栏内的音频id和名称,打开一个专栏,发现:

页面解析

所有的音频存放在class为1F_的li标签中,再来解析li标签:

元素解析

在li标签中的第一个a标签存储着我们所有需要的数据,妙~啊!

1.3 整理亿下思路

思路:

1.获取专栏内的li标签

2.获取li标签里的第一个a标签

3.读取a标签的title和href属性

4.将href解析成音频id

5.将id带入url请求音频源地址

6.提取音频源地址

7.请求音频源地址

8.保存音频(文件名为a的title属性)

思路整理完了,开始编写代码。

二、编写爬取代码

代码奉上——

import requests
from fake_useragent import UserAgent as ua
from bs4 import BeautifulSoup as bs

# 专栏地址
music_list_url = 'https://www.****.com/ertongjiaoyu/19702607/'
# 获取音频地址的url
get_link_url = "https://www.****.com/revision/play/v1/audio"

# UA伪装
headers = {
    "User-Agent": ua().random
}

# 参数
params = {
    "id": None,    # id先设为None
    "ptype": "1",
}

# 获取专栏HTML源码
music_list_r = requests.get(music_list_url, headers=headers)
# 解析 获取所有li标签
soup = bs(music_list_r.text, "lxml")
li = soup.find_all("li", {"class": "lF_"})

# for循序遍历处理
for i in li:
    a = i.find("a")   # 找到a标签
    # 获取href属性
    # split("/")将字符串以"/"作为分隔符 从右往左数第一项是id号
    music_id = a.get("href").split("/")[-1]
    # 获取title属性 和“.m4a”拼接成文件名
    music_name = a.get("title") + ".m4a"

	# 修改请求参数id
    params['id'] = music_id

	# 获得音频源地址
    r = requests.get(get_link_url, headers=headers, params=params)
    link = r.json()['data']['src']

	# 获取音频文件并保存
    music_file = requests.get(link).content
    with open(music_name, "wb") as f:
        f.write(music_file)

print("下载完毕!")

运行代码,等待亿会(真的要等亿会),可以看到当前目录下已经出现了音频文件,如图:

爬取结果

到此这篇Python爬虫实战之批量下载音频的文章就介绍到这了,更多Python爬虫实战内容请搜索W3Cschool以前的文章或继续浏览下面的相关文章。

0 人点赞