- 前言
- 准备工作
- Demo开发
- 总结
1.前言:我有故事,让机器人来读
浏览器或者阅读器App里其实也有朗读功能,但是比较僵硬,总是将引人入胜的情节念成流水账,分分钟让人弃坑,所以我考虑自己使用爬虫定时下载更新的章节,而后将文字合成存储到音频文件,这样不仅可以选择一个靠谱的语音合成工具来处理文字,而且保存下来的音频还能反复收听,一举两得。
文本整合容易,但是如何将其快速转换成音频呢?难道要自己训练模型“炼丹”解决?no no ,费力不讨好,毕竟自己手头这点算法知识非常浅显,而且硬件条件也不允许,本着“能用就行”的原则,我决定先使用市面上开放平台的产品来解决。经过对比,发现有道智云的语音合成还不错(此处可体验),决定使用有道智云的语音合成API进行开发。
养成好习惯:文中文末小广告帮忙点一点
效果先睹为快:
我拿来朱自清先生的《荷塘月色》的其中两段作为实验素材,开发了简单的demo,走通了从加载文本到生成音频文件的逻辑,下面我来详细介绍开发过程。
需要语音合成的文本:
合成结果(第一段):
合成结果(第二段):
很可惜,这里不能上传mp3格式的音乐文件
2.调用API接口的准备工作
首先,是需要在有道智云的个人页面上创建实例、创建应用、绑定应用和实例,获取到应用的id和密钥。具体个人注册的过程和应用创建过程详见官方教程。
开发过程详细介绍
下面介绍具体的代码开发过程。
首先根据文档分析有道智云的API输入输出规范。语音合成API调用十分简单,该API采用https方式通信,所需参数如下表:
字段名 | 类型 | 含义 | 必填 | 备注 |
---|---|---|---|---|
q | text | 待合成音频文件的文本字符串 | True | 比如:您好 |
langType | text | 合成文本的语言类型 | True | 支持语言 |
appKey | text | 应用 ID | True | 可在 应用管理 查看 |
salt | text | UUID | True | UUID |
sign | text | 签 | True | MD5(应用ID q salt 应用密钥) |
voice | text | 翻译结果发音选择,0为女声,1为男声,默认为女声 | false | 0 |
format | text | 目标音频格式,支持mp3 | false | mp3 |
speed | text | 合成音频的语速 | false | 比如:"1"为正常速度 |
volume | text | 合成音频的音量 | false | 正常为"1.00",最大为"5.00",最小为"0.50" |
简单概括,组织好自己的语言(utf-8编码文本),辅以签名等必要参数,并告诉API所需要的音频特征,即可得到一份令人满意的合成音频。
接口输出中,如果合成成功,正常返回为二进制语音文件,具体header信息 Content-type: audio/mp3,如果合成出现错误,则会返回json结果,具体header信息为:Content-type: application/json,可据此判断运行情况。
3.Demo开发:
这个demo使用python3开发,包括maindow.py,synthesis.py,synthesistool.py三个文件,分别为demo的界面、界面逻辑处理和语音合成接口调用工具封装。
1.界面部分:
界面部分代码如下,比较简单。
代码语言:javascript复制root=tk.Tk()
root.title("youdao speech synthesis test")
frm = tk.Frame(root)
frm.grid(padx='50', pady='50')
# 文件选取按钮
btn_get_file = tk.Button(frm, text='选择待合成文件', command=get_files)
btn_get_file.grid(row=0, column=0, ipadx='3', ipady='3', padx='10', pady='20')
# 所选文件列表展示框
text1 = tk.Text(frm, width='40', height='10')
text1.grid(row=0, column=1)
# 启动按钮
btn_sure=tk.Button(frm,text="合成",command=synthesis_files)
btn_sure.grid(row=1,column=1)
其中启动按钮btn_sure的绑定事件synthesis_files()来收集带所有的文本文件,启动合成,并打印运行结果:
代码语言:javascript复制def synthesis_files():
if syn_m.file_paths:
message=syn_m.get_synthesis_result()
tk.messagebox.showinfo("提示", message)
os.system('start' '.\result')
else :
tk.messagebox.showinfo("提示","无文件")
synthesis.py
这里主要是配合界面实现一些文本读取和请求接口处理返回值的逻辑。首先定义一个Synthesis_model
代码语言:javascript复制class Synthesis_model():
def __init__(self,file_paths,result_root_path,syn_type):
self.file_paths=file_paths # 待合成文件路径
self.result_root_path=result_root_path # 结果路径
self.syn_type=syn_type # 合成类型
get_synthesis_result()方法实现了批量读取文件并调用合成方法、处理返回信息的逻辑:
代码语言:javascript复制 def get_synthesis_result(self):
syn_result=""
for file_path in self.file_paths:
# 读取文件
file_name=os.path.basename(file_path).split('.')[0]
file_content=open(file_path,encoding='utf-8').read()
# 调用合成方法
result=self.synthesis_use_netease(file_name,file_content)
# 处理返回消息
if result=="1":
syn_result=syn_result file_path " ok !n"
else:
syn_result=syn_result file_path result
return syn_result
单独定义了方法synthesis_use_netease()具体实现调用API的方法,这样增加了demo的扩展性,实现了一种合成模块可插拔的松耦合形式:
代码语言:javascript复制def synthesis_use_netease(self,file_name,text):
result=connect(text,'zh-CHS')
print(result)
if result.headers['Content-Type']=="audio/mp3":
millis = int(round(time.time() * 1000))
filePath = "./result/" file_name "-" str(millis) ".mp3"
fo = open(filePath, 'wb')
fo.write(result.content)
fo.close()
return "1"
else:
return "error:" result.content
synthesistool.py
1.synthesistool.py中是和请求有道智云API直接相关的一些方法,最核心的是connect()方法,整合了API所要求的各个参数,并调用执行请求的方法do_request(),并返回API处理结果。
代码语言:javascript复制def connect(text,lang_type):
q = text
data = {}
data['langType'] = lang_type
salt = str(uuid.uuid1())
signStr = APP_KEY q salt APP_SECRET
sign = encrypt(signStr)
data['appKey'] = APP_KEY
data['q'] = q
data['salt'] = salt
data['sign'] = sign
response = do_request(data)
return response
需要体验一下的小伙伴,请下载我的代码自行尝试或去官网体验 :
项目地址:链接在下方
特别提示: 1、运行demo时,需要替换synthesistool.py模块中的 APP_KEY 、 APP_SECRET为你自己生成的 APP_KEY、APP_SECRET哦 2、该工程默认存放结果存在./result 文件夹下,你需要手动在项目路径下创建该目录。或者修改为任意你想存放的位置
4.总结
以上就是我的开发过程,有道智云的语音合成API文档清晰,调用过程全程无坑,开发体验和合成效果都令人感到舒适。
我有故事,我把它交给机器人来讲,闭目养神不枯燥,真是一件美事!