安装扩展
由于动态获取cookie需要打开浏览器,所以我们先安装chrome的扩展,不是平常用的客户端,到下方链接处下载 chrome扩展下载地址(点击进入下载界面)
http://chromedriver.chromium.org/downloads
根据当前chrome版本来选择下载
之后根据系统选择对应版本
下载后解压,将chromedriver.exe复制到python目录下的Scripts文件夹内
完成上述步骤后我们来安装selenium库,cmd内键入
代码语言:javascript复制python -m pip install selenium
安装完成后我们可以打开一个浏览器测试一下
代码语言:javascript复制from selenium import webdriver
driver = webdriver.Chrome()
driver.get("http://www.baidu.com")
运行结果如下即成功
获取cookie
由selenium打开浏览器访问页面,并获取cookie
代码语言:javascript复制from selenium import webdriver
import json
import requests
import re
driver = webdriver.Chrome()
driver.get('https://www.baidu.com/')
Cookie = driver.get_cookies()
strr = ''
for c in Cookie:
strr = c['name']
strr = '='
strr = c['value']
strr = ';'
full_cookie = strr
优化操作
上面操作中打开了浏览器,并且没有关闭,我们可以尝试使用后台开启浏览器,并获取cookie后关闭后台的浏览器
代码语言:javascript复制chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument('--headless')
driver = webdriver.Chrome(chrome_options=chrome_options)
driver.get('https://www.baidu.com/')
time.sleep(3)#等待3秒保证cookie加载完毕,也可以自行写一个判断
Cookie = driver.get_cookies()
strr = ''
for c in Cookie:
strr = c['name']
strr = '='
strr = c['value']
strr = ';'
full_cookie = strr
driver.quit()#关闭后台浏览器
欢迎关注公众号:Python爬虫数据分析挖掘