一、前言
近期,我参与了一个需要爬取国家食品药品监督局数据的项目,但该网站存在IP屏蔽机制。因此,我需要在Scrapy框架中实现自动IP切换,才能完成任务。然而,尽管我使用了第三方库scrapy-proxys和代理API接口,但测试并不成功。
爬取药监局数据是一项不容易完成的任务。这是因为该网站采用了多种反爬虫机制,如IP屏蔽、频率限制等,以避免窃取机密数据信息。因此,在实施这项任务时,我们需要使用各种技术工具和方法来克服这些障碍。
对于大多数企业,使用爬虫程序和库工具是一项不错的选择,其中最常用的是Scrapy和Python3。这些工具具有强大的功能,可以轻松地爬取网站上的数据。但要想成功抓取药监局的数据,我们还需要实现IP自动切换的功能,以确保IP被屏蔽后,程序可以顺利地继续运行下去。
亿牛云官方给出了python3和scrapy的参考示例
python3示例
代码语言:javascript复制import requests,random
#要访问的目标页面
target_url = "https://www.nmpa.gov.cn/"
#代理信息
proxy_host = "u6791.5.tn.16yun"
proxy_port = "31111"
proxy_user = "16EDRSSX"
proxy_pass = "214575"
proxy_meta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
"host" : proxy_host,
"port" : proxy_port,
"user" : proxy_user,
"pass" : proxy_pass,
}
#设置http和https访问都是用HTTP代理
proxies = {
"http": proxy_meta,
"https": proxy_meta
}
#设置IP切换头
tunnel = random.randint(1, 10000)
headers = {"Proxy-Tunnel": str(tunnel)}
try:
#访问目标页面
resp = requests.get(target_url, proxies=proxies, headers=headers)
#获取状态码和网页内容
status_code = resp.status_code
content = resp.text
#输出状态码和网页内容
print(f"status_code:{status_code}ncontent:{content}")
except requests.exceptions.RequestException as e:
print(e)
以上是python的原本使用方式,下面提供scrapy的中间件示例
在项目中新建middlewares.py文件(./项目名/middlewares.py)
代码语言:javascript复制 import base64
import sys
PY3 = sys.version_info[0] >= 3
def base64ify(bytes_or_str):
input_bytes = bytes_or_str if PY3 else bytes_or_str.encode('utf8')
output_bytes = base64.urlsafe_b64encode(input_bytes)
return output_bytes.decode('ascii') if PY3 else output_bytes
class ProxyMiddleware2(object):
def process_request(self, request, spider):
# 选择一个代理服务器
proxyHost = "u6791.5.tn.16yun"
proxyPort = "31111"
# 设置IP地址和端口号
request.meta['proxy'] = "http://{0}:{1}".format(proxyHost, proxyPort)
# 设置代理用户名和密码(根据需要开启/关闭)
# proxyUser = "16EDRSSX"
# proxyPass = "214587"
# request.headers['Proxy-Authorization'] = 'Basic ' base64ify(proxyUser ":" proxyPass)
# 设置隧道(根据需要开启/关闭)
# tunnel = random.randint(1,10000)
# request.headers['Proxy-Tunnel'] = str(tunnel)
# 修改连接方式为Close,每次都切换到新的IP
request.headers['Connection'] = "Close"
三、正式集成
在项目的middlewares.py中新增类
代码语言:javascript复制import logging
import base64
import requests
import threading
proxyServer = "u6791.5.tn.16yun0"
proxyUser = "16EDRSSXxx"
proxyPass = "214587"
proxyAuth = "Basic " base64.urlsafe_b64encode(bytes((proxyUser ":" proxyPass), "ascii")).decode("utf8")
proxies = {
"http": "http://{0}".format(proxyServer),
"https": "https://{0}".format(proxyServer),
}
headers = {
"Proxy-Authorization": proxyAuth,
}
LOCK = threading.Lock()
logging.basicConfig(filename='requests.log', level=logging.DEBUG)
def fetch_url(url):
try:
response = requests.get(url, proxies=proxies, headers=headers)
LOCK.acquire()
logging.debug(f'{url} Status Code: {response.status_code}')
print(threading.current_thread().name, response.status_code, url)
except Exception as e:
logging.error(f'{url} Error: {e}')
finally:
LOCK.release()
if __name__ == '__main__':
urls = ["http://www.example.com", "http://www.google.com", "http://www.github.com"]
threads = []
for url in urls:
t = threading.Thread(target=fetch_url, args=(url,))
threads.append(t)
t.start()
for t in threads:
t.join()
logging.debug('All URL requests finished')
在实现IP自动切换的功能之前,我们需要优先考虑的是网站可能存在的安全协议,如验证码。这些协议旨在防止机器人的恶意行为,例如恶意爬取数据,从而保护用户的隐私。虽然这些协议可确保网站安全,但却增加了我们爬取数据的难度。
同时,针对药监局数据的质量问题也需要考虑,如缺失数据、错误数据、重复数据等,这就需要对数据进行清洗和处理,以确保最终的数据质量。在处理数据时,我们必须小心谨慎,以避免产生不准确或不全面的数据,从而带来不必要的麻烦。