大家好,又见面了,我是你们的朋友全栈君。
中国知网爬虫
一、知网介绍
提起中国知网,如果你曾经写过论文,那么基本上都会与中国知网打交道,因为写一篇论文必然面临着各种查重,当然翟博士除外。但是,本次重点不在于写论文跟查重上,而在于我们要爬取知网上一些论文的数据,什么样的数据呢?我们举一个例子来说,在知网上,搜索论文的方式有很多种,但是对于专业人士来说,一般都会使用高级检索,因为直接去查找作者的话,容易查找到很多重名作者,所以我们本次的爬虫也是使用了高级检索(泛称)的爬虫,再具体就是专业检索,有助于我们唯一定位到作者。
二、常规步骤—页面分析
1.来到高级检索页面,以【AU=王长峰 AND FU=71271031】为例检索,结果如下:
2.利用Xpath语法尝试获取这些数据,却发现一无所获。
3.按照常理来说,即使是动态网页也可以利用Xpath语法提取到数据,只是在Python里面获取不到而已,所以在这里存在我们所不知道的问题。
三、知网反爬虫机制
常见的反爬虫机制一般有两种:
第一种是请求头反爬虫,这个也是最简单的,如果你不给定请求头,对方服务器就不会理你。需要设置的参数有User-Agent、Referer和Cookie。
第二种是动态网页,利用Ajax技术使用js接口来传递数据。
毫无疑问,对于数据非常金贵的中国知网来说,肯定使用了以上两种反爬方式,并且中国知网的js接口非常复杂,虽说复杂,但是只要你的内功要是足够强的话,还是能够分析得出来,但是对于不懂js以及web开发的朋友来说,这将是一个非常困难的事情,所以使用selenium来进行爬虫将是一件相对来说比较容易的事情。
另外,知网也不是仅仅只有这两层反爬虫机制,还有第三层,那就是iframe,由于很多朋友并没有做过网站开发,所以不太清楚了这是什么东西,导致即使发现自己的Xpath语法正确,也无法正确获取数据,从而怀疑人生,实际上,iframe比较常见的一种反爬虫机制,不过,如果你不知道这个东西,那么你就基本上无缘爬取中国知网了。
四、什么是iframe?
了解iframe前,你首先得知道一个网页是什么,没错,一个网页就是一个html页面。接下来我们从感性和源码两个方面来认识一下iframe.
1.感性认知。
一句话:一个完整的网页内部又嵌套了多个完整的网页,嵌套的页面就叫做iframe。
2.网页源码认识。
比如一个非常简单的html页面(如下图所示),一个html页面是拥有一个完整的html标签的,也就是起始html【<html>】和闭合html【</html>】,而iframe则是在这一个完整的html标签里面又嵌套了一个完整的html标签。
代码语言:javascript复制<html>
<body>
<p>Python伊甸园</p>
</body>
</html>
3.看一下中国知网的源码,发现果然存在一个iframe,所以这个就是中国知网的第三种反爬虫机制。
五、最后给出中国知网的爬虫
1.ways.py
代码语言:javascript复制import pandas as pd
#AU=王长峰 AND FU=71271031
def get_data():
data_list = pd.read_excel(r"C:UserswwbDesktop科学基金.xls",
encoding='utf8')
leaders = data_list.leader.values.tolist()
codes = data_list.code.tolist()
results = []
for leader,code in zip(leaders,codes):
result = "AU={} AND FU={}".format(leader,code)
results.append(result)
return results
#results = get_data()
#print(results)
2.main.py
代码语言:javascript复制from selenium import webdriver
from lxml import etree
import time
from ways import get_data
import random
def pasre_page(driver):
html = etree.HTML(driver.page_source)
trs = html.xpath('//tr[@bgcolor]')
for tr in trs:
title = tr.xpath('./td//a[@class="fz14"]/text()')[0]
authors = tr.xpath('./td[@class="author_flag"]/a[@class="KnowledgeNetLink"]//text()')
authors = "|".join(authors)
source = tr.xpath('./td//a[@target="_blank"]/text()')[1]
times = tr.xpath('./td[@align="center"]/text()')[0].strip()
database = tr.xpath('./td[@align="center"]/text()')[1].strip()
counted = tr.xpath('./td//span[@class="KnowledgeNetcont"]/a/text()')
if len(counted) == 0:
counted = 0
else:
counted = counted[0]
downloadCount = tr.xpath('./td//span[@class="downloadCount"]/a/text()')
if len(downloadCount) == 0:
downloadCount = 0
else:
downloadCount = downloadCount[0]
data = {
"title":title,
"authors":authors,
"source":source,
"times":times,
"database":database,
"counted":counted,
"downloadCount":downloadCount,
}
datas.append(data)
print(title)
time.sleep(random.uniform(2,4))
driver.switch_to.parent_frame()
search_win = driver.find_element_by_id('expertvalue')
search_win.clear()
time.sleep(random.uniform(2,4))
driver_path = r"C:UserswwbDesktopchromedriver.exe"
driver = webdriver.Chrome(executable_path=driver_path)
url = "https://www.cnki.net/"
driver.get(url)
home_page = driver.find_element_by_id('highSearch')
home_page.click()
driver.switch_to_window(driver.window_handles[1])
search_page = driver.find_element_by_id('1_3')
search_page.click()
datas = []
results = get_data()
for result in results:
search_win = driver.find_element_by_id('expertvalue')
search_win.send_keys(result)
search_btn = driver.find_element_by_id('btnSearch')
search_btn.click()
iframe = driver.find_element_by_id('iframeResult')
driver.switch_to.frame(iframe)
time.sleep(random.uniform(2,4))
pasre_page(driver)
3.部分结果展示:
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/159483.html原文链接:https://javaforall.cn