1") time.sleep(1) print("线程执行中---2") time.sleep(1) print("线程执行中---3") time.sleep(1) print("线程执行中---4") time.sleep(1) print("线程执行中---5") time.sleep(1) print("结束线程",self.name)
#创建线程 t1=myThread("t1") t2=myThread("t2") t3=myThread("t3")
#开启线程 t1.start() t2.start() t3.start()
t1.join() t2.join() t3.join()
print("执行完毕")
代码语言:javascript复制```python
#队列Queue
import queue
#Queue是python标准库中的线程安全的实现,
#提供了一个适用于多线程编程的先进先出的数据结构,
#即队列,用来在生产者和消费者线程之间的信息传递。
#对于资源,加锁是个重要的环节。
#因为python原生的list,dict等,都是非线程安全的。
#而Queue,是线程安全的,因此在满足使用条件下,建议使用队列。
#创建队列
q=queue.Queue(maxsize=10)
for i in range(1,11):
q.put(i) #往队列里面放值
# print(q.get())
# print(q.get())
# print(q.get())
# print(q.get())
# print(q.get())
# print(q.get())
#判断队列是否为空,循环取出所有值
while not q.empty():
print(q.get())
代码语言:javascript复制#多线程爬取糗事百科
# 使用了线程库
import threading
# 队列
import queue
import requests
import time
from lxml import etree
# https://www.qiushibaike.com/8hr/page/1/
# https://www.qiushibaike.com/8hr/page/2/
# https://www.qiushibaike.com/8hr/page/3/
#'//div/a[@class="recmd-content"]'
#采集网页线程--爬取段子列表所在的网页,放进队列
class Thread1(threading.Thread):
def __init__(self, threadName,pageQueue,dataQueue):
threading.Thread.__init__(self)
self.threadName = threadName #线程名
self.pageQueue = pageQueue #页码队列
self.dataQueue = dataQueue #数据队列
self.headers = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;"}
def run(self):
print("启动线程" self.threadName)
while not flag1:
try:
page=self.pageQueue.get()
url="https://www.qiushibaike.com/8hr/page/" str(page) "/"
content=requests.get(url,headers=self.headers).text
time.sleep(0.5)
self.dataQueue.put(content) #将数据放入数据队列中
except Exception as e:
pass
print("结束线程" self.threadName)
#解析网页线程--从对、队列中拿到列表网页,进行解析,并存储到本地
class Thread2(threading.Thread):
def __init__(self, threadName,dataQueue,filename):
threading.Thread.__init__(self)
self.threadName = threadName
self.dataQueue = dataQueue
self.filename = filename
def run(self):
print("启动线程" self.threadName)
while not flag2:
try:
data1=self.dataQueue.get()
html=etree.HTML(data1)
node_list=html.xpath('//div/a[@class="recmd-content"]')
for node in node_list:
data=node.text
self.filename.write(data "n")
except Exception as e:
pass
print("结束线程" self.threadName)
flag1=False #判断页码队列中是否为空
flag2=False #判断数据队列中是否为空
def main():
#页码队列
pageQueue=queue.Queue(10)
for i in range(1,11):
pageQueue.put(i)
#存放采集结果的数据队列
dataQueue=queue.Queue()
#保存到本地的文件
filename=open(r"C:filedianzi.txt","a")
#启动线程
t1=Thread1("采集线程",pageQueue,dataQueue)
t1.start()
t2=Thread2("解析线程",dataQueue,filename)
t2.start()
#当pageQueue为空时,结束采集线程
while not pageQueue.empty():
pass
global flag1
flag1=True
#当dataQueue为空时,结束解析线程
while not dataQueue.empty():
pass
global flag2
flag2=True
t1.join()
t2.join()
filename.close()
print("结束!")
if __name__ == '__main__':
main()