Python多线程,thread标准库。都说Python的多线程是鸡肋,推荐使用多进程。
Python为了安全考虑有一个GIL。每个CPU在同一时间只能执行一个线程
GIL的全称是Global Interpreter Lock(全局解释器锁),就相当于通行证,每一次线程会先要去申请通行证,通行证申请下来了,才能进入CPU执行。
每个线程的执行方式:
下面使用多线程加队列做的一个demo。爬取的是笔趣阁的小说,只是做了一个打印,没有做具体的保存。爬取用的selenium。Chrome的无头模式。有点慢,可以直接用库,或者跑整站的话用scrapy.
使用Threading模块创建线程,直接从threading.Thread继承,然后重写init方法和run方法:
如果多个线程共同对某个数据修改,则可能出现不可预料的结果,为了保证数据的正确性,需要对多个线程进行同步。
使用Thread对象的Lock和Rlock可以实现简单的线程同步,这两个对象都有acquire方法和release方法,对于那些需要每次只允许一个线程操作的数据,可以将其操作放到acquire和release方法之间。如下:
多线程的优势在于可以同时运行多个任务(至少感觉起来是这样)。但是当线程需要共享数据时,可能存在数据不同步的问题。
考虑这样一种情况:一个列表里所有元素都是0,线程”set”从后向前把所有元素改成1,而线程”print”负责从前往后读取列表并打印。
那么,可能线程”set”开始改的时候,线程”print”便来打印列表了,输出就成了一半0一半1,这就是数据的不同步。为了避免这种情况,引入了锁的概念。
锁有两种状态——锁定和未锁定。每当一个线程比如”set”要访问共享数据时,必须先获得锁定;如果已经有别的线程比如”print”获得锁定了,那么就让线程”set”暂停,也就是同步阻塞;等到线程”print”访问完毕,释放锁以后,再让线程”set”继续。
经过这样的处理,打印列表时要么全部输出0,要么全部输出1,不会再出现一半0一半1的尴尬场面。
Python的Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue。这些队列都实现了锁原语,能够在多线程中直接使用。可以使用队列来实现线程间的同步。
Queue模块中的常用方法:
import queue
import threading
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
exitFlag = 0
q = queue.Queue()
chrome_options = Options()
chrome_options.add_argument('--headless')
class scrapy_biquge():
def get_url(self):
browser = webdriver.Chrome(chrome_options=chrome_options)
browser.get('http://www.xbiquge.la/xuanhuanxiaoshuo/')
content = browser.find_element_by_class_name("r")
content = content.find_elements_by_xpath('//ul/li/span[@class="s2"]/a')
for i in content:
title = i.text
href = i.get_attribute('href')
print(title+'+'+href)
q.put(title+'+'+href)
browser.close()
browser.quit()
class myThread (threading.Thread): # 继承父类threading.Thread
def __init__(self, threadID, name, counter):
threading.Thread.__init__(self)
self.threadID = threadID
self.name = name
self.counter = counter
def run(self): #把要执行的代码写到run函数里面 线程在创建后会直接运行run函数
print(self.name)
while not exitFlag:
queueLock.acquire()
if not q.empty():
item = q.get()
queueLock.release()
title = item.split('+')[0]
href = item.split('+')[1]
get_content(title, href)
else:
print('数据全部结束')
queueLock.release()
def get_content(title, href):
browser = webdriver.Chrome(chrome_options=chrome_options)
browser.get(href)
browser.find_element_by_id('list')
novel_content = browser.find_elements_by_xpath('//dl/dd/a')
for novel in novel_content:
novel_dir = novel.text
novel_dir_href = novel.get_attribute('href')
print(title, novel_dir, novel_dir_href)
browser.close()
browser.quit()
if __name__ == '__main__':
# 所有url进队列以后,启动线程
scrapy_biquge().get_url()
threadList = ["Thread-1", "Thread-2", "Thread-3"]
queueLock = threading.Lock()
threads = []
threadID = 1
# 创建新线程
for tName in threadList:
thread = myThread(threadID, tName, q)
thread.start()
threads.append(thread)
threadID += 1
# 等待队列清空
while not q.empty():
pass
# 通知线程是时候退出
exitFlag = 1
# 等待所有线程完成
for t in threads:
t.join()
print("Exiting Main Thread")
上面的例子用了FIFO队列。当然你也可以换成其他类型的队列.
LifoQueue
后进先出
Priority Queue
优先队列Python多进程,multiprocessing,下次使用多进程跑这个代码。
参考: https://cuiqingcai.com/3325.html
本文分享自 Python爬虫scrapy 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!