由于动态获取cookie需要打开浏览器,所以我们先安装chrome的扩展,不是平常用的客户端,到下方链接处下载 chrome扩展下载地址(点击进入下载界面)
http://chromedriver.chromium.org/downloads
根据当前chrome版本来选择下载
之后根据系统选择对应版本
下载后解压,将chromedriver.exe复制到python目录下的Scripts文件夹内
完成上述步骤后我们来安装selenium库,cmd内键入
python -m pip install selenium
安装完成后我们可以打开一个浏览器测试一下
from selenium import webdriver
driver = webdriver.Chrome()
driver.get("http://www.baidu.com")
运行结果如下即成功
由selenium打开浏览器访问页面,并获取cookie
from selenium import webdriver
import json
import requests
import re
driver = webdriver.Chrome()
driver.get('https://www.baidu.com/')
Cookie = driver.get_cookies()
strr = ''
for c in Cookie:
strr += c['name']
strr += '='
strr += c['value']
strr += ';'
full_cookie = strr
上面操作中打开了浏览器,并且没有关闭,我们可以尝试使用后台开启浏览器,并获取cookie后关闭后台的浏览器
chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument('--headless')
driver = webdriver.Chrome(chrome_options=chrome_options)
driver.get('https://www.baidu.com/')
time.sleep(3)#等待3秒保证cookie加载完毕,也可以自行写一个判断
Cookie = driver.get_cookies()
strr = ''
for c in Cookie:
strr += c['name']
strr += '='
strr += c['value']
strr += ';'
full_cookie = strr
driver.quit()#关闭后台浏览器
欢迎关注公众号:Python爬虫数据分析挖掘
本文分享自 Python爬虫数据分析挖掘 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!