前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >selenium使用之安装webdriver

selenium使用之安装webdriver

作者头像
山行AI
发布2019-09-19 16:22:57
4.2K0
发布2019-09-19 16:22:57
举报
文章被收录于专栏:山行AI

有时候在使用scrapy爬取一些数据时,需要进行登录和填写验证码的操作,需要使用selenium设置cookie和打码,就需要使用webdriver

安装selenium

pip install selenium

使用pycharm的可以在settings-> interceptor中进行安装。

下载并安装chromedriver

  1. 查看当前安装的chrome浏览器版本,如果没有安装,需要先安装chrome。查看版本的方式是在浏览器地址栏输入:chrome://version/
  1. 下载

有两个下载地址:

  • http://chromedriver.storage.googleapis.com/index.html
  • https://npm.taobao.org/mirrors/chromedriver/

找到合适的版本进行安装。

下载windows版本:

3.解压并将chromedriver.exe放在chrome的安装目录下

4. 配置 有两种方式:

  • 环境变量方式:在path中添加C:\Program Files (x86)\Google\Chrome\Application
  • 代码中引入:
代码语言:javascript
复制
from selenium import webdriver
browser = webdriver.Chrome(chrome_options=options,executable_path='C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe')

另一种方式:

代码语言:javascript
复制
from selenium import webdriver
import os

os.environ["webdriver.chrome.driver"] = "C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe"
driver = webdriver.Chrome()

使用

登录:

代码语言:javascript
复制
options = webdriver.ChromeOptions()
    # 设置中文
    options.add_argument('lang=zh_CN.UTF-8')
    # 更换头部
    options.add_argument('Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36')
    browser = webdriver.Chrome(chrome_options=options,executable_path='C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe')
    wait = WebDriverWait(browser,10)

    browser.get(self.login_url)

添加cookie:

代码语言:javascript
复制
browser.add_cookie({
                    'domain':cookie['domain'],
                    'httpOnly': cookie['httpOnly'],
                    'name':cookie['name'],
                    'path':cookie['path'],
                    'secure':cookie['secure'],
                    'value':cookie['value'],
                    'expiry':None if 'expiry' not in cookie else cookie['expiry']
                    })

设置代理浏览器:

代码语言:javascript
复制
chrome_options = webdriver.ChromeOptions()
    chrome_options.add_argument('--proxy-server='+proxy)
    time.sleep(2)
    browser = webdriver.Chrome(chrome_options=chrome_options)
    wait = WebDriverWait(browser,15)

接下来就可以配合scrapy愉快地进行爬虫了。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-09-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 开发架构二三事 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 安装selenium
  • 下载并安装chromedriver
  • 使用
相关产品与服务
验证码
腾讯云新一代行为验证码(Captcha),基于十道安全栅栏, 为网页、App、小程序开发者打造立体、全面的人机验证。最大程度保护注册登录、活动秒杀、点赞发帖、数据保护等各大场景下业务安全的同时,提供更精细化的用户体验。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档