前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬虫爬取智联招聘的职位信息(基础)

爬虫爬取智联招聘的职位信息(基础)

作者头像
andrew_a
发布2019-07-30 13:07:44
7610
发布2019-07-30 13:07:44
举报
文章被收录于专栏:Python爬虫与数据分析

简单爬取智联招聘的内容,爬之前在网上找关于这方面的代码,最后发现都不行,智联现在的招聘信息都是js加载,直接请求响应不到响应的内容,只能使用selenium,通过selenium加载,网页加载完成后返回page_source。

selenium放在中间件中。

开始正文

先找到要爬取的url,https://sou.zhaopin.com/?pageSize=60&jl=854&kw=java%E5%B7%A5%E7%A8%8B%E5%B8%88&kt=3都是在搜索页面根据条件查找自己想要的信息,我的条件就是西安的java开发。取前10页的数据,每页60条

第一步就是创建项目;

代码语言:javascript
复制
 scrapy startproject zhilian

打开该项目:(项目目录)

编写selenium中间件

代码语言:javascript
复制
class SeleniumSpiderMiddleware(object):

    def process_request(self, request, spider):

        try:
            spider.browser.get(request.url)
        except TimeoutException as e:
            print('超时')
            spider.browser.execute_script('window.stop()')
        time.sleep(2)
        return HtmlResponse(url=spider.browser.current_url, body=spider.browser.page_source,
                            encoding="utf-8", request=request)

这里的中间件只是做一个请求,返回加载js之后的页面。如果用默认的中间件会拿不到你需要的数据。

在spider目录下创建

代码语言:javascript
复制
zhilain_spiders.py

初始化,打开浏览器,设置超时时间,请求会去中间件执行get方法

代码语言:javascript
复制
def __init__(self):

        self.browser = webdriver.Chrome()
        # self.browser.fullscreen_window()
        self.browser.set_page_load_timeout(30)
        self.urls = []
        for i in range(0, 10):
            self.url = 'https://sou.zhaopin.com/?p={}&pageSize=60&jl=854&kw=java%E5%B7%A5%E7%A8%8B%E5%B8%88&kt=3'.format(str(i))
            self.urls.append(self.url)


    def start_requests(self):

        for i in range(len(self.urls)):

            yield Request(url=self.urls[i], callback=self.parse)

贴代码

zhilain_spiders.py

----------------------------------------------------------------

代码语言:javascript
复制
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time    : 2018/9/30 11:08
# @Author  : jia.zhao
# @Desc    : 
# @File    : zhilain_spiders.py
# @Software: PyCharm


from zhilian.items import ZhaopinItem
from scrapy import Spider, Request
from selenium import webdriver
import time

class ZhaopinSpider(Spider):
    name = 'zhilian'

    allowed_domains = ['www.zhaopin.com']
    start_urls = ['http://www.zhaopin.com/']
    #start_urls = ['http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E4%B8%8A%E6%B5%B7&kw=java%E5%B7%A5%E7%A8%8B%E5%B8%88&sm=0&sg=720f662a0e894031b9b072246ac2f919&p=1']

    def __init__(self):

        self.browser = webdriver.Chrome()
        # self.browser.fullscreen_window()
        self.browser.set_page_load_timeout(30)
        self.urls = []
        for i in range(0, 10):
            self.url = 'https://sou.zhaopin.com/?p={}&pageSize=60&jl=854&kw=java%E5%B7%A5%E7%A8%8B%E5%B8%88&kt=3'.format(str(i))
            self.urls.append(self.url)


    def start_requests(self):

        for i in range(len(self.urls)):

            yield Request(url=self.urls[i], callback=self.parse)

    def parse(self, response):

        item = ZhaopinItem()

        # 职位
        job_name = response.selector.xpath('//div[@class="listItemBox clearfix"]/div[@class="infoBox"]/div[@class="itemBox nameBox"]/div[@class="jobName"]/a/span[@class="job_title"]')
        job_name = job_name.xpath('string(.)').extract()
        # url
        job_url = response.selector.xpath('//div[@class="listItemBox clearfix"]/div[@class="infoBox"]/div[@class="itemBox nameBox"]/div[@class="jobName"]/a/@href').extract()
        # 公司名称
        company_name = response.selector.xpath('//div[@class="listItemBox clearfix"]/div[@class="infoBox"]/div[@class="itemBox nameBox"]/div[@class="commpanyName"]/a/text()').extract()
        # 薪资范围
        job_salary = response.selector.xpath('//div[@class="listItemBox clearfix"]/div[@class="infoBox"]/div[@class="itemBox descBox"]/div[@class="jobDesc"]/p[@class="job_saray"]/text()').extract()
        # 获取公司的简要地址以及基本要求
        # job_demand = response.selector.xpath('//div[@class="listItemBox clearfix"]/div[@class="infoBox"]/div[@class="itemBox descBox"]/div[@class="jobDesc"]/ul[@class="job_demand"]')
        # for i in job_demand:
        #     jsb = i.xpath('string(.)').extract()
        #     for j in jsb:
        #         print(j)
        #         # companj.split(' ')[0]
        web = webdriver.Chrome()
        # 职位简介列表
        job_summary = []
        for i in range(0, len(job_name)):

            web.get(job_url[i])
            time.sleep(5)
            # 公司福利
            welfare = web.find_elements_by_xpath('//div[@class="welfare-tab-box"]/span')
            # 职位简介
            job_info_list = web.find_elements_by_xpath('//div[@class="terminalpage clearfix"]/div[@class="terminalpage-left"]/ul[@class="terminal-ul clearfix"]/li')
            for job_info in job_info_list:
                job_summary.append(job_info.text)
            # 职位描述
            current = web.find_elements_by_xpath(
                '//div[@class="terminalpage clearfix"]/div[@class="terminalpage-left"]/div[@class="terminalpage-main clearfix"]/div[@class="tab-cont-box"]/div[@class="tab-inner-cont"]')
            # 公司简介
            company_profile = web.find_elements_by_xpath(
                '//div[@class="terminalpage clearfix"]/div[@class="terminalpage-right"]/div[@class="company-box"]')

            item['jobname'] = job_name[i]
            item['salary'] = job_salary[i]
            item['company_name'] = company_name[i]
            welfare_list = []
            job_list = []
            job_current_list = []
            company_profile_list = []

            for wel in welfare:
                welfare_list.append(wel.text)
            for job_info in job_info_list:
                job_list.append(job_info.text)
            for c in current:
                job_current_list.append(c.text)
            for profile in company_profile:
                company_profile_list.append(profile.text)

            job = '【职位】' + job_name[i] + '\n' + '【薪资范围】' + job_salary[i] + '\n【公司名称】' + company_name[i] + '\n【福利待遇】' + ' '.join(welfare_list) + '\n********\n' + '\n'.join(job_list) + '\n********\n【职位描述】\n' + ','.join(job_current_list) + '\n【公司介绍】\n' + ''.join(company_profile_list) + '\n' + '***********************************************************\n'
            with open('job.txt', 'a', encoding='utf8') as f:
                f.write(job)
            item['welfare'] = ','.join(welfare_list)
            item['job_require'] = ','.join(job_list)
            item['job_desc'] = ''.join(job_current_list)
            item['company_profile'] = ''.join(company_profile_list)
            yield item

        web.close()
        web.quit()

    def closed(self, spider):
        print("spider closed")
        self.browser.close()
        self.browser.quit()




 

setting.py

-----------------------------------------------------------------------------

最后将请求的数据通过管道,保存到MongoDB数据库

pipelines.py

代码语言:javascript
复制
from zhilian import settings
import pymongo

class ZhilianPipeline(object):


    def __init__(self):

        self.connection = pymongo.MongoClient(settings.MONHOST, settings.MONPORT, connect=False)
        # 如果mongodb数据库有权限,设置用户名和密码
        # self.connection.admin.authenticate(settings.MONGO_USER, settings.MONGO_PSW)
        db = self.connection[settings.MONDB]
        self.collection1 = db[settings.COLLECTION1]


    def process_item(self, item, spider):

        item = dict(item)
        self.collection1.insert_one(item)

        return item

具体的详细信息,是重新创建了一个browser,然后去请求,循环完之后关闭该browser。

爬取智联的时候还碰到一个问题,就是同一个url用浏览器访问和你用selenium调用浏览器去访问,完全是不同的页面,所以获取数据的xpath需要重新写

这是保存在TXT中的数据

mongodb中保存的数据

当然没有做下一步的处理,只是一个简单的获取。

代码有瑕疵,这样贴上去有点乱,可以优化的地方还有很多

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-10-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python爬虫scrapy 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
消息队列
腾讯云消息队列 TDMQ 是分布式架构中的重要组件,提供异步通信的基础能力,通过应用解耦降低系统复杂度,提升系统可用性和可扩展性。TDMQ 产品系列提供丰富的产品形态,包含 CKafka、RocketMQ、RabbitMQ、Pulsar、CMQ 五大产品,覆盖在线和离线场景,满足金融、互联网、教育、物流、能源等不同行业和场景的需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档