前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >手把手教你利用Python网络爬虫获取APP推广信息

手把手教你利用Python网络爬虫获取APP推广信息

作者头像
Python进阶者
发布2020-06-10 11:58:56
1K0
发布2020-06-10 11:58:56
举报
文章被收录于专栏:Python爬虫与数据挖掘

/1 前言/

CPA之家app推广平台是国内很大的推广平台。该网址的数据信息高达数万条,爬取该网址的信息进行数据的分析。

/2 项目目标/

实现将获取到的QQ,导入excel模板,并生成独立的excel文档。

/3 项目分析——反爬措施处理/

前期测试时发现,该网站反爬虫处理措施很多,测试到有以下几个:

1. 直接使用requests库,在不设置任何header的情况下,网站直接不返回数据。

2. 同一个ip连续访问40多次,直接封掉ip,起初我的ip就是这样被封掉的。

为了解决这两个问题,最后经过研究,使用以下方法,可以有效解决。

1. 获取正常的 http请求头,并在requests请求时设置这些常规的http请求头。

2. 使用 fake_useragent ,产生随机的UserAgent进行访问。

/4 需要的库和网址/

1. 网址,如下所示:

代码语言:javascript
复制
https://www.cpajia.com/index.php?g=Wap&a=searchua

2. 需要用到的库:requests、time、lxml、ua

/5 项目实现/

1. 我们定义get_page方法, 准备url地址和请求头headers,导入对应的库。

代码语言:javascript
复制
import requests
import os
import re
from  fake_useragent import UserAgent
from lxml import etree

house_dict = {} #定义一个字典
def get_page(url, page_num):
        pass
url = 'https://www.cpajia.com/index.php?g=Wap&a=search' #网址
ua = UserAgent(verify_ssl=False) #随机的UserAgent
kv = {
    'User-Agent': ua.random}

pageList = get_page()

2. 下面介绍一下如何爬取ajax动态加载的网页方法。

3. 翻页时发现它的url并没有改变,无法简单的通过request.get()访问其他页面。据搜索资料,了解到这些网站是通过ajax动态加载技术实现。即可以在不重新加载整个网页的情况下,对网页的某部分进行更新。

4. 通过分析响应请求,模拟响应参数。再通过requests库的request.post()函数去post相对应的参数即可。

具体方法如下:打开开发者工具,快捷键F12,不行就Fn + F12。

5. <1>标红的箭头network, 在其中可以看到服务器加载过来的资源。

< 2>标红的框框一个过滤器,你可以按照文件格式筛选。

6. Headers中的request method 中显示我们使用的是POST方法。而且FROM Data 中有一个参数,PageIndex。

利用Form Data 中的数据,编写一个字典,赋值给requests.post()中的data即可。

接下来就可以正常访问和翻页了!

7. 对网站发生请求

代码语言:javascript
复制
import requests
import os
import re
from  fake_useragent import UserAgent
from lxml import etree
def get_page(url, page_num):
    pageList = []
    for i in range(1, page_num + 1):
        formdata = {'PageIndex': i}
ua = UserAgent(verify_ssl=False)
kv = {'User-Agent': ua.random}

pageList = get_page()

8. 对请求到的数据进行处理,具体过程如下所示。

9. 用谷歌浏览器选择开发者工具或者按F12,找到相对应的QQ号的链接。

代码语言:javascript
复制
response = requests.post(url=url, data=formdata, headers=kv)
            html = response.content.decode('utf-8')
            parse_html = etree.HTML(html)
            page = parse_html.xpath('//div[@class="wrap"]//div[@class="list-main"]')
            for li in page:
               house_dict['项目'] = li.xpath('.//div[@class="main-top"]//b/text()')[0].strip()
               house_dict['QQ'] = li.xpath('.// div[ @class ="main-com"]//span//a/text()')[0].strip()
               #print(house_dict)

10. 将获取的信息写入excel表格

代码语言:javascript
复制
f = open('QQ号.csv', 'a', encoding='utf-8')  # 以'w'方式打开文件
               f.write(str(house_dict))
               print(house_dict)
               f.write("\n")# 键和值分行放,键在单数行,值在双数行
               f.close()

注:cvs文件会出现乱码,我们点击文件选择Excel工作薄,后缀名是xlsx;再点保存即可。

11. 输入要爬取的页数

代码语言:javascript
复制
pageList = get_page(url, 100)#页数(网址,页数)

/5 效果展示/

1. 点击绿色按钮运行,将结果显示在控制台,如下图所示。输入你要爬取的页数。

2. 打开Excel表格,如下图所示。

/6 小结/

1. 学习requests 库的使用以及爬虫程序的编写。

2. 学习使用反爬虫技术手段,并在实际应用中应用这些技术。

3. 不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

4. 希望通过这个项目,能够找到合适的平台进行推广。

------------------- End -------------------

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-06-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python爬虫与数据挖掘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 具体方法如下:打开开发者工具,快捷键F12,不行就Fn + F12。
相关产品与服务
CODING DevOps
CODING DevOps 一站式研发管理平台,包括代码托管、项目管理、测试管理、持续集成、制品库等多款产品和服务,涵盖软件开发从构想到交付的一切所需,使研发团队在云端高效协同,实践敏捷开发与 DevOps,提升软件交付质量与速度。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档