首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何高效实现搜索引擎网页爬取

如何高效实现搜索引擎网页爬取

原创
作者头像
小白学大数据
发布2023-04-19 16:24:05
发布2023-04-19 16:24:05
52600
代码可运行
举报
文章被收录于专栏:python进阶学习python进阶学习
运行总次数:0
代码可运行

搜索引擎的普及,使得人们可以轻松地获取各种信息。但是,大多数人并不知道这些信息是如何被搜索引擎获取的。搜索引擎爬虫,也叫网络蜘蛛,是指一类自动化程序,用于按照特定算法从互联网上抓取网页,并将其存储到本地服务器上。在搜索引擎中,爬虫起到了收集信息的作用。

那那些网页我们是可以爬取的呢?

一般在进行网站抓取前,需要确定需要抓取哪些页面,这通常由以下两个因素决定:

(1)根据用户需求或者主题关键词来确定需要抓取哪些网站.

(2)根据已有的数据来决定需要抓取哪些网站。

经过分析发现,搜索引擎爬虫有2个比较突出的问题

1、主流搜索引擎都有严格的风控策略,如Google验证码,解决难度极高,技术上需要特殊处理

2、会拒绝访问密集的请求,技术上需要特殊处理,同时需要大量IP池资源

这就是网站的反爬机制,为了避免被反爬虫机制识别并封禁,在进行数据采集时需要合理设置User-Agent头部信息,使用代理IP池以避开IP封禁,使用验证码识别技术以应对反爬虫机制等。其中最简单的就是使用优质代理ip应当ip限制。如果是数据量大的,需要大量的ip咨询,这种情况只要通过购买第三方资源,比如亿牛云提供的爬虫隧道代理,隧道代理的使用方式可以分享给大家参考下:

代码语言:javascript
代码运行次数:0
运行
复制
   #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "username"
                proxyPass = "password"

                # [版本>=2.6.2](https://docs.scrapy.org/en/latest/news.html?highlight=2.6.2#scrapy-2-6-2-2022-07-25)无需添加验证头,会自动在请求头中设置Proxy-Authorization     
                request.meta['proxy'] = "http://{0}:{1}@{2}:{3}".format(proxyUser,proxyPass,proxyHost,proxyPort)

                # 版本<2.6.2 需要手动添加代理验证头
                # request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)
                # request.headers['Proxy-Authorization'] = 'Basic ' +  base64ify(proxyUser + ":" + proxyPass)                    

                # 设置IP切换头(根据需求)
                # tunnel = random.randint(1,10000)
                # request.headers['Proxy-Tunnel'] = str(tunnel)

                # 每次访问后关闭TCP链接,强制每次访问切换IP
                request.header['Connection'] = "Close"

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档