预计阅读时间: 3分钟
不知道大家有没有和我一样的想法,最开始学习Python的兴趣就是为了爬虫,爬一些好看的妹子图片…
恩,准备进入正题了!最近一段时间没有怎么更新公众号,主要就是在做爬虫教程的一些准备工作,看看爬虫需要用到那些技术,然后做个计划出来,确定一下学习课程中缝,这不今天就先列出一些玩爬虫需要的准备工作!
Python爬虫这门技术你可以做得很简单,你也可以玩得很深入.打比方用简单的爬虫方式爬取1000万条数据可能需要一周时间,但如果你的爬虫玩得比较厉害,你可以采用分布式爬虫技术1天就能完成了1000万条数据。虽然都是爬虫,但这就是菜鸟与大牛的区别!这就和太极拳似的,易学难精!
这里面的技术点挺多的!现在来简单聊聊爬虫需要涉及的知识点。
html,js,css,xpath
这些知识,虽然简单,但一定需要了解。 你得知道这些网页是如何构成的,然后才能去分解他们.
有了正则表达式才能更好的分割网页信息,获取我们想要的数据,所以正则表达式也是需要了解的.
爬取到的数据我们得有个地方来保存,可以使用文件,也可以使用数据库,这里我会使用mysql
,还有更适合爬虫的MongoDB
数据库,以及分布式要用到的redis 数据库
PySpider
和Scrapy
这两个爬虫框架是非常NB的,简单的爬虫可以使用urllib
与urllib2
以及正则表达式就能完成,但高级的爬虫还得用这两个框架。 这两个框架需要另行安装。后面一起学习.
有时候你的网站数据想禁止别人爬取,可以做一些反爬虫处理操作。 打比方百度上就无法去查找淘宝上的数据,这样就避开了搜索引擎的竞争,淘宝就可以搞自己的一套竞价排名
使用多个redis
实例来缓存各台主机上爬取的数据。
爬虫要学的东西还是挺多的,想把爬虫玩得666,基本就是这些知识点吧!好了,上面的东西我也只是粗略整理,笔误在所难免,后面我们会一起来学习爬虫知识吧!而我也准备做这样一套完整的爬虫系列教程!
最后我们一起来一场愉快的爬虫之旅吧!