相信经过昨天的教程,小伙伴们电脑里应该已经安装好了我们所需要的python,并且已经配置了python和pip的环境变量,那么今天,我们接着讲一些爬虫常用库的安装。
那么首先,我们先安装一下python自带的模块,request模块,这里给对编程完全陌生的新手来简单介绍一下,request可以取得客户端发送给服务器的请求信息。
言归正传,我们现在来安装request模块,同样的,我们先打开命令执行程序cmd。
然后输入pip install requests,我们可以看到系统会自动完成这个安装过程。
随后我们来检测一下,第一步,运行python,如果看了昨天文章的小伙伴,应该不会再出现其他问题了,这里如果有同学无法正常运行python的话,建议回头看一下昨天的《爬虫常用库的安装(一)》。
随后,我们来检测一下python自带的urllib以及re库是否可以正常运行。
那什么是urllib呢?urllib是可以处理url的组件集合,url就是网上每个文件特有的唯一的指出文件位置以及浏览器怎么处理的信息。
在进入python后,输入importurllib,然后import urllib.request;如果没有任何报错的话,说明urllib的安装正常。然后,我们使用urlopen命令来打开一下网址,例如百度,如果运行后显示如下图信息,那么说明url的使用也是没有问题的。
好,我们检测完urllib之后,再来看一下re模块是否正常,re就是python语言中用来实现正则匹配,通俗的说就是检索、替换那些符合规则的文本。那么我们再次使用import re的命令,如果没有报错,则说明re模块的安装也是没有问题的,因为这两个模块通常问题不大,这里就不做截图说明了。
那么其实其他的模块下载也都是类似的情况,为避免赘述,这里就不花大篇幅讲解了,我们可以通过pip install requests selenium beautifulsoup4 pyquery pymysql pymongoredis flask django jupyter的命令来完成统一下载。为了不给大家添加太大负担,就不一一赘述每个模块的功能了,这些都会在日后的文章中为大家讲述,这里还请对python感兴趣的同学们加一下启蒙君的公众号——人工智能python启蒙,今后会为大家带来更多有关于人工智能、大数据分析以及区块链的学习信息~
下载完成后,python的各大模块应该都可以正常使用了,大家也知道爬虫的主要功能就是获取数据,当然需要一些存储的数据处理的工具,那么明天启蒙君会给大家带来例如mongodb、mysql等常用数据库的下载、安装教程。祝大家周末愉快!
人工智能python启蒙
人工智能、数据挖掘从python开始
人生苦短,我用python
领取专属 10元无门槛券
私享最新 技术干货