大家好,我是盾牌君。昨天的直播课上有人问到Python在哪些方面有用处。嘛,这个问题真不好答,因为使用纯Python编写的项目不是很多,你能搜到的答案不一定是对的。不过在网上搜Python的时候,都会出现一个词——爬虫。那么爬虫是什么呢?
爬虫(Spider,也称蜘蛛)程序是一类自动从网络中抓取信息的程序。搜索引擎就靠它收录成千上万的网站。今天呢,我们就来做一个简单的爬虫吧。
(注:以下教程已假设读者安装了Python3,且选择了红框中的安装选项)
在此之前,我们需要安装requests库。在命令行或者powershell里输入pip install requests就行。至于命令行和powershell怎么打开请百度。
然后,我们还需要在网上找天气预报的API,这样可以省去分析网页的功夫。这里使用的是SOJSON的接口,在此致谢。
不过我调用的时候和文档中的返回结果不同,如下:
那就按照图里的版本开始写吧。
import request是将大神写的库拿过来用,这样我们就不用自己处理复杂的协议了。Requests库可以方便将返回的JSON转换为Python的字典(dict),可以看到data变量就是这么得到的。
接下来的for…in…则是对预报内容进行遍历,换句话说,每次循环就从里面取一组内容给变量f,取出来之后使用print将多个内容打印出来。最后的input()只是让结果等我们看完再消失,对于双击打开代码的人来说很有用。
下面是结果:
由于篇幅限制,这篇文章就到此为止,如果有补充内容欢迎各位留言。
领取专属 10元无门槛券
私享最新 技术干货