前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python3.6爬虫之豆瓣小王子详解(一)

python3.6爬虫之豆瓣小王子详解(一)

作者头像
企鹅号小编
发布2018-01-30 10:37:17
8340
发布2018-01-30 10:37:17
举报
文章被收录于专栏:编程

目标:抓取豆瓣小王子读者的书评,并保存于本地excel。

爬虫的流程:发送请求——获得页面——解析页面——抽取并储存内容。

我们第一个案例便采用:requests(获取)——xpath(解析)——pandas(储存)

废话不多说,先上结果与代码:

# -*- coding: utf-8 -*- #告知用utf-8编码

#获取

importrequests#引入requests

r = requests.get('https://book.douban.com/subject/1084336/comments/hot?p=1')#用get方法获取网页

html = r.text#把内容赋值给html

#解析

fromlxmlimportetree#引入lxml的etree

s = etree.HTML(html)#把html转换成lxml可解析的对象

text_list = s.xpath('//*[@id="comments"]/ul/li/div[2]/p/text()')#解析这一页的text

#储存

importpandasaspd#引入pandas,简写成pd

df = pd.DataFrame(text_list)#定义DataFrame对象并赋给df

df.to_excel('D://comments.xlsx')#把结果输出为csv格式,存在D盘

不超过10行代码,是不是很简单呢?

现重点讲解解析部分xpath的用法:

首先鼠标左键选取到需要爬取的书评

右键,点击“检查”,在“Elements”下找到定位到所需数据

右键——Copy——Copy Xpath,即可完成Xpath的复制

示例:

总结:

1:Python爬虫,上手其实很简单啦。

2:推荐新手使用pycharm编辑器,界面实在太友好了。

3:想要实现这个爬取,首先,你要安装request、xpath、pandas等第三方库哦,网上很多安装教程,在这我就不累赘了。

4:每个软件、第三方库内容太多,我们不可能都去学,所以我们只需要去学习我们当前需要的知识就Ok了(学不在多,在于消化)。

下一篇文章,将扩大难度,抓取小王子书评前100页的内容,大家可以提前思考下,怎样实现翻页哦。

有不清楚的地方,大家可以留言,点赞哦,我看到了,会第一时间回复你。

本文来自企鹅号 - 全球大搜罗媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 全球大搜罗媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档