前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >一个简单的python爬虫,爬取知乎

一个简单的python爬虫,爬取知乎

作者头像
python学习教程
发布于 2019-12-27 09:52:25
发布于 2019-12-27 09:52:25
84100
代码可运行
举报
文章被收录于专栏:python学习教程python学习教程
运行总次数:0
代码可运行
一个简单的python爬虫,爬取知乎
  • 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片
  • 文字信息暂未收录,可自行实现,比图片更简单
  • 具体代码里有详细注释,请自行阅读

项目源码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# -*- coding:utf-8 -*-

from spider import SpiderHTML
from multiprocessing import Pool
import sys,urllib,http,os,random,re,time
__author__ = 'waiting'
'''
使用了第三方的类库 BeautifulSoup4,请自行安装
需要目录下的spider.py文件
运行环境:python3.4,windows7
'''

#收藏夹的地址
url = 'https://www.zhihu.com/collection/30822111'  #page参数改为代码添加

#本地存放的路径,不存在会自动创建
store_path = 'E:\\zhihu\收藏夹\\会员才知道的世界'

class zhihuCollectionSpider(SpiderHTML):
  def __init__(self,pageStart, pageEnd, url):
    self._url = url
    self._pageStart = int(pageStart)
    self._pageEnd = int(pageEnd)+1
    self.downLimit = 0            #低于此赞同的答案不收录

  def start(self):
    for page in range(self._pageStart,self._pageEnd):    #收藏夹的页数
      url = self._url + '?page='+str(page)
      content = self.getUrl(url)
      questionList = content.find_all('div',class_='zm-item')
      for question in questionList:            #收藏夹的每个问题
        Qtitle = question.find('h2',class_='zm-item-title')
        if Qtitle is None:                #被和谐了
          continue

        questionStr = Qtitle.a.string
        Qurl = 'https://www.zhihu.com'+Qtitle.a['href']  #问题题目
        Qtitle = re.sub(r'[\\/:*?"<>]','#',Qtitle.a.string)      #windows文件/目录名不支持的特殊符号
        try:
          print('-----正在获取问题:'+Qtitle+'-----')    #获取到问题的链接和标题,进入抓取
        except UnicodeEncodeError:
          print(r'---问题含有特殊字符无法显示---')
        try:
          Qcontent = self.getUrl(Qurl)
        except:
          print('!!!!获取出错!!!!!')
          pass
        answerList = Qcontent.find_all('div',class_='zm-item-answer  zm-item-expanded')
        self._processAnswer(answerList,Qtitle)            #处理问题的答案
        time.sleep(5)


  def _processAnswer(self,answerList,Qtitle):
    j = 0      
    for answer in answerList:
      j = j + 1
      
      upvoted = int(answer.find('span',class_='count').string.replace('K','000'))   #获得此答案赞同数
      if upvoted < self.downLimit:
        continue
      authorInfo = answer.find('div',class_='zm-item-answer-author-info')        #获取作者信息
      author = {'introduction':'','link':''}
      try:
        author['name'] = authorInfo.find('a',class_='author-link').string       #获得作者的名字
        author['introduction'] = str(authorInfo.find('span',class_='bio')['title']) #获得作者的简介
        author['link'] = authorInfo.find('a',class_='author-link')['href']      
      except AttributeError:
        author['name'] = '匿名用户'+str(j)
      except TypeError:                                  #简介为空的情况
        pass                                     #匿名用户没有链接

      file_name = os.path.join(store_path,Qtitle,'info',author['name']+'_info.txt')
      if os.path.exists(file_name):              #已经抓取过
        continue
  
      self.saveText(file_name,'{introduction}\r\n{link}'.format(**author))      #保存作者的信息
      print('正在获取用户`{name}`的答案'.format(**author))
      answerContent = answer.find('div',class_='zm-editable-content clearfix')
      if answerContent is None:                #被举报的用户没有答案内容
        continue
  
      imgs = answerContent.find_all('img')
      if len(imgs) == 0:                    #答案没有上图
        pass
      else:
        self._getImgFromAnswer(imgs,Qtitle,**author)

  #收录图片
  def _getImgFromAnswer(self,imgs,Qtitle,**author):
    i = 0
    for img in imgs:
      if 'inline-image' in img['class']:          #不抓取知乎的小图
        continue
      i = i + 1
      imgUrl = img['src']
      extension = os.path.splitext(imgUrl)[1]
      path_name = os.path.join(store_path,Qtitle,author['name']+'_'+str(i)+extension)
      try:
        self.saveImg(imgUrl,path_name)          #捕获各种图片异常,流程不中断
      except:                  
        pass
        
  #收录文字
  def _getTextFromAnswer(self):
    pass

#命令行下运行,例:zhihu.py 1 5   获取15页的数据
if __name__ == '__main__':
  page, limit, paramsNum= 1, 0, len(sys.argv)
  if paramsNum>=3:
    page, pageEnd = sys.argv[1], sys.argv[2]
  elif paramsNum == 2:
    page = sys.argv[1]
    pageEnd = page
  else:
    page,pageEnd = 1,1

  spider = zhihuCollectionSpider(page,pageEnd,url)
  spider.start()
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 python教程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
使用Python爬虫爬取妹子图图片
        最近在学习Python的爬虫部分。看到有网友在分享使用爬虫爬取各种网站的图片的代码,也想自己写个玩玩。今天花时间分析了一下妹子图网站的结构和HTML代码,使用urllib2和BeautifulSoup写出了一个自动下载妹子图网站图片的脚本。
py3study
2020/01/06
1.8K0
Python实现爬取知乎神回复
这篇文章主要介绍了Python实现爬取知乎神回复简单爬虫代码分享,本文实现了爬取知乎的“如何正确地吐槽”收藏夹,是对个人的一个兴趣实现,需要的朋友可以参考下。 看知乎的时候发现了一个 “如何正确地吐槽” 收藏夹,里面的一些神回复实在很搞笑,但是一页一页地看又有点麻烦,而且每次都要打开网页,于是想如果全部爬下来到一个文件里面,是不是看起来很爽,并且随时可以看到全部的,于是就开始动手了。 工具 Python 2.7 2.BeautifulSoup 分析网页 我们先来看看知乎上该网页的情况。 网址: http
机器学习AI算法工程
2018/03/13
1.2K0
Python实现爬取知乎神回复
【Python爬虫实战入门】:笔趣阁小说爬取,一篇教你爬虫入门
简介:requests模块 官方文档:https://requests.readthedocs.io/projects/cn/zh-cn/latest/
爱喝兽奶的熊孩子
2024/08/06
7330
【Python爬虫实战入门】:笔趣阁小说爬取,一篇教你爬虫入门
python爬虫: 指定 关键字 爬取图片
Introduction 设定关键字,从百度图片上爬取海量图片。 Code # coding:utf-8 import os import re import urllib import shuti
JNingWei
2018/09/28
1.1K0
python爬虫: 指定 关键字 爬取图片
【python爬虫】爬取知乎收藏夹内所有图片
比如要爬取:https://www.zhihu.com/collection/26347524 只用自带库,没用框架。 # -*- coding: utf-8 -*- from __future__
蛮三刀酱
2019/03/26
8380
【python爬虫】爬取知乎收藏夹内所有图片
Python爬取一个网站
# coding:utf-8 import requests from bs4 import BeautifulSoup import json import time import datetime import pymysql import sys reload(sys) sys.setdefaultencoding('utf-8') # 获取文章内容方法 def getartinfo( url ): page = requests.get(url).content soup = Be
IT架构圈
2018/06/01
4580
采用sql存储的方法保存所爬取的豆瓣电影
一、循环爬取网页模板 打开豆瓣电影top榜单,请求地址为:https://movie.douban.com/top250 通关观察,我们可以发现每页展示25条电影信息,多次翻页我们可以观察到url的
不温卜火
2020/10/28
5150
采用sql存储的方法保存所爬取的豆瓣电影
Python爬虫新手教程: 知乎文章图片爬取器
昨天写了知乎文章图片爬取器的一部分代码,针对知乎问题的答案json进行了数据抓取,博客中出现了部分写死的内容,今天把那部分信息调整完毕,并且将图片下载完善到代码中去。
python学习教程
2020/08/04
4310
三步爬取半次元热门图片
边学习,边创造是一件开心的事情,因为你会清楚的认识到自己的状态,以及那充满内心的成就感,因此从写爬虫开始学习python是一个简单粗暴的提升路线,不知不觉了解很多东西
py3study
2020/01/17
9680
爬虫简单实践之 wallhaven
闲来无事,简单写了一个爬虫,功能也很简单,就是爬取 wallhaven 上的图片。
EmoryHuang
2022/10/31
6540
爬虫简单实践之 wallhaven
如何用python爬取知乎话题?
因为要做观点,观点的屋子类似于知乎的话题,所以得想办法把他给爬下来,搞了半天最终还是妥妥的搞定了,代码是python写的,不懂得麻烦自学哈!懂得直接看代码,绝对可用
py3study
2020/01/08
1K0
爬取知乎真福利回答内容
女生身材好是什么体验?:https://www.zhihu.com/question/328457531
爱写bug
2019/07/08
1.3K0
(爬虫)书籍和电影,程序员不可或缺爬虫步骤1. 分析目标网页的特征2. 找到需要爬取的数据3.多页面数据的跳转4.数据存储
周五, 由于同事给了一个下载书籍的网站。所以心血来潮,想写一个爬虫demo,把数据都爬下来。然后发现一个电影网站也是类似,于是乎。代码重用。 爬虫步骤 分析目标网页的特征 找到需要爬取的数据 多页面数据的跳转 数据存储 1. 分析目标网页的特征 我今天要爬取的页面数据就是 周读, http://www.ireadweek.com/, 页面结构很简答,先是使用requests + bs4配合爬取。发现页面没有使用js,也没有做反爬虫的机制,所以很简单。 这个网站就两层结构, 主页->点击每个书籍->进入到
若与
2018/04/25
6670
(爬虫)书籍和电影,程序员不可或缺爬虫步骤1. 分析目标网页的特征2. 找到需要爬取的数据3.多页面数据的跳转4.数据存储
Python爬虫从入门到放弃(十九)之 Scrapy爬取所有知乎用户信息(下)
在上一篇文章中主要写了关于爬虫过程的分析,下面是代码的实现,完整代码在: https://github.com/pythonsite/spider items中的代码主要是我们要爬取的字段的定义 cl
coders
2018/01/04
8810
Python爬虫从入门到放弃(十九)之 Scrapy爬取所有知乎用户信息(下)
Python爬虫框架:scrapy爬取知乎数据
基础环境沿用之前的环境,只是增加了MongoDB(非关系型数据库)和PyMongo(Python 的 MongoDB 连接库),默认我认为大家都已经安装好并启动 了MongoDB 服务。
python学习教程
2019/10/22
1.5K0
Python爬虫框架:scrapy爬取知乎数据
python网络爬虫(10)分布式爬虫爬取静态数据
爬虫应该能够快速高效的完成数据爬取和分析任务。使用多个进程协同完成一个任务,提高了数据爬取的效率。
嘘、小点声
2019/07/31
6280
python爬取知乎话题图片
什么是网络爬虫(也叫网络蜘蛛)?简单来说,是一种用来自动浏览万维网程序或脚本(网络爬虫的典型应用就是我们所熟知的搜索引擎)。既然如此,那么我们也可以写一个程序,用来自动浏览或者获取网页上的信息。本文将介绍利用python自带库编写一个简单的爬虫程序来获取网络信息。
编程珠玑
2019/09/03
8330
python爬取知乎话题图片
【python爬虫】爬取知乎收藏夹内所有问题名称地址保存至Mysql
转载请注明源地址,代码在Github中(可能会更新):https://github.com/qqxx6661/python/
蛮三刀酱
2019/03/26
1.1K0
【python爬虫】爬取知乎收藏夹内所有问题名称地址保存至Mysql
Python爬取美女图片 爬虫基础
作为一个考研狗,每天除了日复一日的复习外,偶尔也想给自己寻找一些生活的小乐趣,今天突然想到了自己曾经稍微接触的爬虫,想看看可以爬取些图片放到电脑上,就花了些时间改了改之前的爬虫代码,爬取了一部分照片先量一下战绩吧。照片不多但也算是自己的一次爬虫小经验。
全栈程序员站长
2022/09/13
7110
python爬虫学习教程,爬取网易云音乐!
Python现在非常火,语法简单而且功能强大,很多同学都想学Python!所以小的给各位看官们准备了高价值Python学习视频教程及相关电子版书籍,欢迎前来领取!
python学习教程
2019/07/18
9580
python爬虫学习教程,爬取网易云音乐!
推荐阅读
相关推荐
使用Python爬虫爬取妹子图图片
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档