首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ResultSet object has no attribute ‘text‘

ResultSet object has no attribute ‘text‘

作者头像
川川菜鸟
发布于 2021-10-18 08:02:20
发布于 2021-10-18 08:02:20
85800
代码可运行
举报
运行总次数:0
代码可运行

最近在学BeautifulSoup,我就尝试用这个来下载一本红楼梦/ 原来是:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
wenben=new_soup.find_all('div',{'class':'chapter_content'})
        print(wenben.text)

就报错:ResultSet object has no attribute 'text’后面一大堆 解决:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
 for  wenben in new_soup.find_all('div',{'class':'chapter_content'}):
            print(wenben.text)

然后就下载好了:

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/02/05 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
如何解决AttributeError: ‘NoneType‘ object has no attribute ‘find_all‘问题
在使用 BeautifulSoup 解析网页时,AttributeError: 'NoneType' object has no attribute 'find_all' 是一个十分常见却又让人头疼的错误。本篇博客将从开发场景与技术细节出发,全面剖析该异常的多种成因,并给出从入门到进阶的 15+ 种解决方案,帮助你彻底搞定 find_all 相关的 NoneType 问题。
猫头虎
2025/07/17
1040
如何解决AttributeError: ‘NoneType‘ object has no attribute ‘find_all‘问题
如何解决AttributeError: ‘NoneType‘ object has no attribute问题
如何解决AttributeError: ‘NoneType’ object has no attribute问题
猫头虎
2025/07/20
5500
如何解决AttributeError: ‘NoneType‘ object has no attribute问题
老司机教你用Python下载热门小说
说起来Python,你能想到的是什么呢?大数据?Django?小程序?人工智能?爬虫?等等等等 Python作为一门入门简单适合于大众的编程语言,小至小学生,大至大学生,都在学习Python的编程知识,今天博主就给大家带来一篇关于Python的好玩例子---使用Python爬虫下载小说 需求分析 所谓爬虫,就是取模拟Http请求,然后将返回回来的页面数据进行处理分析,拿到我们想要的内容;今天带大家爬的是一家比较良心的小说网站--- https://www.dingdiann.com/,这个网站通过博主实测,
tyrantlucifer
2022/03/23
5820
老司机教你用Python下载热门小说
爬取一本小说的python爬虫代码
GeekLiHua
2025/01/21
3750
爬取一本小说的python爬虫代码
爬虫学习(12):爬取诗词名句网并且下载保存
用BeautifulSoup爬取并且下载。仅仅用作学习用途哈,不然又侵权了。 效果:
川川菜鸟
2021/10/18
5210
Python大佬手把手教你如何自制小说下载器
今天说的这个小说下载器是之前一个小姐姐要我帮她做的,感觉还不错,就来做个demo。(本文使用python2.7)
前端皮皮
2020/11/26
28.6K0
Python大佬手把手教你如何自制小说下载器
详细记录了python爬取小说《元尊》的整个过程,看了你必会~
学了好几天的渗透测试基础理论,周末了让自己放松一下,最近听说天蚕土豆有一本新小说,叫做《元尊》,学生时代的我可是十分喜欢读天蚕土豆的小说,《斗破苍穹》相信很多小伙伴都看过吧。今天我们就来看看如果一步一步爬下来《元尊》的所有内容。
菜鸟小白的学习分享
2020/08/04
6570
详细记录了python爬取小说《元尊》的整个过程,看了你必会~
Python学习笔记(BeautifulSoup选择器)
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间。
python与大数据分析
2022/03/11
3580
数据解析-bs4
接下来尝试用select层级选择器定位豆瓣电影的html页面的标签,假如我们想要获取li标签中的第一条并进行各种操作:
y191024
2022/09/20
9250
数据解析-bs4
python爬虫:爬取笔趣小说网站首页所有的小说内容,并保存到本地(单线程爬取,似乎有点慢)
这几天在进行新的内容学习,并且在尝试使用据说是全宇宙唯一一款专门开发python的ide工具,叫做pycharm。
戈贝尔光和热
2018/12/27
2.3K0
Python3 网络爬虫(二):下载小说的正确姿势(2020年最新版)
这是明面上,能想到的东西,除了这些还有一些危险的操作,容易被请喝茶的,就不讨论了。
Jack_Cui
2020/04/30
4.9K0
Python3 网络爬虫(二):下载小说的正确姿势(2020年最新版)
【python爬虫基础】年轻人的第一个爬虫程序
网络爬虫(Web Crawler),也称为网络蜘蛛(Web Spider)或网络机器人(Web Bot),是一种自动化程序,用于从网站中提取和收集信息。它通过系统地浏览互联网,访问网页并提取其中的内容,常用于搜索引擎、数据挖掘以及其他需要大量信息的场景。 工作原理
Yui_
2024/10/19
3340
【python爬虫基础】年轻人的第一个爬虫程序
爬虫实战:从网页到本地,如何轻松实现小说离线阅读
今天我们将继续进行爬虫实战,除了常规的网页数据抓取外,我们还将引入一个全新的下载功能。具体而言,我们的主要任务是爬取小说内容,并实现将其下载到本地的操作,以便后续能够进行离线阅读。
努力的小雨
2024/03/12
5530
Spider实战系列-爬取鬼吹灯小说
第一次发表实战类型的爬虫文章,如果有那里不明白或者出现bug的可以找我私信,欢迎大家在下面评论,可以给出我更好的建议,欢迎大家指正.
浅辄
2023/03/02
8460
Spider实战系列-爬取鬼吹灯小说
『Python工具篇』Beautiful Soup 解析网页内容
而在解析数据时使用的是 Beautiful Soup 这个库,直译过来就是“靓汤”,这是广东人最喜欢的库。
德育处主任
2024/04/11
6320
python爬虫-数据解析(bs4)
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/100110.html原文链接:
全栈程序员站长
2021/04/19
1.1K0
python爬虫-数据解析(bs4)
网络爬虫爬取三国演义所有章节的标题和内容(BeautifulSoup解析)
三国演义是我比较喜欢的小说了,记得袁阔成老先生说,《三国演义》是那段历史的一座人才宝库,也是一部活的兵书,是一座军事大课堂。从小喜欢读三国演义,常常为作者的文笔而惊叹。在这本书里,我们看见了过往的,看到了历史璀璨的文化积淀,同时我们也获取到了心灵的养分。
兰舟千帆
2022/07/16
8930
网络爬虫爬取三国演义所有章节的标题和内容(BeautifulSoup解析)
Python脚本自动下载小说
        本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容的脚本玩玩。于是,通过在逐浪上面分析源代码,找出结构特点之后,写了一个可以爬取逐浪上小说内容的脚本。
py3study
2020/01/10
1.8K0
Python爬虫——Beautiful Soup
Beautiful Soup是Python处理HTML或XML的解析库,使用Beautiful Soup需要安装Beautiful Soup库和lxml的库 Beautiful Soup官方下载地址
羊羽shine
2019/05/28
5780
使用Python的BeautifulSoup库实现一个可以爬取1000条百度百科数据的爬虫
BeautifulSoup安装很简单,我们可以直接使用pip来安装BeautifulSoup,安装命令如下:
端碗吹水
2020/09/23
2.6K0
使用Python的BeautifulSoup库实现一个可以爬取1000条百度百科数据的爬虫
推荐阅读
相关推荐
如何解决AttributeError: ‘NoneType‘ object has no attribute ‘find_all‘问题
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档