首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    起点小说--scrapyredisscrapyd

    之前写了一篇网络字体反之pyspider起点中文小说 可能有人看了感觉讲的太模糊了,基本上就是一笔带过,一点也不详细。...这里要说明一下,上一篇主要是因为有字体反,所以我才写了那篇文章,所以主要就是提一个字体反的概念让大家知道,其中并没有涉及到其他比较难的知识点,所以就是大概介绍一下。 今天依然是起点小说。...start_urls:爬虫初始的链接列表 custom_setting = {} # 自定义的setting配置 方法 start_requests:启动爬虫的时候调用,urls的链接,可以省略...() process = CrawlerProcess(settings=settings)# 可以添加多个spiderprocess.crawl(QidianSpider)# 启动爬虫,会阻塞,直到完成...因为我在的过程中发现起点首页提供的所有小说信息中,最后一些分页里的数据都是重复的,所以还是需要增加去重处理的。

    1.7K40

    Python3多进程+协程异步小说

    前言 之前写了一篇关于用多线程小说的博客,但是发现16M的小说需要十几分钟,所以今天更新了一篇用多进程外加使用单线程异步的协程同样取之前用多线程的同一篇小说,并进行两者效率的对比 本篇测试小说为...titles = []#储存各章节名字 process_num = 0 #进程数,一般范围为CPU内核数到50 coroutine_num = 0 #协程数 ①首先依旧用chromedriver模拟登录小说网站对应小说目录的网页...driverchrome安装的路径 driver_path = r'E:\py\chromedriver\chromedriver.exe' base_url = r'http://www.biquge.tv'#小说网站...URL txt_path = r'E://py//小说//'#存储小说的路径 urls = [] #储存各章节的URL htmls = []#储存各章节页面HTML titles = []#储存各章节名字...——————————————————————————————————————————————# 本次实验开启40进程和40协程 跑了30多秒 image.png image.png 用上次的多线程同样小说

    91930

    Python爬虫—小说

    selenium import webdriver from selenium.webdriver.common.desired_capabilities import DesiredCapabilities 一章内容...选择的小说是你是我的城池营垒,如果要把所有章节取下来就要点进每一章然后去,一开始觉得有点击所以要用selenium,但是写到后面发现传每一章的url就可以不用模拟点击,所以可以不用selenium...div后面也加一个,要不然每一章小说就会连在一起。...把上面的一个章节封装成一个函数,一会调用。...链接都是有长度相等的字符串,所以可以用切片的方法获取每一章的链接: for li in all_li: str_0 = str(li) str_0 = str_0[9: 31] 然后把链接传到每一章的函数里就可以完成整章小说取了

    65310

    利用scrapy整站小说

    利用scrapy整站小说 今天带大家实践一把整站小说,当然只是出于学习目的,大家千万不要应用于商业应用,因为可能出现侵权问题。本教程默认大家已经安装了scrapy,并且熟悉python语法。...我们将逐步解析网站,然后将小说取保存到本地。...1.分析网页 通过点击查看各个网页的目录结构发现,小说的各个类目的网页结构都是一致的,所以我们只要能解析一个类目,那么基本所有的类目都可以解析,那么我们就暂时解析玄幻类目,解析完毕后,将其他类目加入队列即可全站...那么我们接下来就开始 2.创建项目 使用scrapy命令创建项目,创建项目需要两条命令: //创建项目,最后一个参数为项目名称 >> scrapy startproject xiaoshuoSpider...('//ul/li/span[@class="s2"]/a') #循环取到的小说,将其章节目录页的链接存放入scrapy的队列 for i in booklist:

    1.1K40

    Python3网络爬虫(七):使用Beautiful Soup小说

    并且该网站只支持在线浏览,不支持小说打包下载。因此,本次实战就是从该网站并保存一本名为《一念永恒》的小说,该小说是耳根正在连载中的一部玄幻小说。...接收字符串,正则表达式 print(soup.find_all(class_="title")) #[My Blog] 4.小说内容...    掌握以上内容就可以进行本次实战练习了 a)单章小说内容     打开《一念永恒》小说的第一章,进行审查元素分析。     ...可以看到,我们已经顺利第一章内容,接下来就是如何所有章的内容,取之前需要知道每个章节的地址。因此,我们需要审查《一念永恒》小说目录页的内容。...b)各章小说链接     URL:http://www.biqukan.com/1_1094/     由审查结果可知,小说每章的链接放在了class为listmain的div标签中。

    4.4K80

    小说网站章节和小说语音播放

    小说网站章节和小说语音播放 小说网站说干就干!! 现在来了,撸起袖子开始就是干!! 百度搜索一下 "小说网站" ,好第一行就你了,目标-->"起点小说" ?...点击进去复制改小说的网址为:起点小说("https://www.qidian.com/") ?...有人就会问了,我整理好了怎么去获取改文件的超链接呢对吧,别慌这就讲来; 看到网站的结构是这样的那么对应的的路线就有了, ?...上面形成的xml对应的属性结构去查询他的对应的节点,这样我们就很容易会取到对应的图片的连接对吧.... ? ? 这个是上面文件取到的图片(一部分): ?...请求网站拿到HTML源代码,抽取小说名、小说链接 创建文件夹 16 17 response = requests.get("https://www.qidian.com/all") 18

    1.5K10

    Java|“ Java”来小说章节

    1 前提简介 在上一篇Java|使用WebMagic进行电话“的文章里就已经介绍了如何主要使用Pageprocessor去电话号码,接下来将要学习到的是去起点中文网的小说,并且按照小说名和章节分别保存...2 简单查看 下面就是需要去小说页面以及内容,但保存下来的文件只需要章节内容,像第一章的开头就不需要,于是需要注意去判断。 ? 图2.1 起点中文网 ? 图2.2 玄幻新书 ?...java.io.FileOutputStream; import java.io.PrintWriter; import java.util.ArrayList; import java.util.List; /** * 起点小说...*/ public class GetQidianBook implements PageProcessor { //设置带文件的相关配置 private Site...System.out.println(title + " " + "完毕"); } catch (FileNotFoundException e)

    2.2K10

    python 小说并下载【附代码】

    这篇文章主要介绍了python 小说并下载的示例,帮助大家更好的理解和学习python爬虫 代码 import requestsimport timefrom tqdm import tqdmfrom...可以看到,小说内容保存到“诡秘之主.txt”中,小说一共 1416 章,下载需要大约 20 分钟,每秒钟大约下载 1 个章节。 下载完成,实际花费了 27 分钟。...20 多分钟下载一本小说,你可能感觉太慢了。想提速,可以使用多进程,大幅提高下载速度。如果使用分布式,甚至可以1秒钟内下载完毕。 但是,我不建议这样做。...以我们这次下载小说的代码为例,每秒钟下载 1 个章节,服务器承受的压力大约 1qps,意思就是,一秒钟请求一次。...以上就是python 小说并下载的示例的详细内容

    2.4K30

    Python小说并写入word文档

    进入首页,选择我们要的书籍,点进去,刷新页面,确定书籍的url。...至此,基本就可以确定思路了: 手动获取小说url——>章节名称及其url——>正文获取 环境准备 环境还是比较简单的,请求工具+解析工具+文档写入工具,具体包含四个 pip install requests...cookie和user-agent获取方式: 发送请求获取数据 导入requests包,设置headers字典类型的参数,headers就是上面获取的cookie和user-agent参数;然后设置要小说的.../a/@title') if len(href): print(href, title) i = i + 1 else: print("完成...,再是小说内容的获取,清晰简单; 批量小说思路 这个就简单的扩展一下,我们发现网站中会有一个全部小说页,内容就是小说列表; 所以思路就是这个页面的小说名称和基本信息以及小说概览页的URL; 进一步重复本文的主要工作就行

    78610

    Spider实战系列-鬼吹灯小说

    网站链接放在这里了​​鬼吹灯​​ 主要是以协程为主来小说得章节内容,协程不懂得小伙伴可以先关注我一手,后续会整理理论的知识放在专栏里 整体思路 得到鬼吹灯页面的源码 解析源码得到每一个章节的url...semaphore))) await asyncio.wait(tasks) 复制代码 主函数运行 主函数运行就没什么可说的了,这里注意一点就是最后不要loop.close(),这样的话会导致你还没有完数据...,loop.close()就会关闭,情况如下,还剩一点就完了,结果报错了 if __name__ == '__main__': url = 'https://www.51shucheng.net...我就不一一截图了 总结 为什么我在这里比对了xpath和bs4两种代码,小伙伴可以仔细看一下,在xpath中,我想拿到数据,找到它,大量的使用了//这种,这样的话就会从源码内全局检索,这就导致了我想文章内容会很慢.../a/@href')[0] 复制代码 还有就是遇到了特殊符号要把它干掉,或者替换掉,这样就可以正常数据 如果有小伙伴想要直接拿取源码的话,可以顺着代码实现一步步粘贴过去

    78400
    领券