Loading [MathJax]/jax/input/TeX/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >R语言网络数据抓取的又一个难题,终于攻破了!

R语言网络数据抓取的又一个难题,终于攻破了!

作者头像
数据小磨坊
发布于 2018-04-11 09:53:50
发布于 2018-04-11 09:53:50
3.4K00
代码可运行
举报
文章被收录于专栏:数据小魔方数据小魔方
运行总次数:0
代码可运行

单纯从数据抓取的逻辑来讲(不谈那些工程上的可用框架),个人觉得R语言中现有的请求库中,RCurl和httr完全可以对标Python中的urllib和reuqests(当然py中在错误处理和解析框架上显得更为专业!)。

我们经常使用的网络数据抓取需求,无非两种:

  • 要么伪造浏览器请求 要么驱动浏览器请求

对于伪造浏览器请求而言,虽然请求定义里有诸多类型,但是实际上爬虫用到的无非就是GET请求和POST请求。

而驱动浏览器就几乎没有什么门槛了,所见即所得,R语言中的RSelenium/Rwebdriver和Python中的Selenium都可以完成(配置比较麻烦一些)。

实习僧招聘网爬虫数据可视化

GET请求的参数允许写在URL里,但是通常参数较多的情况下,直接拼url显得非常不优雅,而RCurl,httr都提供了可选的GET请求提交方式。在RCurl里,getURL通常用来完成不含参数的GET请求(或者参数直接拼在了URL里),而getForm()函数通常用来完成含有参数的GET请求。(参数写在param参数体中)。

左右用R右手Pyhon系列——趣直播课程抓取实战

R语言爬虫实战——知乎live课程数据爬取实战

httr中的GET函数同样完成GET请求,query参数作为指定的请求参数提交方式(同样可以选择写在URL里)。

针对POST请求而言,作为API的普遍请求方式(也有一部分API是通过GET请求发送的),POST请求灰常复杂,它的查询参数必须含在请求体(body)中,而且参数发送前需要做指定的编码方式(就是request header中的content-type)。

长见的编码方式有4种:

  • application/x-www-form-urlencoded
  • application/json
  • multipart/form-data
  • text/xml

如果你想深入理解这四种方式,可以参考以下两篇文章,或者去看专业的http协议与浏览器相关内容。

http://www.cnblogs.com/111testing/p/6079565.html https://bbs.125.la/thread-13743350-1-1.html

以上四种参数,我只实践过前两种,第三种需要上传文件,暂未遇到,第四种很少见。在RCurl包的POST函数中,只针对第一种、第三种做了显式的参数声明 style=httppost、post,但是第二种、第四种style参数中没有列举到。而httr在参数处理上显得非常友好,直接指定了以上常见的四种方式:

左手用R右手Python系列——模拟登陆教务系统

R语言爬虫实战——网易云课堂数据分析课程板块数据爬取

要知道如今web前端中,使用json作为数据包返回的api是在是太普遍了,这个问题一直困扰着我,甚至一度认为RCurl包的POST方法不支持上传json参数(可是RCurl是直接对接liburl这个通用的爬虫C语言库的,urllib也是,httr底层是用了RCurl的,httr能做到的RCurl自然不在话下)。

一定是作者把上传json参数的方式隐藏了起来,或者是还没有来得及封装成高级函数,放在了底层,否则解释不通。直到今天,浏览了linkedlin上面的一个大神写的小品文,突然灵光乍现,赶紧一试,果然成功了!验证了之前的想法,可能RCurl刚出道的时候,json还没有成主流吧,所以json传参没有明显的放在style这个POST方法的参数里。而httr包则很讨巧的把所有POST参数的编码方式都声明了(哈德利大神就是快人一步,造福人类)。

http://www.linkedin.com/pulse/web-data-acquisition-structure-rcurl-request-part-2-roberto-palloni

以下是写作本篇推送的目地,把利用RCurl包构造POST请求,以及提交json字符串参数的案例及代码分享给大家。RCurl库与httr相比,偏底层,函数多且繁琐,httr更灵巧、轻便、简洁。这种关系,像极了Python中的urllib和request。

构建报头和查询参数:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
library("RCurl")
library("jsonlite")
library("magrittr")
headers<-c(  "User-Agent"="Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.79 Safari/537.36",  "Content-Type"="application/json;charset=UTF-8",  "Origin"="http://study.163.com",  "edu-script-token"="3de0ac05e45a4c9693f2a3605fbfaede")
Cookies<- 'EDUWEBDEVICE=0e88ed7a9b8b4fc4bfc615e251aa8863; _ntes_nnid=833311d30eccaa9f26425affae2cfef1,1509630974190; _ntes_nuid=833311d30eccaa9f26425affae2cfef1; STUDY_CP_ENTRANCE_CLOSE=1; STUDY_MIND_TELBIND_CLOSE=1; promTips=1; NTESSTUDYSI=3de0ac05e45a4c9693f2a3605fbfaede; STUDY_INFO=oP4xHuM9V1uY_TRID1ZzHOm5mkJY|6|12769628|1510452481337; STUDY_SESS="ryW1kbDYUPDpeexx7xnRK3cGH1nUulhhGJ9D1qIzrgCuSgHl96KRz9xVAwMO6jui9A7L4BJ6hUaaPXVtLf+pWBMHJEw6UtuJtXPjl2yhevq6wVYQtAaJ+N+2maA3kITUrUnNZE+nE0TmYBoQFSEgOKEjUu22o4FQQjD/GeyPrqJsX8TS4muhOF/kd9duGihHABYarJu/gx1XyYYhTqa89g=="; STUDY_PERSIST="8e2epkzTa+8Xy6agY2FPkUzktd9F+8CZ1rZxShzQSSRJ6RbRK2pSzoTqPic7hOB7dYsCtyfpIAD9Ue4S1oRerMBML+fd8iksmANh7THsUTBAXY6WM4kHXJFcNuERKuWuDeHOMilu1y+7T3/a7Jav0QPXrTaWx6YerFKJia2+3rEucY6CQ9waCFR9bhYObYkE6X9kJ71ahCvMYtkr9eXcE6s1rFdKOIgMEtQwxl1Jb8oli9XIBhsosLWHLIUZIfzGwHfmjuVpkfHAfiCIxUJfLiv82sP6EP+Q6n6O/pIeGx0="; STUDY_MIND_TELBIND=1; NETEASE_WDA_UID=12769628#|#1451204764916; NTES_STUDY_YUNXIN_ACCID=s-12769628; NTES_STUDY_YUNXIN_TOKEN=da46d92b7a9504736f2534ed1d366296; STUDY_NOT_SHOW_PROMOTION_WIN=true; utm="eyJjIjoiIiwiY3QiOiIiLCJpIjoiIiwibSI6IiIsInMiOiIiLCJ0IjoiIn0=|aHR0cDovL3N0dWR5LjE2My5jb20vY291cnNlcy1zZWFyY2g/a2V5d29yZD0lRTUlODglOTglRTUlODclQUY="; __utma=129633230.621520113.1509630968.1510452483.1510452504.13; __utmb=129633230.12.9.1510455608393; __utmc=129633230; __utmz=129633230.1509630968.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none)'headers['Cookie']<-Cookies
Payloads=list(
        "pageIndex"=1,
        "pageSize"=50,
        "relativeOffset"=0,
        "frontCategoryId"="400000000158033", 
       "searchTimeType"=-1,
        "orderType"=0,
        "priceType"=-1,
        "activityId"=0
        )

构建自动抓取函数:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
GetCourses<-function(url,header=headers,Payload=Payloads){
    fullinfo <- data.frame()
    d <- debugGatherer()
    handle <- getCurlHandle(debugfunction=d$update,followlocation=TRUE,cookiefile="",verbose = TRUE)
    for (i in 1:17){
        Payload[['pageIndex']]=i
        Payload[['relativeOffset']]=50*i-50
        tryCatch({
        content  <- postForm(url,.opts=list(postfields=toJSON(Payload,auto_unbox=TRUE),httpheader=header),.encoding="utf-8",curl=handle)
        ###通过将post需求提交的参数编码为json字串,封装在postForm函数的配置参数.opts中,完成json查询参数的传递!,
###竟然不写在style里,搞得人晕头转向的!注意使用toJSON序列化的时候,auto_unbox要设置为TRUE,否则默认为TRUE,单值都会被包括成列表!
        response <- content  %>% fromJSON() %>% `[[`(3) %>% `[[`(2)
        fullinfo <- response %>% rbind(fullinfo,.)  
        cat(sprintf("第【%d】页已抓取完毕!",i),sep = "\n")
        },error = function(e){
        cat(sprintf("第【%d】页抓取失败!",i),sep = "\n")
        })

        Sys.sleep(runif(1))
    }
    cat("all page is OK!!!")
    return (fullinfo)
}
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#运行函数
url<-'http://study.163.com/p/search/studycourse.json'
myresult<- GetCourses(url)
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#预览数据
DT::datatable(myresult)

至此,R语言中的两大数据抓取神器(请求库),RCurl+httr,针对主流的GET请求、POST请求(常用的)都已经完成探索和案例输出。以后的案例会不断补充一些高级的反反爬技巧!

备注:以上header中的cookie是防止请求被浏览器屏蔽,edu-script-token参数是进程的token,你可以理解为类似秘钥的东西,所以如果想要实践本篇内容,以上两个参数需要你从自己的Chrome中提取,直接运行本篇代码估计不大可能出数据!

往期案例数据请移步本人GitHub: https://github.com/ljtyduyu/DataWarehouse/tree/master/File

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-11-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据小魔方 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
R语言爬虫实战——网易云课堂数据分析课程板块数据爬取
R语言的爬虫生态虽然与Python相比要弱小很多,but,如果你真的想要用R干一些有趣的事情,那么R语言目前所具有的的网络爬取工具也能给你带来很多方便。 今天借着中秋节的兴致,用网易云课堂 全部课程>编程开发>人工智能与大数据>数据分析 模块的课程作为实战对象,来给大家演练一下如何使用R语言httr包实现异步加载和POST 表单提交以及cookies登入。 直接使用json或者其他格式的表单返回值,避免苦逼的的书写大量正则表达式以及让人眼花缭乱的 CSS表达式、Xath路径表达式。这应该是每一个爬虫练
数据小磨坊
2018/04/11
1.7K0
R语言爬虫实战——网易云课堂数据分析课程板块数据爬取
网易云课堂Excel课程爬虫思路
由于即将毕业,马上进入职场,想来是时候需要巩固一下基本职场技能了,特别是Excel这种杀手级职场应用。 可是如今网络这么发达,到处都充斥着Excel课程、视频、教程,真的很容易让人眼花缭乱,不知所措。 看书来的太慢了,还是直接看视频吧,简单粗暴,学习之前总要熟悉一下Excel教学行业的大致情况吧,今天就拿网易云课堂的Excel板块作为目标,在练习数据爬取的同时,顺便了解一下Excel培训行业的行情,知己知彼才能百战不殆,才能更加集中精力的学习那些精品课程。 url<-"http://study.163.c
数据小磨坊
2018/04/11
2.1K0
网易云课堂Excel课程爬虫思路
扒一扒rvest的前世今生!
rvest包可能是R语言中数据抓取使用频率最高的包了,它的知名度和曝光度在知乎的数据分析相关帖子和回答中都很高。 甚至很多爬虫教程和数据分析课程在讲解R语言网络数据抓取时,也大多以该包为主。 坦白的说,rvest的确是一个很好地数据抓取工具,不过他的强项更多在于网页解析,这一点儿之前就有说到。 你可能惊艳于rvest强大的解析能力,有两套解析语法可选(Xpath、css),短短几个关键词路径就可以提取出来很重要的数据。 但肯定也遇到过有些网页明明数据就摆在那里,通过Chrome开发者工具(或者selecto
数据小磨坊
2018/04/11
3K0
扒一扒rvest的前世今生!
左手用R右手Python系列——模拟登陆教务系统
最近在练习R语言与Python的网络数据抓取内容,遇到了烦人的验证码问题,走了很多弯路,最终总算解决了。 在分享这篇文章之前,只想感慨一声,虽然Python拥有更为完善的爬虫生态和多如牛毛的爬虫分享课程,但是貌似这些大部分内容,使用R语言中的RCurl+httr都可以做到,但是可惜的利用R语言学习爬虫的爱好者与Pythoner相比,实在是太少了,R语言的高阶爬虫教程凤毛麟角,只能一点一点儿在stackflow上面搜罗整理。 希望我的这一篇案例能给大家带来一点儿可借鉴的思路。 R library("RCurl
数据小磨坊
2018/04/11
1.6K0
左手用R右手Python系列——模拟登陆教务系统
异步加载的基本逻辑与浏览器抓包一般流程
本篇内容不涉及任何R语言或者Python代码实现,仅从异步加载的逻辑实现过程以及浏览器抓包分析的角度来给大家分享一下个人近期学习爬虫的一些心得。 涉及到的工具有Chrome浏览器(开发者工具)、postman(一款非常优秀的Chrome网络请求构造工具,你可以在Chrome浏览器在线商店里搜到,也可以下载桌面版)。 1、异步加载概念及实现过程 2、浏览器抓包分析一般流程 异步加载的英文简称是ajax,即“Asynchronous Javascript And XML”(异步JavaScript和XML)是指
数据小磨坊
2018/04/11
2.4K0
异步加载的基本逻辑与浏览器抓包一般流程
用R语言照葫芦画瓢撸了一个简易代理~
最近正在刻苦的学习爬虫,陆陆续续的学习了正则表达式、xpath、css表达式,基本可以胜任R语言中的RCurl+XML、httr+rvest组合爬虫的需求,对GET请求和POST请求的构造和表单提交以及浏览器抓包、模拟登陆、异步加载也做了一些梳理,因为爬虫知识的通用性,所以在入门Python阶段直接就开始练习urllib+lxml、requests+BeautifulSoup。 爬虫的入门也算有了一点儿小小的心得,下一步计划在不断练习巩固现有知识的同时、对服务器的反反爬进行探索,这里涉及到如何使用随机age
数据小磨坊
2018/04/11
1.1K0
用R语言照葫芦画瓢撸了一个简易代理~
Python数据抓取与可视化实战——网易云课堂人工智能与大数据板块课程实战
本篇内容数据抓取对象为网易云课堂人工智能与大数据板块课程信息,使用的工具是urllib+postman,因为直接构建的POST抓取的josn数据包,所以数据抓取的代码非常简单,没有繁杂的xpath或者css表达式。可视化部分使用matplotlib,感谢刘顺祥大神的matplotlib教程系列,让我没怎么费力气就直接复用了大量代码! https://mp.weixin.qq.com/s/E_r5ZsV9HOyuhnFwqsRXeA 以下是数据抓取部分代码: import json,time from url
数据小磨坊
2018/04/11
1.4K0
Python数据抓取与可视化实战——网易云课堂人工智能与大数据板块课程实战
XML/HTML/JSON——数据抓取过程中不得不知的几个概念
之前写了很多网络数据数据抓取的案例,无论是关于R语言还是Python的,里面大量使用xml\html\css\ajax\json等这些概念,可是一直没有对这些概念做详细的梳理,导致很多小伙伴儿看的摸不着头脑。 近期基础的网抓教程告一段落,从今天起,给大家梳理一些常用的web概念(当然是一个外行小白的视角来进行讲解,如有不当之处,还请见谅)。概念的梳理对于整体网抓思路的开拓至关重要。 几天主要围绕三个核心概念来进行介绍: xml html json xml的官方解释是可扩展标记语言,主要用于数据传输,而HTM
数据小磨坊
2018/04/11
2.2K0
XML/HTML/JSON——数据抓取过程中不得不知的几个概念
R语言爬虫实战——知乎live课程数据爬取实战
本文是一篇R语言爬虫实战练习篇,同样使用httr包来完成,结合cookies登录、表单提交、json数据包来完成整个数据爬取过程,无需书写复杂的xpath、css路径甚至繁琐的正则表达式(尽管这三个技能对于数据爬取而言意义非凡)。 之前已经演练过如何使用httr来完成网易云课堂的课程爬取,其中用到POST方法和表单提交。 今天爬取对象是知乎live课程信息,用到的GET方法,结合cookies登录和参数提交来完成,这一篇会给大家稍微涉猎一些细节技巧。 library("httr") library("dp
数据小磨坊
2018/04/11
1.5K0
R语言爬虫实战——知乎live课程数据爬取实战
RCurl中这么多get函数,是不是一直傻傻分不清!!!
你想知道R语言中的RCurl包中一共有几个get开头的函数嘛,今天我特意数了一下,大约有十四五个那么多(保守估计)! 所以如果对这个包了解不太深入的话,遇到复杂的数据爬取需求,自然是摸不着头脑,心碎一地~_~ 实际上很多我们都不常用,常用的不超过五个,而且这些函数命名都很有规律,一般是类似功能的名称中都有统一的关键词标识,只要理解这些关键词,很好区分,下面我对9个可能用到的get函数简要做一个分类。 第一类是get请求函数(参数直接写在URL里面) getURL #get请求的一般
数据小磨坊
2018/04/11
2.8K0
RCurl中这么多get函数,是不是一直傻傻分不清!!!
左手用R右手Python系列——循环中的错误异常规避
上一讲讲了R语言与Pyhton中的异常捕获与错误处理基本知识,今天以一个小案例来进行实战演练,让你的程序遇水搭桥,畅通无阻。 本案例目标网址,今日头条的头条指数行业报告,全都是pdf格式的,需要先抓包获取PDF文件地址,之后我会随机抽取其中5个地址(因为PDF下载要看网速的,特别慢),然后将其中两个地址设置为不存在地址。 这种错误非常常见,当然实际应用中错误类型多种多样,需要你仔细甄别,但解决的基本思路都是这样的。当遇到一个错误地址导致程序遇阻时,使用异常函数先捕获错误异常,然后使用next命令进行绕过即可
数据小磨坊
2018/04/11
1.8K0
左手用R右手Python系列——循环中的错误异常规避
R语言爬虫实战:如何爬取分页链接并批量保存
在数据采集和分析过程中,爬虫技术(Web Scraping)是一项非常重要的技能。R语言虽然以统计分析和数据可视化闻名,但其强大的网络爬虫能力同样不容忽视。本文将介绍如何使用R语言爬取分页网页的链接,并将数据批量保存到本地文件(如CSV或TXT),适用于新闻聚合、电商数据抓取、学术研究等场景。
小白学大数据
2025/07/07
1180
左手用R右手Python系列之——表格数据抓取之道
在抓取数据时,很大一部分需求是抓取网页上的关系型表格。 对于表格而言,R语言和Python中都封装了表格抓取的快捷函数,R语言中XML包中的readHTMLTables函数封装了提取HTML内嵌表格的功能,rvest包的read_table()函数也可以提供快捷表格提取需求。Python中read_html同样提供直接从HTML中抽取关系表格的功能。 HTML语法中内嵌表格有两类,一类是table,这种是通常意义上所说的表格,另一类是list,这种可以理解为列表,但从浏览器渲染后的网页来看,很难区分这两种,
数据小磨坊
2018/04/11
3.6K0
左手用R右手Python系列之——表格数据抓取之道
R语言数据抓取实战——RCurl+XML组合与XPath解析
经常有小伙伴儿跟我咨询,在使用R语言做网络数据抓取时,遇到空值和缺失值或者不存在的值,应该怎么办。 因为我们大多数场合从网络抓取的数据都是关系型的,需要字段和记录一一对应,但是html文档的结构千差万别,代码纷繁复杂,很难保证提取出来的数据开始就是严格的关系型,需要做大量的缺失值、不存在内容的判断。 如果原始数据是关系型的,但是你抓取来的是乱序的字段,记录无法一一对应,那么这些数据通常价值不大,今天我以一个小案例(跟昨天案例相同)来演示,如何在网页遍历、循环嵌套中设置逻辑判断,适时的给缺失值、不存在值填充预
数据小磨坊
2018/04/11
2.6K0
R语言数据抓取实战——RCurl+XML组合与XPath解析
生信人的R语言视频教程-语法篇-第十一章:R中的网络爬虫
用任何语言做爬虫必须要了解的就是网页语法,网页语言无非就是HTML,XML,JSON等,因为正是通过这些我们才能在网页中提取数据,过多的就不再描述,大家可以自行参考大量的资料,大多数语法都是树形结构,所以只要理解了,找到需要数据的位置并不是很难。用R语言制作爬虫无非就是三个主要的包。XML,RCurl,rvest,这三个包都有不同的主要函数,是R语言最牛的网络爬虫包。
DoubleHelix
2020/06/10
1.8K0
生信人的R语言视频教程-语法篇-第十一章:R中的网络爬虫
这个包绝对值得你用心体验一次!
这一段时间在研究R里面的数据抓取相关包,时不时的能发掘出一些惊喜。 比如今天,我找到了一个自带请求器的解析包,而且还是嵌入的pantomjs无头浏览器,这样就不用你再傻乎乎的再去装个selenium驱
数据小磨坊
2018/04/12
2.4K0
这个包绝对值得你用心体验一次!
左手用R右手Python系列——多进程/线程数据抓取与网页请求
这一篇涉及到如何在网页请求环节使用多进程任务处理功能,因为网页请求涉及到两个重要问题:一是多进程的并发操作会面临更大的反爬风险,所以面临更严峻的反爬风险,二是抓取网页数据需要获取返回值,而且这些返回值需要汇集成一个关系表(数据框)(区别于上一篇中的二进制文件下载,文件下载仅仅执行语句块命令即可,无需收集返回值)。 R语言使用RCurl+XML,Python使用urllib+lxml。 library("RCurl") library("XML") library("magrittr") 方案1——自建显式循
数据小磨坊
2018/04/12
9430
左手用R右手Python系列——多进程/线程数据抓取与网页请求
左右用R右手Pyhon系列——趣直播课程抓取实战
本文将以趣直播课程信息数据抓取为例,展示如何使用RCurl进行结合浏览器抓包操作进行简易数据抓取。 library("RCurl") livrary("XML") library("rlist") library("dplyr") library("jsonlite") 按照常规的操作步骤,数据抓取首先应该通过浏览器后台确认该目标网页所使用的框架和请求类型,确认网站是否提供了api访问接口,如果可以通过API直接访问数据包,那么抓取工作将会变得极其简单,倘若没有,则才考虑直接请求整个网页并使用xpath、c
数据小磨坊
2018/04/11
8930
左右用R右手Pyhon系列——趣直播课程抓取实战
左手用R右手Python系列16——XPath与网页解析库
最近写了不少关于网页数据抓取的内容,大多涉及的是网页请求方面的,无论是传统的RCurl还是新锐大杀器httr,这两个包是R语言中最为主流的网页请求库。 但是整个数据抓取的流程中,网页请求仅仅是第一步,而请求获取到网页之后,数据是嵌套在错综复杂的html/xml文件中的,因而需要我们熟练掌握一两种网页解析语法。 RCurl包是R语言中比较传统和古老的网页请求包,其功能及其庞大,它在请求网页之后通常搭配XML解析包进行内容解析与提取,而对于初学者最为友好的rvest包,其实他谈不上一个好的请求库,rvest是内
数据小磨坊
2018/04/11
2.7K0
左手用R右手Python系列16——XPath与网页解析库
用R语言的XML库写一个采集图片的爬虫程序
朋友让我用R语言的XML库写一个采集图片的爬虫程序。首先,我需要确认XML库是否适合这个任务。XML库主要用于解析XML和HTML内容,但R里面还有其他库如rvest可能更方便。不过朋友特别提到了XML库,所以必须用它。
华科云商小徐
2025/03/06
1350
推荐阅读
相关推荐
R语言爬虫实战——网易云课堂数据分析课程板块数据爬取
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验