前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >JVM垃圾回收器GC的常用参数

JVM垃圾回收器GC的常用参数

作者头像
斯武丶风晴
发布于 2020-05-04 06:34:23
发布于 2020-05-04 06:34:23
2.5K00
代码可运行
举报
文章被收录于专栏:龙首琴剑庐龙首琴剑庐
运行总次数:0
代码可运行

GC 常用参数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 年轻代 最小堆 最大堆 栈空间
-Xmn -Xms -Xmx -Xss
# System.gc()不管用 ,避免因System.gc()调用导致的FGC,生产环境建议
-XX:+DisableExplictGC 
# 年轻代存活对象升代年龄,最大值15CMS 默认是6, Parallel, G1 默认15-XX:MaxTenuringThreshold
  • GC 日志参数
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 生产环境一般再额外增加GC日志参数,OOME HeapDump 参数
-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/path/to/dir/
-Xloggc:/path/to/log/dir/gc-%t.log  -XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+PrintGCCause
  • 其他参数
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
## TLAB的参数,一般不需要调整
# 使用TLAB,默认打开
-XX:+UseTLAB
# 打印TLAB的使用情况
-XX:+PrintTLAB
# 设置TLAB大小  
-XX:TLABSize

# 打印类加载详细过程
-verbose:class
# 打印 VM 参数
-XX:+PrintVMOptions
# 打印最终参数值
-XX:+PrintFlagsFinal 
# 打印默认参数值
-XX:+PrintFlagsInitial

#  以下不建议生产环境设置
# 锁自旋次数 
-XX:PreBlockSpin 
# 热点代码检测参数
-XX:CompileThreshold

Parallel常用参数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 新生代 ParallelScavenge + 老年代 ParallelOld  (JDK7,  JDK8 为默认垃圾回收器) 
-XX:+UseParallelGC
# 新生代 ParallelScavenge + 老年代 ParallelOld, 同上 
-XX:+UseParallelOldGC

# 并行收集器的线程数,同样适用于CMS G1,默认CPU所支持的线程数,如果CPU所支持的线程数大于8,则 默认 8 + (logical_processor -8)*(5/8)
-XX:+ParallelGCThreads
# 大对象到底多大 (仅适用于 DefNew / ParNew ) https://bugs.openjdk.java.net/browse/JDK-8050209
-XX:PreTenureSizeThreshold
# 年轻代Survivor区比率,默认是8 (表示 Eden : From : To 为 811-XX:SurvivorRatio

# 自动选择各区大小比例
-XX:+UseAdaptiveSizePolicy

CMS 常用参数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
## 新生代 ParNew + 老年代 CMS + 老年代 Serial Old
# 某些版本的参数是这样的: -XX:+UseConcurrentMarkSweepGC
-XX:+UseConcMarkSweepGC

# 响应时间优先,停顿时间,是一个建议时间,GC会尝试用各种手段达到这个时间,比如减小年轻代,默认 18446744073709551615  
-XX:MaxGCPauseMillis
# 吞吐量优先,设置JVM吞吐量要达到的目标值, GC时间占用程序运行时间的百分比的差值,默认是 99
# 也就应用程序线程应该运行至少99%的总执行时间,GC1%
-XX:GCTimeRatio=99

# 并行收集器(ParNew , STW,  YGC)的线程数,默认CPU所支持的线程数,如果CPU所支持的线程数大于8,则 默认 8 + (logical_processor -8)*(5/8)
-XX:+ParallelGCThreads
#  CMS垃圾回收线程数量
-XX:ParallelCMSThreads

# 解决 CMS `Memory Fragmentation` 碎片化, 开启FGC时进行压缩,以及多少次FGC之后进行压缩
-XX:+UseCMSCompactAtFullCollection
-XX:CMSFullGCsBeforeCompaction=3
# 解决 CMS `Concurrent mode failure``Promotion Failed`晋升失败  
# 使用多少比例的老年代后开始CMS收集,默认是68%(近似值),如果频繁发生SerialOld卡顿,应该调小,(频繁CMS回收)
-XX:+UseCMSInitiatingOccupancyOnly
-XX:CMSInitiatingOccupancyFraction=70

# 开启 CMS 元空间的垃圾回收
-XX:+CMSClassUnloadingEnabled
# -XX:CMSInitiatingPermOccupancyFraction  (JDK8已经移除)

G1 常用参数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#  JDK 9开始为默认垃圾回收器
-XX:+UseG1GC

# 响应时间优先,建议值,设置最大GC停顿时间(GC pause time)指标(target). 这是一个软性指标(soft goal)
#  JVM 会尽力去达成这个目标. 所以有时候这个目标并不能达成
# G1会尝试调整Young区的块数来达到这个值
-XX:MaxGCPauseMillis
# 响应时间优先,GC的停顿间隔时间,默认0
-XX:GCPauseIntervalMillis
# 吞吐量优先,设置JVM吞吐量要达到的目标值, GC时间占用程序运行时间的百分比的差值,默认是 99
# 也就应用程序线程应该运行至少99%的总执行时间,GC1%
-XX:GCTimeRatio=99

# 并发回收器(STW   YGC)的工作线程数量,默认CPU所支持的线程数,如果CPU所支持的线程数大于8,则 默认 8 + (logical_processor -8)*(5/8)
-XX:ParallelGCThreads
# G1 并发标记线程数量
-XX:ConcGCThreads

# 启动并发GC时的堆内存占用百分比. G1用它来触发并发GC周期,基于整个堆的使用率,而不只是某一代内存的使用比例。默认45%
# 当堆存活对象占用堆的45%,就会启动G1 中Mixed GC
-XX:InitiatingHeapOccupancyPercent
# G1 分区大小,建议逐渐增大该值,1 2 4 8 16 32。
# 随着size增加,垃圾的存活时间更长,GC间隔更长,但每次GC的时间也会更长。ZGC做了改进(动态区块大小)
-XX:G1HeapRegionSize

# 新生代最小比例,默认为5%
# -XX:G1NewSizePercent (JDK8u23已经移除 https://www.oracle.com/technical-resources/articles/java/g1gc.html)
# 新生代最大比例,默认为60%
# -XX:G1MaxNewSizePercent (JDK823已经移除 https://www.oracle.com/technical-resources/articles/java/g1gc.html)
# G1 新生代初始大小,默认为5%
-XX:NewSize
# G1 新生代最大大小
-XX:MaxNewSize

by Sven Augustus https://my.oschina.net/langxSpirit

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
一个NeRF搞定全尺度:港中大团队BungeeNeRF从单建筑到地球都能渲染|ECCV2022
Pine 发自 凹非寺 量子位 | 公众号 QbitAI 你敢相信这是AI利用图像重建出来的3D场景吗? 这么大规模的场景竟然还能保持这么高的清晰度,确定不是和谷歌地图搞错了? 并没有!这是港中大团队提出的一个模型:BungeeNeRF(也称CityNeRF),适用于各种尺度的场景还原。 目前,这篇论文已经被ECCV2022收录。 从单个建筑到整个地球等大规模的场景,都可以通过多个2D图片还原为3D场景,细节渲染也很到位。 网友们对BungeeNeRF这一研究成果也很兴奋。 这或许就是我最近几周最喜欢的
量子位
2022/08/26
5880
一个NeRF搞定全尺度:港中大团队BungeeNeRF从单建筑到地球都能渲染|ECCV2022
滑铁卢大学使用谷歌地球图像和高斯溅射进行真实感3D城市场景重建和点云提取!
从2D图像中进行3D重建和建模近年来受到了极大的关注,这要归功于具有3D重建能力的真实感视图合成方法的最新进展。从技术角度来看,这是一个跨计算机视觉、计算机图形学和摄影测量学的交叉研究领域。
AIGC 先锋科技
2024/07/08
8950
滑铁卢大学使用谷歌地球图像和高斯溅射进行真实感3D城市场景重建和点云提取!
InstantMesh:利用稀疏视图大规模重建模型从单张图像高效生成3D网格
摘要:本文提出了InstantMesh,这是一个用于从单视角图像生成即时3D网格的前馈框架,具有当前非常优秀的生成质量和显著的训练可扩展性。
一点人工一点智能
2024/04/18
3K0
InstantMesh:利用稀疏视图大规模重建模型从单张图像高效生成3D网格
生成高精细节,新方法AligNeRF解决NeRF对齐问题
机器之心报道 机器之心编辑部 与当前最先进的 NeRF 模型相比,AligNeRF 可以恢复更多的高频细节。 虽然 NeRF 能够用不同视角的视图中渲染复杂的 3D 场景,但很少有人致力于探索其在高分辨率设置中的局限性。具体来说,现有的基于 NeRF 的方法在重建高分辨率的真实场景时面临着一些限制,包括大量的参数、未对齐的输入数据和过于平滑的细节。 在 UC Austin、谷歌、香港中文大学等机构提出的一项新研究中,作者找到了相应的解决方案:1) 将多层感知器(MLP)与卷积层相结合,可以编码更多的邻域信息
机器之心
2023/05/01
3990
生成高精细节,新方法AligNeRF解决NeRF对齐问题
CVPR 2024 | VastGaussian:用于大型场景重建的3D高斯
基于NeRF的方法在处理大型场景时,渲染时间长且渲染效果差。而现有基于3D高斯的方法由于训练内存大、优化时间长和外观变化剧烈,难以扩展到大型场景。
用户1324186
2024/04/12
1.6K0
CVPR 2024 | VastGaussian:用于大型场景重建的3D高斯
为了自动驾驶,谷歌用NeRF在虚拟世界中重建了旧金山市
训练自动驾驶系统需要高精地图,海量的数据和虚拟环境,每家致力于此方向的科技公司都有自己的方法,Waymo 有自己的自动驾驶出租车队,英伟达创建了用于大规模训练的虚拟环境 NVIDIA DRIVE Sim 平台。近日,来自 Google AI 和谷歌自家自动驾驶公司 Waymo 的研究人员实践了一个新思路,他们尝试用 280 万张街景照片重建出整片旧金山市区的 3D 环境。
计算机视觉
2022/02/16
8630
为了自动驾驶,谷歌用NeRF在虚拟世界中重建了旧金山市
上交&微软 | Make-it-3D:diffusion+NeRF从单张图像生成高保真的三维物体!
人类具有一种与生俱来的能力,可以轻松地想象3D几何和虚构出从不同角度看物体的外观,这基于他们对世界的先验知识。
公众号-arXiv每日学术速递
2023/08/26
1.2K0
上交&微软 | Make-it-3D:diffusion+NeRF从单张图像生成高保真的三维物体!
VR丝滑全景指日可待?谷歌这个360° NeRF让人看到未来
选自arXiv 机器之心编辑部 NeRF 家族的 360° 全景 3D 效果真是越来越丝滑了。  前段时间,CVPR 2022 公布了今年的论文接收结果,同时也意味着投稿的论文终于熬过了静默期。不少作者都感叹:终于可以在社交媒体上聊聊我们的论文了! 今天要介绍的论文来自谷歌研究院和哈佛大学。谷歌研究科学家、论文一作 Jon Barron 表示,他们开发了一种名为 Mip-NeRF 360 的模型,该模型能够生成无界场景的逼真渲染,给我们带来了 360° 的逼真效果和漂亮的深度图。 下面是几张效果图:
机器之心
2022/03/09
7000
CVPR 2024丨文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF
美图影像研究院(MT Lab)与中国科学院信息工程研究所、北京航空航天大学、中山大学共同提出了3D场景编辑方法——CustomNeRF,同时支持文本描述和参考图像作为3D场景的编辑提示,该研究成果已被CVPR 2024接收。
AI科技评论
2024/04/12
2230
CVPR 2024丨文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF
CVPR 2024 | 文本或图像提示精准编辑3D场景,美图&信工所&北航&中大联合提出3D编辑方法CustomNeRF
美图影像研究院(MT Lab)与中国科学院信息工程研究所、北京航空航天大学、中山大学共同提出了3D场景编辑方法——CustomNeRF,同时支持文本描述和参考图像作为3D场景的编辑提示,该研究成果已被CVPR 2024接收。
CV君
2024/04/18
2610
CVPR 2024 | 文本或图像提示精准编辑3D场景,美图&信工所&北航&中大联合提出3D编辑方法CustomNeRF
仅用三张图,合成高质量的3D场景,NTU提出SparseNeRF
随着深度学习与 3D 技术的发展,神经辐射场(NeRF)在 3D 场景重建与逼真新视图合成方面取得了巨大的进展。给定一组 2D 视图作为输入,神经辐射场便可通过优化隐式函数表示 3D。
机器之心
2023/09/08
5620
仅用三张图,合成高质量的3D场景,NTU提出SparseNeRF
CVPR 2021 Oral | 商汤、港中文提出生成式渲染器+反向渲染,3D人脸重建效果逼真
在传统计算机图像学里,渲染一张真实的人脸需要对人脸进行几何建模的同时,还需获得复杂的环境光照条件和人脸皮肤表面的反射材质,因而通过以图像渲染结果与真实图片之间的误差来优化可变形的人脸模型的过程中会进行繁琐的求导和不稳定的优化过程,而简单的利用卷积神经网络的回归特性来学习人脸模型和图片直接的转换过程会丧失比较多的生成细节,从而难以通过该方式比较高效地从拍摄图片获得人脸 3D 模型。
机器之心
2021/06/08
1K0
联合NeRF与特征网格,实现超大规模城市渲染,高效且逼真
机器之心报道 编辑:侯佳宁 在这项工作中,研究人员以大型城市场景渲染为目标,提出一个新的框架,集成了基于 MLP 的 NeRF 与显式 3D 重建的特征网格,以有效地编码局部和全局场景信息。该方法克服了现有方法在大规模场景中应用的各种缺点,即使在大规模城市场景中也能实现高保真度的渲染,这对于现实世界的应用场景至关重要。 纯基于 MLP 的神经辐射场(NeRF)由于模型容量有限,在大规模场景模糊渲染中往往存在欠拟合现象。最近有研究者提出对场景进行地理划分、并采用多个子 NeRF,分别对每个区域进行建模,然而,
机器之心
2023/05/09
4670
联合NeRF与特征网格,实现超大规模城市渲染,高效且逼真
HumanGaussian开源:基于Gaussian Splatting,高质量 3D 人体生成新框架
在 3D 生成领域,根据文本提示创建高质量的 3D 人体外观和几何形状对虚拟试穿、沉浸式远程呈现等应用有深远的意义。传统方法需要经历一系列人工制作的过程,如 3D 人体模型回归、绑定、蒙皮、纹理贴图和驱动等。为了自动化 3D 内容生成,此前的一些典型工作(比如 DreamFusion [1] )提出了分数蒸馏采样 (Score Distillation Sampling),通过优化 3D 场景的神经表达参数,使其在各个视角下渲染的 2D 图片符合大规模预训练的文生图模型分布。然而,尽管这一类方法在单个物体上取得了不错的效果,我们还是很难对具有复杂关节的细粒度人体进行精确建模。
机器之心
2023/12/12
6920
HumanGaussian开源:基于Gaussian Splatting,高质量 3D 人体生成新框架
无需多视图!Google重磅升级NeRF:仅需一张平面图即可生成3D模型
---- 新智元报道   编辑:LRS 【新智元导读】NeRF最大的弊端被攻克! 人类视觉中,有一个很重要的能力就是可以从二维图像中理解图像的三维形状。 理解三维几何对于了解物体和场景的物理和语义结构至关重要,但当下计算机的视觉仍然很难从二维照片中抽取出三维几何信息。 2020年,神经辐射场(NeRF)模型发布,仅根据二维图像即可生成三维模型,不过缺陷也很明显:模型需要同一个场景(scene)的多个视图(views)作为监督学习的输入。 如果多视角数据不足,模型就无法估计体积表征,生成的场景很容易崩溃
新智元
2022/09/20
1.5K0
无需多视图!Google重磅升级NeRF:仅需一张平面图即可生成3D模型
CVPR 2024 满分论文!浙大&字节提出基于可变形3D高斯的单目动态重建新方法
随着以神经辐射场(Neural Radiance Field, NeRF)为代表的神经渲染的兴起,越来越多的工作开始使用隐式表征(implicit representation)进行动态场景的三维重建。尽管基于 NeRF 的一些代表工作,如 D-NeRF,Nerfies,K-planes 等已经取得了令人满意的渲染质量,他们仍然距离真正的照片级真实渲染(photo-realistic rendering)存在一定的距离。
Python编程爱好者
2024/03/26
1.7K0
CVPR 2024 满分论文!浙大&字节提出基于可变形3D高斯的单目动态重建新方法
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法
2D 扩散模型极大地简化了图像内容的创作流程,2D 设计行业也因此发生了变革。近来,扩散模型已扩展到 3D 创作领域,减少了应用程序(如 VR、AR、机器人技术和游戏等)中的人工成本。有许多研究已经对使用预训练的 2D 扩散模型,生成具有评分蒸馏采样(SDS)损失的 NeRFs 方法进行了探索。然而,基于 SDS 的方法通常需要花费数小时来优化资源,并且经常引发图形中的几何问题,比如多面 Janus 问题。
机器之心
2023/11/27
3280
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法
ICCV 2023 | 单阶段扩散神经辐射场:3D生成与重建的统一方法
在计算机视觉和图形领域,由于神经渲染和生成模型的进步,三维视觉内容的合成引起了显著关注。尽管出现了许多处理单个任务的方法,例如单视图/多视图三维重建和三维内容生成,但开发一个综合框架来整合多个任务的最新技术仍然是一个主要挑战。例如,神经辐射场(NeRF)在通过每个场景的拟合解决逆向渲染问题方面展示了令人印象深刻的新视图合成结果,这适用于密集视图输入,但难以泛化到稀疏观察。相比之下,许多稀疏视图三维重建方法依赖于前馈图像到三维编码器,但它们无法处理遮挡区域的不确定性并生成清晰的图像。在无条件生成方面,三维感知的生成对抗网络(GAN)在使用单图像鉴别器方面部分受限,这些鉴别器无法推理跨视图关系以有效地从多视图数据中学习。 在这篇论文中,作者通过开发一个全面模型来从多视图图像中学习可泛化的三维先验,提出了一种统一的方法来处理各种三维任务。受到二维扩散模型成功的启发,论文提出了单阶段扩散NeRF(SSDNeRF),它使用三维潜在扩散模型(LDM)来模拟场景潜在代码的生成先验。 虽然类似的LDM已经应用于之前工作中的二维和三维生成,但它们通常需要两阶段训练,其中第一阶段在没有扩散模型的情况下预训练变分自编码器(VAE)或自解码器。然而,在扩散NeRF的情况下,作者认为两阶段训练由于逆向渲染的不确定性特性,特别是在从稀疏视图数据训练时,会在潜在代码中引入噪声模式和伪影,这阻碍了扩散模型有效地学习清晰的潜在流形。为了解决这个问题,论文引入了一种新的单阶段训练范式,使扩散和NeRF权重的端到端学习成为可能。这种方法将生成和渲染偏差协调地融合在一起,整体上提高了性能,并允许在稀疏视图数据上进行训练。此外,论文展示了无条件扩散模型学习到的三维先验可以在测试时从任意观察中灵活地采样用于三维重建。 论文在多个类别单一对象场景的数据集上评估了SSDNeRF,整体展示了强大的性能。论文的方法代表了朝着各种三维任务统一框架的重要一步。总结来说,论文的主要贡献如下:
用户1324186
2024/03/20
4880
ICCV 2023 | 单阶段扩散神经辐射场:3D生成与重建的统一方法
只用一张图+相机走位,AI就能脑补周围环境,来自华人团队 | CVPR2022
明敏 发自 凹非寺 量子位 | 公众号 QbitAI 站在门口看一眼,AI就能脑补出房间里面长什么样: 是不是有线上VR看房那味儿了? 不只是室内效果,来个远景长镜头航拍也是so easy: 而且渲染出的图像通通都是高保真效果,仿佛是用真相机拍出来的一样。 最近一段时间,用2D图片合成3D场景的研究火了一波又一波。 但是过去的许多研究,合成场景往往都局限在一个范围比较小的空间里。 比如此前大火的NeRF,效果就是围绕画面主体展开。 这一次的新进展,则是将视角进一步延伸,更侧重让AI预测出远距离的画面
量子位
2022/03/24
3540
PaintScene4D 引领文本到 4D 场景生成框架 ,以简洁架构,绘就逼真动态四维场景 !
从文本描述生成动态3D场景,这被称为文本到4D场景生成,是计算机视觉和图形学领域最具挑战性的前沿之一。尽管近年来的研究已经极大地增强了作者从文本生成静态3D内容以及2D图像和视频的能力,但合成时间连贯且动画化的3D场景仍然是一个基本的挑战。这一任务不仅需要生成空间一致的3D几何形状和外观,还需要产生符合真实世界物理定律和语义约束的逼真运动——所有这些都需要在多个视角下保持时间一致性。
AIGC 先锋科技
2025/02/07
2220
PaintScene4D 引领文本到 4D 场景生成框架 ,以简洁架构,绘就逼真动态四维场景 !
推荐阅读
一个NeRF搞定全尺度:港中大团队BungeeNeRF从单建筑到地球都能渲染|ECCV2022
5880
滑铁卢大学使用谷歌地球图像和高斯溅射进行真实感3D城市场景重建和点云提取!
8950
InstantMesh:利用稀疏视图大规模重建模型从单张图像高效生成3D网格
3K0
生成高精细节,新方法AligNeRF解决NeRF对齐问题
3990
CVPR 2024 | VastGaussian:用于大型场景重建的3D高斯
1.6K0
为了自动驾驶,谷歌用NeRF在虚拟世界中重建了旧金山市
8630
上交&微软 | Make-it-3D:diffusion+NeRF从单张图像生成高保真的三维物体!
1.2K0
VR丝滑全景指日可待?谷歌这个360° NeRF让人看到未来
7000
CVPR 2024丨文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF
2230
CVPR 2024 | 文本或图像提示精准编辑3D场景,美图&信工所&北航&中大联合提出3D编辑方法CustomNeRF
2610
仅用三张图,合成高质量的3D场景,NTU提出SparseNeRF
5620
CVPR 2021 Oral | 商汤、港中文提出生成式渲染器+反向渲染,3D人脸重建效果逼真
1K0
联合NeRF与特征网格,实现超大规模城市渲染,高效且逼真
4670
HumanGaussian开源:基于Gaussian Splatting,高质量 3D 人体生成新框架
6920
无需多视图!Google重磅升级NeRF:仅需一张平面图即可生成3D模型
1.5K0
CVPR 2024 满分论文!浙大&字节提出基于可变形3D高斯的单目动态重建新方法
1.7K0
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法
3280
ICCV 2023 | 单阶段扩散神经辐射场:3D生成与重建的统一方法
4880
只用一张图+相机走位,AI就能脑补周围环境,来自华人团队 | CVPR2022
3540
PaintScene4D 引领文本到 4D 场景生成框架 ,以简洁架构,绘就逼真动态四维场景 !
2220
相关推荐
一个NeRF搞定全尺度:港中大团队BungeeNeRF从单建筑到地球都能渲染|ECCV2022
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验