前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >JVM CMS GC日志详解

JVM CMS GC日志详解

作者头像
斯武丶风晴
发布于 2020-05-09 09:14:20
发布于 2020-05-09 09:14:20
1K04
代码可运行
举报
文章被收录于专栏:龙首琴剑庐龙首琴剑庐
运行总次数:4
代码可运行
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# JDK8
-Xms20M -Xmx20M -XX:+PrintGCDetails -XX:+UseConcMarkSweepGC

CMS 日志格式:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[GC (Allocation Failure) [ParNew: 5504K->640K(6144K), 0.0136830 secs] 5504K->1556K(19840K), 0.0137738 secs] [Times: user=0.06 sys=0.01, real=0.01 secs] 
[GC (Allocation Failure) [ParNew: 6144K->544K(6144K), 0.0012950 secs] 7060K->2102K(19840K), 0.0013310 secs] [Times: user=0.01 sys=0.00, real=0.00 secs] 
[GC (Allocation Failure) [ParNew: 6048K->640K(6144K), 0.0175172 secs] 7606K->4311K(19840K), 0.0176172 secs] [Times: user=0.07 sys=0.01, real=0.01 secs] 
[GC (Allocation Failure) [ParNew: 6144K->640K(6144K), 0.0163793 secs] 9815K->7694K(19840K), 0.0164765 secs] [Times: user=0.10 sys=0.01, real=0.01 secs] 
# ParNew:年轻代收集器   6144->640:收集前后的对比 (6144):整个年轻代容量  9815 ->7694:整个堆的情况(19840):整个堆大小
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[GC (CMS Initial Mark) [1 CMS-initial-mark: 7054K(13696K)] 7806K(19840K), 0.0023289 secs] [Times: user=0.00 sys=0.00, real=0.01 secs] 
# 初始标记,STW, 7054K(13696K)  老年代使用空间、最大空间       7806K(19840K)   整个堆使用空间、最大空间
[CMS-concurrent-mark-start]
[CMS-concurrent-mark: 0.015/0.015 secs] [Times: user=0.05 sys=0.00, real=0.01 secs] 
# 并发标记,这里的时间意义不大,因为是并发执行
[CMS-concurrent-preclean-start]
[CMS-concurrent-preclean: 0.000/0.000 secs] [Times: user=0.00 sys=0.00, real=0.00 secs] 
# //标记Card为Dirty,也称为Card Markin
[GC (CMS Final Remark) [YG occupancy: 1865 K (6144 K)][Rescan (parallel) , 0.0015431 secs][weak refs processing, 0.0000870 secs][class unloading, 0.0017562 secs][scrub symbol table, 0.0012416 secs][scrub string table, 0.0006834 secs][1 CMS-remark: 7054K(13696K)] 8919K(19840K), 0.0054720 secs] [Times: user=0.01 sys=0.01, real=0.01 secs] 
   #  STW阶段,YG occupancy:  年轻代占用及容量
   #[Rescan (parallel)STW下的存活对象标记
   #weak refs processing: 弱引用处理
   #class unloading: 卸载用不到的class
   #scrub symbol(string) table:   cleaning up symbol and string tables which hold class-level metadata and internalized string respectively
   #CMS-remark: 7054K(13696K): 阶段过后的老年代占用及容量
   # 8919K(19840K) : 阶段过后的堆占用及容量
[CMS-concurrent-sweep-start]
[CMS-concurrent-sweep: 0.010/0.010 secs] [Times: user=0.02 sys=0.00, real=0.01 secs] 
# 标记已经完成,进行并发清理
[CMS-concurrent-reset-start]
[CMS-concurrent-reset: 0.000/0.000 secs] [Times: user=0.00 sys=0.00, real=0.00 secs] 
# 重置内部结构,为下次GC做准备

by Sven Augustus https://my.oschina.net/langxSpirit

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【人工智能】如何借助DeepSeek R1打造个人知识库?
在当今信息爆炸的时代,知识和资料如潮水般涌来。如何对这些海量信息进行高效管理,确保在需要时能迅速检索并加以利用,成为了许多人亟待解决的问题。搭建个人知识库,无疑是应对这一挑战的绝佳方案。而DeepSeek作为一款强大的人工智能工具,为我们搭建个人知识库提供了便捷高效的途径。接下来,将为你详细介绍如何运用DeepSeek搭建属于自己的知识宝库。
蒙奇D索隆
2025/02/18
2.7K0
【人工智能】如何借助DeepSeek R1打造个人知识库?
基于 DeepSeek R1 搭建自己的大模型知识库
基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。
王小明_HIT
2025/04/07
4450
基于 DeepSeek R1 搭建自己的大模型知识库
使用DeepSeek+RAG实现私人知识库
我使用包括 ChatGPT 在内的 AIGC 工具,回答 SAP 相关领域问题时,经常遇到大模型「一本正经的胡说八道」。这种现象的正式术语是大模型的幻觉现象。
编程小妖女
2025/02/07
27K17
使用DeepSeek+RAG实现私人知识库
私有化搭建、本地知识库、可联网查询、具备RAG能力的私人DeepSeek
以上方式在云端产品上实现 DeepSeek 的私有化部署,除此之外,也可以部署安装在本地机器上,如个人PC电脑、内网电脑等环境。
参谋带个长
2025/02/15
3.4K0
手把手带你用DeepSeek-R1和Ollama搭建本地应用,一文搞定!
昨天文章《DeepSeek R1本地部署,小白教程来了!》的预告来兑现了。同时,有学习者问「可以上传文件啥的吗」?有的兄弟,有的。今天完整教程,它来了!
Datawhale
2025/02/05
10.3K0
手把手带你用DeepSeek-R1和Ollama搭建本地应用,一文搞定!
【知识库特性增量】 DeepSeek-R1 模板支持 bge-m3 embedding model
Embedding 模型的核心价值在于将非结构化文本转化为数值向量,解决语义理解与计算效率问题:
Cloud Studio
2025/02/20
1.5K0
【知识库特性增量】 DeepSeek-R1 模板支持 bge-m3 embedding model
Deepseek本地部署 + 个性化 Rag 知识库
Retrieval-Augmented Generation (RAG) 是一种结合了信息检索与文本生成的先进模型架构,旨在提高自然语言处理任务中的准确性和相关性。不同于传统的端到端生成模型,RAG 通过整合外部知识库来增强其输出内容的质量。具体来说,RAG 首先利用一个检索组件从大规模语料库中动态查找与输入查询最相关的文档或段落,然后将这些检索到的信息作为额外上下文传递给生成组件。这样,生成模型不仅能基于预训练的语言知识,还能依据最新的、具体的资讯来生成回复,从而确保了输出内容的时效性和准确性。
用户11404404
2025/04/15
2250
Deepseek本地部署 + 个性化 Rag 知识库
基于HAI + DeepSeek-R1 + AnythingLLM快速搭建自己的个人知识库
我之前曾经介绍基于腾讯云HAI,在几分钟快速部署一个属于自己的DeepSekk-R1大模型。这里就不再过多描述部署步骤了
算法一只狗
2025/02/06
3K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
LLM 本身只是一些 神经网络参数, 就拿 DeepSeek-R1 来讲,模型本身存储了 权重矩阵,以及 混合专家(MoE)架构, 实际运行起来需要行业级别的服务器配置, 消费级别的个人电脑不能直接运行,实际还涉及到硬件适配,需手动配置 CUDA/PyTorch 环境,编写分布式推理代码,处理量化与内存溢出问题
山河已无恙
2025/02/25
1.9K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
Webman AI携手DeepSeek本地训练,打造专属私有知识库!
Linux: webman根目录运行php start.php restart -d Windows: 按ctl c停止webman,然后运行php windows.php start
Tinywan
2025/03/14
1650
Webman AI携手DeepSeek本地训练,打造专属私有知识库!
大模型开发实战:(二)使用 LangChain 构建本地知识库应用
检索增强生成(Retrieval-Augmented Generation,RAG)是一种优化大型语言模型输出的方法,允许模型在生成回答前,从外部知识库中检索相关信息,而非仅依赖模型内部训练的知识。通过引用外部知识库的信息来生成更准确、实时且可靠的内容,并解决知识过时和幻觉的问题。下面将介绍使用 LangChain 和 Ollama 实现一个本地知识库应用。
张高兴
2025/05/21
8820
大模型开发实战:(二)使用 LangChain 构建本地知识库应用
使用DeepSeek搭建个人知识库
对于想要在本地或自托管环境中运行 LLM 的用户而言,Ollama 提供了一个无需 GPU、在 CPU 环境也可高效完成推理的轻量化 “本地推理” 方案。而要让 Ollama 真正 “接地气”,往往需要与其他开源项目进行配合——例如将文档、数据源或应用前端与 Ollama 打通,这便衍生出许多解决方案。
lyushine
2025/04/02
3410
DeepSeek搭建个人知识库教程
各位朋友,是不是经常被 AI 气得火冒三丈,恨不得把键盘给砸了?你让它查公司去年的财务数据,它却开始背诵经济学原理;你让它分析竞品的策略,它却大谈特谈马斯洛需求理论。我太能理解这种感受了,这就好比你花钱雇了个助理,结果这助理啥都不会,只会照搬百度百科的内容!
@派大星
2025/03/04
5750
DeepSeek搭建个人知识库教程
手把手教你:Windows与Linux下Dify+DeepSeek实现ragflow构建企业知识库
在当今人工智能飞速发展的时代,大语言模型(LLMs)已经成为众多领域的核心技术驱动力。无论是在智能客服、智能写作,还是在数据分析、决策支持等方面,大语言模型都展现出了强大的能力和潜力。然而,随着数据安全和隐私保护意识的不断提高,越来越多的企业和开发者开始寻求本地化部署大语言模型的解决方案,以确保数据的安全性和可控性。
范赟鹏
2025/05/30
8850
手把手教你:Windows与Linux下Dify+DeepSeek实现ragflow构建企业知识库
RAG 实战|用 StarRocks + DeepSeek 构建智能问答与企业知识库
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合外部知识检索与 AI 生成的技术,弥补了传统大模型知识静态、易编造信息的缺陷,使回答更加准确且基于实时信息。
StarRocks
2025/04/19
3450
RAG 实战|用 StarRocks + DeepSeek 构建智能问答与企业知识库
3分钟学会给deepseek投喂数据训练模型!打造专属AI小助理
在上一篇博客中,我们已经安装了Ollma和Page Assist(如果没有安装请看上一篇花5分钟进行安装),这时候我们就可以给deepseek投喂数据了,让它更好的为我们自己服务!
我只会写Bug啊
2025/02/21
3.4K0
3分钟学会给deepseek投喂数据训练模型!打造专属AI小助理
基于Ollama+DeepSeek+AnythingLLM轻松投喂打造本地大模型知识库
大家好,我是星哥,上一篇文章星哥介绍了本地部署DeepSeek的方法:《简单3步部署本地国产DeepSeek大模型》。
星哥玩云
2025/02/08
17.1K7
基于Ollama+DeepSeek+AnythingLLM轻松投喂打造本地大模型知识库
HAI DeepSeek R1 + AnythingLLM实现知识库
本环境基于高性能应用服务HAI-社区应用-DeepSeek AnythingLLM创建,支持进行知识库部署
geru
2025/02/11
1.6K10
还在搭建本地知识库? Cloud Studio DeepSeek 模板已经内置,直接来玩!
近期有很多用户询问如何基于 Cloud Studio DeepSeek-R1 模板搭建私有知识库,用于个人上传私有数据进行增强检索、实现 AI 赋能业务升级。但网上的动手教程对于非 IT 人员来讲门槛较高,令粉丝们望而却步。
CloudStudio
2025/02/13
7260
还在搭建本地知识库? Cloud Studio DeepSeek 模板已经内置,直接来玩!
DeepSeek+AnythingLLM,搭建本地AI知识库,真的太香了!三分钟搞定智能助手,小白也能轻松上手!
别慌!今天揭秘一个“真香”组合——DeepSeek+AnythingLLM,轻松搭建本地知识库,AI秒变你的“第二大脑”!
测试开发技术
2025/02/21
2.4K1
DeepSeek+AnythingLLM,搭建本地AI知识库,真的太香了!三分钟搞定智能助手,小白也能轻松上手!
推荐阅读
相关推荐
【人工智能】如何借助DeepSeek R1打造个人知识库?
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验