Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Java对象一定分配在堆上吗?

Java对象一定分配在堆上吗?

作者头像
阿珍
发布于 2024-11-04 06:51:27
发布于 2024-11-04 06:51:27
21100
代码可运行
举报
运行总次数:0
代码可运行

1. 引入

首先回答标题中的问题:Java对象一定会被分配到堆上吗?答案是:不一定

Java中创建的对象一般会分配到堆上,当堆空间不足时,就会触发GC进行垃圾回收,但是GC次数太多会影响程序的性能。

在编译期间,编译器会对代码做很多优化,为了减少内存分配压力,JVM提供了一项重要优化技术:逃逸分析。逃逸分析得出的结论为后续优化措施提供依据。

2. 什么是逃逸分析

逃逸分析Escape Analysis):JVM提供的一种优化技术,用于分析对象会不会发生逃逸。

Q:如何理解逃逸? 逃逸可以理解为会不会在作用域范围外被调用。如:一个方法内定义的变量,会不会在这个方法外被使用,如果否,则认为未逃逸;如果是:则认为会发生逃逸,这就是方法逃逸

根据上述的理解,可以分为不同的逃逸方式。对象的逃逸程度从高到低

  • 线程逃逸:一个对象在方法内被定义后,可能被外部线程访问,如:赋值给可以在其他线程中访问的实例变量;
  • 方法逃逸:一个对象在方法内被定义后,可能会被外部方法引用;
  • 不逃逸:仅在作用域范围内使用。

根据逃逸分析的结果来决定优化策略

3. 优化策略

3.1 栈上分配(Stack Allocations

  • 将对象分配到上,对象占用的内存空间可以随着栈帧出栈(即方法的结束)而销毁,这样垃圾收集的压力会下降很多。
  • 整个过程通过判断对象,来决定其是否必须要存在堆上,如果不需要的话,则可以被分配到栈上,栈随着线程的消逝而消逝,这样能够减少了GC的频率,从而提高性能。
  • 栈上分配支持方法逃逸,不支持线程逃逸

【例如】

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Java 代码解读复制代码public void test(){
    Student s = new Student();
    s.setName("张三");
    s.setAge(22);
    System.out.println(s.getAge());
}

逃逸分析后得出的结论为:不逃逸,对象s只作用于该方法内,不会被其他方法/线程引用,所以该对象可以分配到上。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Java 代码解读复制代码public Student test(){
    Student s = new Student();
    s.setName("张三");
    s.setAge(22);
    return s;
}

该方法的返回值为Student对象,逃逸分析后,得出的结论是:对象s可能会被其他方法/线程引用,所以该对象只能分配到上。

3.2 标量替换(Scalar Replacement

Q:什么是标量? 标量可以理解为:不可拆解的数据,如:intlong等数值类型。 与之相对的概念为聚合量(Aggregate:即可以拆解的数据,如:Java中的对象

标量替换就是将Java对象拆散,根据程序访问的情况,将其用到的成员变量恢复到原始类型来访问。

这样做的好处:对象的成员变量在栈上分配和读写;为后续进一步优化创造条件。可以将标量替换看作栈上分配的一种特例,实现更加简单,但对逃逸的要求更高,不允许对象逃逸出方法范围内

【例如】

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Java 代码解读复制代码//标量替换前的代码
public static void main(String[] args) {
   User user =  new User("张三",33);
   System.out.println("姓名:" + s.getName() + " 年龄:" + s.getAge());
}

// 标量替换后的代码
public static void main(String[] args) {
   String name = "张三";
   int age = 33;
   System.out.println("姓名:" + name + " 年龄:" + age);
}

3.3 同步消除(Synchronization Elimination

线程同步本身是一个相对耗时的过程,如果逃逸分析能够确定一个变量不会逃逸出线程,无法被其他线程访问,那么这个变量的读写肯定就不会有竞争,对这个变量实施的同步措施也就可以安全消除掉。

如果JVM通过逃逸分析,发现一个对象只能从一个线程访问到,访问这个对象时可以不加同步锁,如:如果程序中使用了synchronized锁,JVM会将synchronized锁消除。

4. Java对象内存分配流程

image.png
image.png

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
之前陆续写了Qwen1.5、Qwen2.0、GLM-4等国产开源大模型的原理、训练及推理相关的文章,每一篇都拿到了热榜第一,但其中训练部分均基于Llama-factory框架,对于工程师而言,最喜欢的就是刨根问底,使用中间层的训练框架,还是少一些“安全感”。今天我们抛开中间框架,深入底层,一步一步带大家微调一个大模型。
LDG_AGI
2024/08/13
1.9K0
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
【LLM训练系列04】手把手教你Qlora微调
IGNORE_TOKEN_ID 是一个常量,通常用于在训练过程中忽略某些特定的标签或输入。它的作用是告诉模型在计算损失时不考虑这些特定的标签或输入。
致Great
2024/12/21
2410
【LLM训练系列04】手把手教你Qlora微调
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
Gemma 是 Google 推出的轻量级、先进的开放模型系列,采用与 Gemini 模型相同的研究成果和技术构建而成。它们是仅使用解码器的文本到文本大型语言模型(提供英语版本),为预训练变体和指令调整变体具有开放权重。Gemma 模型非常适合各种文本生成任务,包括问题解答、摘要和推理。由于它们相对较小,因此可以将其部署在资源有限的环境(如笔记本电脑、桌面设备或您自己的云基础架构)中,让更多人能够使用先进的 AI 模型,并帮助促进每个人的创新。
LDG_AGI
2024/08/13
7800
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
微调 Zephyr 7B 量化模型,应用于客户聊天机器人的自定义任务
Huggingface 与 bitsandbytes 合作,将 AutoGPTQ[1] 库集成到了 Transformers 中。这一整合使用户能够以低至 8、4、3 或甚至 2 位的精度级别量化和操作模型,采用了 Frantar 等人在 2023 年[2] 引入的 GPTQ 算法。值得注意的是,使用 4 位量化几乎不会损失精度,同时在处理小批量数据时仍能保持与 fp16 基准相似的推理速度。值得一提的是,GPTQ 方法与 bitsandbytes 提出的训练后量化技术略有不同,因为它需要使用校准数据集。
山行AI
2023/12/28
7270
微调 Zephyr 7B 量化模型,应用于客户聊天机器人的自定义任务
【AI大模型】Transformers大模型库(九):大模型微调之计算微调参数占比
这里的Transformers指的是huggingface开发的大模型库,为huggingface上数以万计的预训练大模型提供预测、训练等服务。
LDG_AGI
2024/08/13
3340
从头开始实现LoRA以及一些实用技巧
LoRA是Low-Rank Adaptation或Low-Rank Adaptors的缩写,它提供了一种用于对预先存在的语言模型进行微调的高效且轻量级的方法。
deephub
2023/12/19
1.6K0
从头开始实现LoRA以及一些实用技巧
从头预训练一只超迷你 LLaMA 3
这次打算用 Hugging Face 的 API 来写一份预训练大(小)模型的代码,也就是用 Trainer 来做预训练。由于只是想练习一下,因此打算选一个极小模型 + 小数据集。为了贴近主流,于是打算预训练一个 LLaMA 3——不过是超迷你版本,大小仅不到 20M。
NewBeeNLP
2024/06/04
1K0
从头预训练一只超迷你 LLaMA 3
preprint版本 | 何凯明大神新作MAE | CVPR2022最佳论文候选
本文证明了蒙面自动编码器(MAE)是一种可扩展的计算机视觉自监督学习器。我们的MAE方法很简单:我们屏蔽输入图像的随机补丁并重建丢失的像素。
机器学习炼丹术
2021/12/06
1.3K0
preprint版本 | 何凯明大神新作MAE | CVPR2022最佳论文候选
可视化VIT中的注意力
来源:DeepHub IMBA 本文约4000字,建议阅读8分钟 本文为你介绍ViT模型。 2022年, Vision Transformer (ViT)成为卷积神经网络(cnn)的有力竞争对手,
数据派THU
2023/04/18
1.1K0
可视化VIT中的注意力
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了完全的mit协议开源,可以商用。对于算力不是那么充足的开发者,官方提供了API调用的方案,费用更是达到了全场最低!
zenRRan
2025/02/03
1.3K0
Deepseek-V2技术报告解读!全网最细!
LLM在智能应用中的新突破:最新技术趋势解析
大型语言模型(LLM)作为人工智能领域的重大突破,正在彻底改变我们与技术互动的方式。从简单的文本生成到如今的多模态交互、实时处理以及跨领域协作,LLM的能力正以前所未有的速度扩展。本文将深入探讨LLM在智能应用中的最新技术趋势,并通过实际的代码示例展示这些创新如何在现实世界中发挥作用。
江南清风起
2025/03/20
1730
【AI大模型】Transformers大模型库(五):AutoModel、Model Head及查看模型结构
这里的Transformers指的是huggingface开发的大模型库,为huggingface上数以万计的预训练大模型提供预测、训练等服务。
LDG_AGI
2024/08/13
1.2K0
【图像分类】Vision Transformer理论解读+实践测试
Vision Transformer是2021年谷歌在ICLR上提出的算法,算法原理并不复杂,但是其价值是开创性的。它首次将NLP领域火热的Transformer模型架构移植到了CV领域,打破了这两个领域壁垒,并取得不错的成效。
zstar
2022/09/20
3K0
【图像分类】Vision Transformer理论解读+实践测试
【Pre-Training】Transformers 源码阅读和实践
本文主要针对HuggingFace开源的 transformers,以BERT为例介绍其源码并进行一些实践。主要以pytorch为例 (tf 2.0 代码风格几乎和pytorch一致),介绍BERT使用的Transformer Encoder,Pre-training Tasks和Fine-tuning Tasks。最后,针对预训练好的BERT进行简单的实践,例如产出语句embeddings,预测目标词以及进行抽取式问答。本文主要面向BERT新手,在阅读本文章前,假设读者已经阅读过BERT原论文。
阿泽 Crz
2020/11/25
2.6K0
LoRA大模型降维训练
LoRA: Low-Rank Adaptation of Large Language Models
iResearch666
2023/09/13
9250
LoRA大模型降维训练
大模型实战:使用 LoRA(低阶适应)微调 LLM
[1] 详细内容请参阅 MarkAI Blog [2] 更多资料及工程项目请关注 MarkAI Github [3] 通关感知算法面试请Star 2024年千道算法面试题综述
码科智能
2023/12/19
6.1K2
大模型实战:使用 LoRA(低阶适应)微调 LLM
​一文带你了解:人工智能大模型:技术原理、应用与未来发展
近年来,人工智能领域取得了前所未有的突破,尤其是以GPT(Generative Pre-trained Transformer)、LLaMA、Claude等为代表的大型语言模型(Large Language Models,LLMs)引领了一场技术革命。这些大模型凭借数十亿甚至数千亿参数的规模,展现出了接近人类的语言理解和生成能力,为人工智能的应用开辟了广阔前景。本文将深入探讨AI大模型的技术原理、训练方法、应用场景以及未来发展趋势,并提供丰富的代码示例,帮助读者更好地理解和应用这些技术。
远方2.0
2025/04/04
3060
【机器学习】GLM-4V:图片识别多模态大模型(MLLs)初探
之前在我的第5篇热榜第一🏆文章【机器学习】Qwen-VL:基于FastAPI私有化部署你的第一个AI多模态大模型中对Qwen-VL如何基于FastAPI封装私有化接口进行了讲述,评论区有人问到如何基于GLM-4V进行私有化接口部署。那今天我们就基于FastAPI,讲述如何封装GLM-4V私有化接口。
LDG_AGI
2024/08/13
8970
【机器学习】GLM-4V:图片识别多模态大模型(MLLs)初探
搞定NLP领域的“变形金刚”!手把手教你用BERT进行多标签文本分类
过去的一年,深度神经网络的应用开启了自然语言处理的新时代。预训练模型在研究领域的应用已经令许多NLP项目的最新成果产生了巨大的飞跃,例如文本分类,自然语言推理和问答。
大数据文摘
2019/03/06
2K0
搞定NLP领域的“变形金刚”!手把手教你用BERT进行多标签文本分类
【论文复现】LoRA:大模型的低阶自适用
论文链接https://arxiv.org/pdf/2106.09685v2.pdf 本文将先介绍论文中的LoRA技术,然后以BERT为例在IMDB数据集上代码实现运用这项微调技术。
Eternity._
2024/11/30
2880
【论文复现】LoRA:大模型的低阶自适用
推荐阅读
相关推荐
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验