前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Java基础系列1:深入理解Java数据类型

Java基础系列1:深入理解Java数据类型

作者头像
王金龙
修改于 2020-02-21 03:25:33
修改于 2020-02-21 03:25:33
56700
代码可运行
举报
文章被收录于专栏:王金龙的专栏王金龙的专栏
运行总次数:0
代码可运行

Java基础系列1:深入理解Java数据类型

当初学习计算机的时候,教科书中对程序的定义是:程序=数据结构+算法,Java基础系列第一篇就聊聊Java中的数据类型。

本篇聊Java数据类型主要包括四个内容:

  • Java基本类型
  • Java封装类型
  • 自动装箱和拆箱
  • 封装类型缓存机制

Java基本类型

Java基本类型分类、大小及表示范围

Java的基本数据类型总共有8种,包括三类:数值型,字符型,布尔型,其中

  • 数值型:
    • 整数类型:byte、short、int、long
    • 浮点类型:float、double
  • 字符型:char
  • 布尔型:boolean

字符类型在内存中占有2个字节,可以用来保存英文字母等字符。计算机处理字符类型时,是把这些字符当成不同的整数来看待,即ASKII码,因此,严格来说,字符类型也算是整数类型的一种。

Java的这8种基本类型的大小,即所占用的存储字节数,以及可以表示的数据范围如下表所示:

Java基本类型之间的转换

Java是强类型的编程语言,其数据类型在定义时就已经确定了,因此不能随意转换成其他的数据类型,但是Java允许将一种类型赋值给另一种类型。

在Java中,boolean类型与其他7种类型的数据都不能进行转换,这一点很明确。

但对于其他7种数据类型,它们之间都可以进行转换,只是可能会存在精度损失或其他一些变化。转换分为自动转换和强制转换:

  • 自动类型转换(隐式):无需任何操作
  • 强制类型转换(显式):需使用转换操作符

自动类型转换需要满足如下两个条件:

  1. 转换前的数据类型与转换后的数据类型兼容;
  2. 转换后的数据类型的表示范围比转换前的类型大。

如果将6种数值类型作如下排序:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
double > float > long > int > short > byte

那么从小转换到大,那么可以直接转换,而从大到小,或char或其他6种数据类型转换,则必须使用强制转换,且可能会发生精度损失。

Java基本数据类型的默认值

在某些场景下,比如在Restful API接口中,如果在dto中使用了基本类型的参数,那么即使请求体中没有传该参数,服务器在做反序列化的时候也会将该参数以默认值来处理。所以在实际开发的dto中务必不要使用基本类型。

以下是Java基本数据类型的默认值:

Java封装类型

对于上面的8种基本类型,Java都有对应的封装类型:

基本类型

封装类型

byte

Byte

int

Integer

short

Short

float

Float

double

Double

long

Long

boolean

Boolean

char

Character

基本类型 vs 封装类型

Java封装类型与基本类型相比,有如下区别:

  1. 从参数传递上来说,基本类型只能按值传递,而每个封装类都是按引用传递的;
  2. 从存储的位置上来说,基本类型是存储在栈中的,而所有的对象都是在堆上创建和存储的,所以基本类型的存取速度要快于在堆中的封装类型的实例对象;JDK5.0开始可以自动封包了 ,也就是基本数据可以自动封装成封装类,基本数据类型的好处就是速度快(不涉及到对象的构造和回收),封装类的目的主要是更好的处理数据之间的转换,方法很多,用起来也方便。
  3. 基本类型的优势是:数据存储相对简单,运算效率比较高;
  4. 封装类型的优势是:类型转换的api更好用了,比如Integer.parseInt(*)等的,每个封装类型都提供了parseXXX方法和toString方法。而且在集合当中,也只能使用封装类型。封装类型满足了Java中一切皆对象的原则。

自动装箱和拆箱

什么是自动装箱和拆箱
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
// 自动装箱
Integer numInteger = 66;

// 自动拆箱
int numInt = numInteger;

简单地说,装箱就是自动将基本数据类型转换为封装类型;拆箱就是自动将封装类型转换为基本类型。

自动装箱和拆箱的执行过程

我们就以上面的Integer的简单例子来研究执行过程,具体代码如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
public class Main {
    public static void main(String[] args) {
    		// 自动装箱
				Integer numInteger = 66;

    		// 自动拆箱
				int numInt = numInteger;
    }
}

先编译,执行:javac Main.java

再反编译,执行:javap -c Main

执行后得到如下内容:

可以看到,

在执行Integer numInteger = 66;的时候,系统为我们执行了Integer numInteger = Integer.valueOf(66)

在执行int numInt = numInteger;的时候,系统为我们执行了int numInt = numInteger.intValue();

我们再来看一下Integer中valueOf方法的源码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
public static Integer valueOf(int i) {
		if (i >= IntegerCache.low && i <= IntegerCache.high)
    		return IntegerCache.cache[i + (-IntegerCache.low)];
    return new Integer(i);
}

其中IntegerCache.low=-128,IntegerCache.high=127。

也即,在执行Integer.valueOf(num)方法时,会先判断num的大小,如果小于-128或者大于127,就创建一个Integer对象,否则就从IntegerCache中来获取。这里涉及到了Integer的缓存机制,下一小节详细讨论。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
private final int value;

public Integer(int value) {
    this.value = value;
}
public Integer(String s) throws NumberFormatException {
		this.value = parseInt(s, 10);
}

这是Integer的构造函数,里面定义了一个value变量,创建一个Integer对象,就会给这个变量初始化。

再来简单看看IntegerCache是什么东西,IntegerCache类时Integer类的一个内部类,其包含了三个属性,如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
private static class IntegerCache {
        static final int low = -128;
        static final int high;
        static final Integer cache[];

        static {
        		……
        }

        private IntegerCache() {}
    }

在valueOf方法中用到的cache数组,是一个静态的Integer数组对象,而这个数组对象在Integer第一次使用的时候就会创建好。

总之,valueOf返回的都是一个Integer对象。所以我们这里可以总结一点:装箱的过程会创建对应的对象,这个会消耗内存,所以装箱的过程会增加内存的消耗,影响性能。

封装类型缓存机制

Integer缓存机制源码分析

我们仍旧以Integer的例子来说明封装类型的缓存机制,看一下完整的IntegerCache类的代码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
private static class IntegerCache {
        static final int low = -128;
        static final int high;
        static final Integer cache[];

        static {
            // high value may be configured by property
            int h = 127;
            String integerCacheHighPropValue =
                sun.misc.VM.getSavedProperty("java.lang.Integer.IntegerCache.high");
            if (integerCacheHighPropValue != null) {
                try {
                    int i = parseInt(integerCacheHighPropValue);
                    i = Math.max(i, 127);
                    // Maximum array size is Integer.MAX_VALUE
                    h = Math.min(i, Integer.MAX_VALUE - (-low) -1);
                } catch( NumberFormatException nfe) {
                    // If the property cannot be parsed into an int, ignore it.
                }
            }
            high = h;

            cache = new Integer[(high - low) + 1];
            int j = low;
            for(int k = 0; k < cache.length; k++)
                cache[k] = new Integer(j++);

            // range [-128, 127] must be interned (JLS7 5.1.7)
            assert IntegerCache.high >= 127;
        }

        private IntegerCache() {}
    }

代码很简单,JVM在初始化的时候可以配置值java.lang.Integer.IntegerCache.high,默认为127,然后在第一次使用Integer的时候,不是只创建需要的那一个Integer对象,而是创建值在-128到java.lang.Integer.IntegerCache.high范围内的所有的Integer对象,然后将其放入到cache数组中。

然后在每次自动装箱的时候,如果值落在该范围内,则自动从cache数组中去拿出已经实例化的对象来用,而不用再次去实例化这样一个Integer对象。

每一个整数类型和字符类型、bool类型的封装类型都有类似的缓存机制,这也是为了减轻封装类型相比于基本类型的性能消耗。

Integer缓存机制实例

我们再举一个例子来说明缓存机制。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
public class Main {
    public static void main(String[] args) {

        Integer i1 = 100;
        Integer i2 = 100;
        Integer i3 = 200;
        Integer i4 = 200;

        System.out.println(i1 == i2);  //true
        System.out.println(i3 == i4);  //false
    }
}

后面的执行结果大家可能会很吃惊,原因是什么呢,结合Integer缓存机制的说明,可以明白这个过程如下:

  1. i1和i2会进行自动装箱,执行了valueOf方法,它们的值落在[-128,128),所以它们取到的IntegerCache.cache中的是同一个对象,所以它们是相等的;
  2. i3和i4也会进行自动装箱,执行valueOf方法时,它们的值都大于128,所以会执行new Integer(200),也即它们分别创建了两个不同的对象,所以它们肯定不相等。
浮点类型无缓存机制

上面介绍的缓存机制仅针对整数类型、字符类型、布尔类型,因为这几种数据类型在一定区间的值的数量是固定,但是浮点类型如Float和Double却在任意区间都有无数个值。

来看看Double.valueOf的源码就知道了:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
public static Double valueOf(String s) throws NumberFormatException {
    return new Double(parseDouble(s));
}

可以看到Double.valueOf是直接返回一个新的Double对象,并没有缓存机制。

使用缓存机制的封装类型

进行一个归类,使用了缓存机制的封装类型有这样几种:

类型

默认缓存对象范围

Integer

[-128,127]

Short

[-128,127]

Long

[-128,127)

Character

[0,127]

总结
  1. 当一个基本数据类型与封装类型进行==、+、-、*、/运算时,会将封装类进行拆箱,对基本数据类型进行运算;
  2. 拆箱完成运算之后,如果返回的结果需要是封装类型,则需要进行自动装箱,返回封装对象;
  3. equals(Object o) 因为原equals方法中的参数类型是封装类型,所传入的参数类型(a)是原始数据类型,所以会自动对其装箱,反之,会对其进行拆箱;
  4. 当两种不同类型用==比较时,包装器类的需要拆箱, 当同种类型用==比较时,会自动拆箱或者装箱。

关注我的公众号,获取更多关于面试、技术的文章及福利资源。

添加描述

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-02-02 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
可以可以
可以可以
回复回复点赞举报
推荐阅读
3万字史诗级 Hive 性能调优(建议收藏)
Hive 作为大数据领域常用的数据仓库组件,在平时设计和查询的时候要特别注意效率 。影响 Hive 效率的几乎从不是数据量过大,而是数据倾斜、数据冗余、Job或I/O过多、MapReduce 分配不合理等等。 对Hive 的调优既包含 Hive 的建表设计方面,对 HiveHQL 语句本身的优化,也包含 Hive 配置参数 和 底层引擎 MapReduce 方面的调整 。
肉眼品世界
2022/06/15
5.1K0
3万字史诗级 Hive 性能调优(建议收藏)
Hive 正则序列化器RegexSerDe
RegexSerDe 可以从 Hive 两个jar文件的类中获取,hive-serde-<version>.jar中的 org.apache.hadoop.hive.contrib.serde2.RegexSerDe 以及 hive-contrib-<version>.jar 中的 org.apache.hadoop.hive.serde2.RegexSerDe。
smartsi
2019/08/07
1.7K0
hive基础总结(面试常用)
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 Metastore (hive元数据) Hive将元数据存储在数据库中,比如mysql ,derby.Hive中的元数据包括表的名称,表的列和分区及其属性,表的数据所在的目录 Hive数据存储在HDFS,大部分的查询、计算由mapreduce完成 Hive数据仓库于数据库的异同 (1)由于Hive采用了SQL的查询语言HQL,因此很容易将Hive理解为数据库。其实从结构上来看,Hive和数据库除了拥有类似的查询语言, 再无类似之处。 (2)数据存储位置。 hdfs raw local fs (3)数据格式。 分隔符 (4)数据更新。hive读多写少。Hive中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。 INSERT INTO … VALUES添加数据,使用UPDATE … SET修改数据 不支持的 HDFS 一次写入多次读取 (5) 执行。hive通过MapReduce来实现的 而数据库通常有自己的执行引擎。 (6)执行延迟。由于没有索引,需要扫描整个表,因此延迟较高。另外一个导致Hive执行延迟高的因素是MapReduce框架 (7)可扩展性 (8)数据规模。 hive几种基本表类型:内部表、外部表、分区表、桶表 内部表(管理表)和外部表的区别: 创建表 外部表创建表的时候,不会移动数到数据仓库目录中(/user/hive/warehouse),只会记录表数据存放的路径 内部表会把数据复制或剪切到表的目录下 删除表 外部表在删除表的时候只会删除表的元数据信息不会删除表数据 内部表删除时会将元数据信息和表数据同时删除 表类型一、管理表或内部表Table Type: MANAGED_TABLE
用户1217611
2019/05/25
8540
腾讯云EMR&Elasticsearch中使用ES-Hadoop之MR&Hive篇
腾讯云EMR&Elasticsearch中使用ES-Hadoop之MR&Hive篇
ethanzhang
2018/12/10
5.4K1
腾讯云EMR&Elasticsearch中使用ES-Hadoop之MR&Hive篇
Hive多分隔符支持示例
如何将上述事例数据加载到Hive表(multi_delimiter_test)中,表结构如下:
Fayson
2018/03/29
3.7K0
Hive多分隔符支持示例
答应我,别在CDH5中使用ORC好吗
当我们在使用ORC文件格式创建Hive表,并且对Hive表的schema进行更改后,然后进行如insert into…select或insert overwrite … select会报错,以下具体看看报错。
Fayson
2018/11/16
3.3K0
【Hive】hive 数据倾斜、优化策略、hive执行过程、垃圾回收
group by和聚合函数(sum count max min)一起使用 group by和以上的聚合函数一起使用的时候会默认在map端执行一次combiner(局部聚合:减少reducetask的数据量,这个时候reduce端接受的数据就会大大减少 一般不会出现数据倾斜 select id,count(*) from course group by id;
从大数据到人工智能
2022/09/16
1.8K0
【Hive】hive 数据倾斜、优化策略、hive执行过程、垃圾回收
hive 异常值_could not instantiate bean class
问题原因通常是:表的inputformat 和 outputformat 是 orc,而序列化serde不是orc
全栈程序员站长
2022/09/30
6260
hive weekofyear 怪异的姿势
今天在使用hive函数weekofyear的时候遇到一个奇怪的情况,原sql如下:
大数据工程师-公子
2019/03/14
8130
hive面试题汇总
order by:order by 是要对输出的结果进⾏全局排序,这就意味着只有⼀个reducer才能实现(多个reducer⽆法保证全局有序)但是当数据量过⼤的时候,效率就很低。如果在严格模式下(hive.mapred.mode=strict),则必须配合limit使⽤
从大数据到人工智能
2022/03/11
1.4K0
一脸懵逼学习Hive(数据仓库基础构架)
Hive是什么?其体系结构简介* Hive的安装与管理* HiveQL数据类型,表以及表的操作* HiveQL查询数据*** Hive的Java客户端** Hive的自定义函数UDF* 1:什
别先生
2018/01/02
3.1K0
一脸懵逼学习Hive(数据仓库基础构架)
Hive 内部表与外部表
托管表(内部表)和外部表是Hive中的两种不同类型的表,在这篇文章中,我们将讨论Hive中表的类型以及它们之间的差异以及如何创建这些表以及何时将这些表用于特定的数据集。
smartsi
2019/08/07
3.7K0
Elasticsearch与Hive的数据互导
首先先下载一个叫"elasticsearch-hadoop-hive"的JAR包,放到相应路径下:https://jar-download.com/artifacts/org.elasticsearch/elasticsearch-hadoop-hive
dandelion1990
2019/06/27
6.6K2
【Hive】Hive 的基本认识
Hive 是由 Facebook 开源的基于 Hadoop 的数据仓库工具,用于解决海量「结构化日志」的数据统计。
阿泽 Crz
2020/07/21
1.5K0
【Hive】Hive 的基本认识
hive学习笔记之三:内部表和外部表
至此,咱们对内部表和外部表已经有了基本了解,接下来的文章学习另一种常见的表类:分区表;
程序员欣宸
2021/06/29
1K0
hive学习笔记之三:内部表和外部表
使用Hive读写ElasticSearch中的数据
ElasticSearch已经可以与YARN、Hadoop、Hive、Pig、Spark、Flume等大数据技术框架整合起来使用,尤其是在添加数据的时候,可以使用分布式任务来添加索引数据,尤其是在数据平台上,很多数据存储在Hive中,使用Hive操作ElasticSearch中的数据,将极大的方便开发人员。这里记录一下Hive与ElasticSearch整合,查询和添加数据的配置使用过程。基于Hive0.13.1、Hadoop-cdh5.0、ElasticSearch 2.1.0。
Java架构师必看
2021/08/12
1.5K0
Hive on spark下insert overwrite partition慢的优化
    这几天发现insert overwrite partition运行的很慢,看了下是hive on spark引擎,这引擎平时比mapreduce快多了,但是怎么今天感觉比mapreduce慢了好几倍,运行了1h多还没运行完。
克虏伯
2020/08/10
2.8K0
[1217]org.apache.hadoop.hive.ql.exec.mr.MapRedTask. GC overhead limit exceeded
然后根据job的id去yarn上面查询了一下日志,发现报错如下: FATAL [main] org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: GC overhead limit exceeded
周小董
2023/10/10
7430
Hive 创建外部表 原
1. 将数据上传至 hdfs hdfs dfs -put stocks /user/bigdata 2. 创建外部表 create external table if not exists stock
北漂的我
2019/05/29
1.8K0
Sqoop从Oracle导入一个大表(3亿)到Hive失败
大约3亿条记录 SQL> SELECT count(*) FROM INFO; COUNT(*) ---------- 294239674 SQL> 导入Hive [root@node1 sqoop-1.4.7]# bin/sqoop import --connect jdbc:oracle:thin:@node1:1521:ORA --username test --password test --table info --hive-import --target-dir temp_table
程裕强
2022/05/06
8860
相关推荐
3万字史诗级 Hive 性能调优(建议收藏)
更多 >
LV.4
这个人很懒,什么都没有留下~
目录
  • Java基础系列1:深入理解Java数据类型
    • Java基本类型
    • Java封装类型
    • 自动装箱和拆箱
    • 封装类型缓存机制
    • 关注我的公众号,获取更多关于面试、技术的文章及福利资源。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档