首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    用弱引用堵住内存泄漏全局 Map 造成的内存泄漏找出内存泄漏HPROF 输出,显示 Map.Entry 对象的分配点弱引用WeakReference.get() 的一种可能实现用 WeakHashMa

    要让GC回收不再使用的对象,对象的逻辑 生命周期(应用程序使用它的时间)和对该对象拥有的引用的实际 生命周期必须是相同的。 在大多数时候,好的软件工程技术保证这是自动实现的,不用我们对对象生命周期问题花费过多心思。 但是偶尔我们会创建一个引用,它在内存中包含对象的时间比我们预期的要长得多,这种情况称为无意识的对象保留(unintentional object retention) 全局 Map 造成的内存泄漏 无意识对象保留最常见的原因是使用 Map 将元数据与临时对象(transient object)

    06

    白话设计模式之单例模式

    单例模式是指一个类在整个程序运行时只允许存在一个实例,也就是说在JVM里面只存在一个实例,单例模式应用十分广泛,比如说一个公司里面只有一个CEO,一个家庭里面只有一个爸爸(当然,排除那些意外),单例模式主要应用在需要频繁使用创建和使用的一些类上面,因为只存在一个实例,所以节省了内存的开销,所有线程共享同一个实例,试想一下,如果一个类使用十分频繁,没有使用单例模式的情况下,一个线程需要创建一个实例,那么系统中将会出现出现很多多余的实例,对内存的消耗也很大,JVM中容易发生GC,比如数据库连接池,某些不太常用的对象,皆可使用单例模式来做,有助于提高系统的可用性。

    01

    Spark——RDD

    全称为Resilient Distributed Datasets,弹性分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变,可分区,里面的元素可并行计算的集合。RDD在逻辑上是一个数据集,在物理上则可以分块分布在不同的机器上并发运行。RDD允许用户在执行多个查询时显示的将工作缓存在内存中,后续的查询能够重用工作集,这极大的提升了查询速度。 在Spark 中,对数据的所有操作不外乎创建RDD,转换已有RDD以及调用RDD操作进行求值,每个RDD都被分为多个分区,这些分区运行在集群的不同节点上,RDD可以包含Python,Java,Scala中任意类型的对象,甚至可以是用户自定义对象。 RDD是Spark的核心,也是整个Spark的架构基础。它的特性可以总结如下:

    04
    领券