腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Spark-on-Yarn
中
配置
执行器
和
驱动程序
内存
、
、
、
我对
在
Spark-1.5.2
中
配置
执行器
和
驱动程序
内存
感到困惑。我的环境设置如下:Hadoop 2.7.0 460 GB拼图格式表我正在使用spark-sql来查询
spark-on-yarn
的Hive上下文,但它比Hive慢得多,而且不确定Spark的正确
浏览 12
提问于2017-07-12
得票数 0
回答已采纳
2
回答
基于PySpark的Apache
内存
配置
、
我寻找了这么多资源,但无法理解有关
内存
分配的几件事。SparkSession \ .master("local[4]")\ .getOrCreate() 我也需要
配置
内存
它将在本地
和
客户端部署模式下运行。我从一些来源读到,在这种情况下,我不应该设置
驱动程序
内存
,我应该只设置
执行器
内存
。还有一些消息来源提到,<
浏览 9
提问于2022-06-26
得票数 0
1
回答
在
单独的机器上运行火花驱动器
目前,我
在
集群模式()中使用Spark2.0.0,其集群
配置
如下:我有四个奴隶(工人)
和
一个主机器。一个星系团有三个主要部分-主、驱动、工人() 现在我的问题是,
驱动程序
在其中一个工作节点中启动,这阻碍了我使用完全容量的工作节点(RAM智能)。例如,如果我以2g
内存
作为
驱动程序
运行我的spark作业,那么
在
每台机器
中
只
浏览 1
提问于2016-10-31
得票数 1
回答已采纳
1
回答
为什么
在
增加memoryOverhead后收集大型数据集成功
、
简介 spark.s
浏览 1
提问于2018-11-27
得票数 2
回答已采纳
3
回答
在
同一个jvm中一次运行多个星火实例的最佳实践?
、
、
我正在尝试启动独立的火花放电应用程序,一次从
驱动程序
机器。因此,这两个应用程序都运行在同一个JVM
中
。,发现不建议
在
同一个JVM
中
运行多个spark上下文对象,而且python完全不支持它。我的问题是:
在
我的应用程序
中
,我需要在同一时间内按计划运行多个吡火花应用程序。是否有任何方法可以在任何时候从火花
驱动程序
运行多个吡火花应用程序,从而创建单独的闪烁上下文对象?最后,对于运行在同一星火集群
中
的并行火花应用程序,
在
配置</
浏览 1
提问于2016-12-08
得票数 2
回答已采纳
1
回答
为什么
驱动程序
内存
不在我的星火上下文
配置
中
?
、
、
spark-submit --name "My app" --master "local[*]" --py-files main.py --driver-memory 12g --executor-memory 12gsc = SparkContext.getOrCreate()
驱动程序
内存
和
执行器
内存
不会出现在
配置
中</em
浏览 5
提问于2021-01-24
得票数 3
回答已采纳
2
回答
未使用AWS EMR上的1个从节点
、
、
我使用以下命令运行存储
在
AWS EMR集群的主节点上(一个主服务器
和
两个从服务器,每个具有8GB RAM
和
4个核的)的pyspark代码- spark-submit --master yarn --deploy-mode
在
提交应用程序之前,654 8GB的8GB主节点RAM已经
在
使用(再次使用htop )。没有其他应用程序正在运行。为什么会发生这种情况?
浏览 7
提问于2020-07-06
得票数 1
1
回答
wholeTextFiles方法
在
ExitCode 52 java.lang.OutOfMemoryError
中
失败
、
我有HDFS目录,里面有13.2 GB
和
4个文件。我试图
在
spark中使用wholeTextFile方法读取所有文件,但我有一些问题--conf spark.yarn.queue=xyz \ 即使我给最小分区32个,它只存储
在
4
浏览 0
提问于2019-06-18
得票数 4
1
回答
纱线集群模式减少
执行器
实例数
、
、
worker-machine-type n1-highmem-8 --num-workers 4 --worker-boot-disk-size 10 \ --num-worker-local-ssds 1 将永远只启动3个
执行器
实例,而不是请求的4,有效地“浪费”一个完整的工作节点,似乎只运行
驱动程序</e
浏览 2
提问于2017-12-28
得票数 0
回答已采纳
2
回答
火花
驱动程序
的
内存
是如何影响
执行器
资源的?
我正在学习如何通过阅读高性能火花()来
配置
星火应用程序,其中一句让我感到困惑: 这本书的意思
浏览 2
提问于2017-12-06
得票数 1
回答已采纳
1
回答
我对GCP的数据融合的内部工作流程很好奇
、
、
我
在
开发人员
和
企业模式下使用了Google Cloud platform的DataFusion产品。 对于开发人员模式,没有数据过程设置(主节点、工作节点)。我能够设置Master节点
和
Worker节点的值。我对VM的
驱动程序
、
执行器
和
Dataproc的工作节点之间的关系非常好奇。 实际上,DataFusion为dataproc提供了一个设置。当我将来创建数据管道时,它将运行VM实例作为该数据过程的设置。我想知道VM实例的设置值(Driver、Executor)
和
dat
浏览 14
提问于2020-10-26
得票数 0
回答已采纳
1
回答
内存
使用优化:高JVM
内存
,但低执行
和
存储
内存
?
、
、
、
、
在
火花应用程序完成后,当我
在
星火日志
中
检查executor部分时:第一行是
驱动程序
,第二行是
执行器
。据我理解,如果我错了,请纠正我,
执行器
中
的堆
内存
主要分为以下三部分: 反向
内存
:为系统预留的
内存
,用于存储火花的内部对象,约300 MB。用户
内存
:用于用户定义的数据结构/函数/元数据的
内存
等。如果这是正确的,我不明白为什么即使是
执行器</em
浏览 6
提问于2022-07-28
得票数 0
回答已采纳
1
回答
配置
执行器
内存
和
每个工作节点的
执行器
数量
、
如何在星盘集群
中
配置
执行器
的
内存
。此外,如何
配置
每个员工节点的
执行器
数量? 有没有办法知道有多少执行者的
内存
是自由的缓存或持久化新的RDD的。
浏览 4
提问于2015-03-11
得票数 2
回答已采纳
1
回答
为什么Docker容器
中
的Spark应用程序
在
OutOfMemoryError: Java堆空间中失败?
、
、
、
在
AWS批处理服务
中
,进程
在
Docker容器
中
运行。
在
多个源
中
,我看到我们应该使用带有参数的java:即使有了这些参数,当进程超过31 GB的驻留
内存
和
45 GB的虚拟
内存
时,进程也永远不会。19.56MiB / 240.1GiB 0.01%
浏览 1
提问于2018-03-28
得票数 1
1
回答
火花放电spark.executor.memory是每个核心还是每个节点?
、
我有一个节点,它有24个核心
和
124 in
内存
在我的星体集群
中
。当我将spark.executor.memory字段设置为80g时,它是希望每个节点使用80g
内存
还是每个核心?
浏览 2
提问于2016-10-13
得票数 0
回答已采纳
2
回答
火花容器超越物理极限运行
、
、
、
我正在使用Scala 2.11.8
和
星火2.1.0。因为我没有看到我的执行者失败,我从这个错误中看到的是这个
驱动程序
需要更多的
内存
。然而,我的设置似乎并不是
在
传播。SparkSession .appName(jobName) .getOrCreate() 其中,additionalSparkConfSettings
中
的
内存
供应参数是用以下代码段设置的
浏览 3
提问于2017-03-27
得票数 4
回答已采纳
3
回答
如何处理火花中的
执行器
内存
和
驱动程序
内存
?
、
我对处理火花中的执行者
内存
和
驱动程序
内存
感到困惑。我的环境设置如下: 对于简单的开发,我使用spark-submit以独立集群模式(8个工作人员、20个内核、45.3G
内存
)执行我的Python代码。现在,我想设置
执行器
内存
或
驱动程序
<
浏览 3
提问于2014-11-28
得票数 51
回答已采纳
1
回答
Apache当PySpark向熊猫读取蜂巢表时
、
、
、
、
这就是我
在
执行以下两个脚本时得到的结果:write.py
浏览 3
提问于2019-08-20
得票数 1
1
回答
集群创建、HdInsight
和
核心标识。调优apache星星之火提交
、
、
、
我想处理一个250 Hd的gzip(filename.json.gzip)文件,
在
Azure集群中使用Spark。但我做不到。我想是因为内核、ram、vCPU之间的关系不好,所以我想创建更好的集群
和
发送火花
配置
。目前,我正在使用这个实例: 那
浏览 3
提问于2021-09-09
得票数 0
2
回答
数据库Spark: java.lang.OutOfMemoryError:超出了GC开销限制
、
、
我正在Databricks集群
中
执行Spark作业。我正在通过Azure Data Factory管道触发作业,它每隔15分钟执行一次,所以
在
successful execution of three or four times之后,它会失败并抛出异常"虽然上述问题有许多答案,但在大多数情况下,他们的作业没有运行,但在我的例子
中
,它是
在
成功执行之前的一些作业后失败的。我的数据大小仅小于20MB。我的集群
配置
是: 因此,我的问题是我应该在服务器
配置
中进行哪些更改。如果问题来
浏览 2
提问于2019-10-31
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在IntelliJ IDEA开发工具中配置git和github
重磅硬核 | 一文聊透对象在JVM中的内存布局,以及内存对齐和压缩指针的原理及应用
听劝!嵌入式软件开发必须了解的硬件知识!
解决Windows 11 “Error 0xA:IRQL_not_less_or_equal”报错的六个步骤
Linux基础教程:CentOS开机流程详解
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券