腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
3
回答
pyspark
spark
中
的
Java
堆
空间
OutOfMemoryError
-
submit
?
、
我有一个10 of
的
数据集大小(例如Test.txt)。我编写
的
pyspark
脚本如下所示(Test.py):from
pyspark
.sql import SparkSession然后我使用下面的命令执行上面的脚本:然后我得到如下
的
错误: 1
浏览 129
提问于2017-12-29
得票数 14
2
回答
Java
堆
空间
问题
、
、
我正在尝试访问蜂箱拼板表,并将其加载到Pandas数据帧
中
。我使用
的
是
pyspark
,我
的
代码如下所示:import pandasfrom
pyspark
importSparkContextfrom
pyspark
.sql import HiveContext con
浏览 0
提问于2017-05-31
得票数 1
1
回答
电火花-卡夫卡流-出记忆
、
、
它只是一个简单
的
代码来打印一个主题
的
内容。还没什么大不了
的
!但是,由于某种原因,内存是不够
的
(VM
中
的
10 VM内存)!
spark
-
submit
--jars jars/
spark
-sql-kafka-0-10_2.11-2.3.0.jar,jars/kafka-clients-0.11.0.0.jar kafka-testStreamingContext from
pyspark
.streami
浏览 0
提问于2018-12-12
得票数 1
1
回答
星星之火:耗尽
java
堆
空间
:
java
.lang.
OutOfMemoryError
:
Java
堆
空间
、
、
、
在使用ALS.trainImplicit训练模型时,我正在从内存错误
中
获取
java
堆
空间
。/
spark
/python/lib/
pyspark
.zip/
pyspark
/mllib/common.py", line 130, in callMLlibFunc File "/usr/local/
spark
/python
浏览 1
提问于2017-04-26
得票数 0
2
回答
Spark
在纱线集群模式下抛出
java
.lang.
OutOfMemoryError
,但在纱线客户端模式下工作。
、
、
、
我有一个简单
的
蜂巢查询,它在纱线客户端模式下很好地工作,使用吡火花外壳,当我在纱线-集群模式下运行它时,它抛出了下面的错误。Exception in thread "Thread-6" Exception in thread "Reporter" Exception:
jav
浏览 11
提问于2015-07-30
得票数 3
1
回答
即使在增加了
PySpark
之后,
spark
.driver.memory也离开了
Java
堆
空间
、
、
、
我尝试通过增加
spark
.driver.memory来增加内存,但仍然摆脱了内存错误。我需要去收集垃圾吗?我一个接一个地调用这些函数来执行转换,但始终得到:我已经核对了一些老问题,但这些问题对我没有帮助。我没有日志,但听说是导致问题
的
代码。 df.toPandas().to_csv('out.csv')
浏览 0
提问于2019-06-11
得票数 0
回答已采纳
1
回答
火花
堆
大小错误,即使RAM为32 GB,
JAVA
_OPTIONS=-Xmx8g
、
、
、
我有32 GB
的
物理内存,我
的
输入文件大小约为30 MB,我尝试使用下面的命令以纱线客户端模式提交我
的
火花作业。
spark
-
submit
--master yarn --packages com.databricks:
spark
-xml_2.10:0.4.1 --driver-memory 8g ericsson_xml_parsing_version_6_stage1.py 而且我
的
执行器
空间
是8g,但是得到下面的错误--任何人都可以帮助我配置<e
浏览 3
提问于2017-03-07
得票数 0
1
回答
星星之火:线程“dag-调度程序-事件-循环”
中
的
异常
java
.lang.
OutOfMemoryError
:
Java
堆
空间
、
、
根据使用
spark
-1.6.0-bin-hadoop2.6 ./bin&
浏览 2
提问于2016-04-08
得票数 8
1
回答
spark
3.2.2与早期版本相比,作业生成巨大
的
事件日志并花费双倍时间执行作业
、
移民后,我们可以看到下面的问题另一个问题,由于事件日志
的
巨大大小,我们无法为这个特定
的
任务打开历史服务器UI。:
java
.lan
浏览 1
提问于2022-09-06
得票数 1
2
回答
PySpark
python问题: Py4JJavaError:调用o48.showString时出错
、
大家好,我在
PySpark
Python上工作,我提到了代码和一些问题,我想知道是否有人知道以下问题?= IdShift) 这是我
的
一段代码,它将返回布尔值true,false,当我第一次运行这段代码时,它工作得很好,但在重新启动内核后,这就是我得到
的
错误。failed 1 times, most recent failure: Lost task 18.0 in stage 5.0 (TID 116, localhost, executor driver):
java
.lang.
浏览 5
提问于2017-12-12
得票数 19
回答已采纳
1
回答
OutOfMemoryError
:
Spark
中
的
Java
堆
空间
、
我是
Spark
和
pyspark
功能
的
新手,正在尝试读取一个大小约为5 5GB
的
JSON文件,并使用以下命令构建rdd每次运行上面的语句时,我都会得到以下错误:我需要以RDD
的
形式获取JSON数据,然后使用SQL
Spark
进行操作和
浏览 0
提问于2018-05-23
得票数 1
1
回答
吡火花:在将StringIndexer参数"handleInvalid“更改为‘handleInvalid’后抛出
Java
堆
空间
错误
、
但是,当我决定更改'HandlInvalid‘参数时,
spark
会抛出这个
java
堆
错误。Exception in thread "dispatcher-event-loop-1"
java
.lang.
OutOfMemoryError
:
Java
heap space.....ERROR Utils: Uncaught exception in thread driver-heartbeater
java
.lang.
O
浏览 6
提问于2020-04-20
得票数 0
2
回答
java
.lang.
OutOfMemoryError
:
Java
堆
空间
-堆栈跟踪含义
、
、
、
我在一个长期存在
的
应用程序(
java
.lang.
OutOfMemoryError
:
Java
堆
空间
)中有一条消息。
java
.lang.
OutOfMemoryError
:
Java
heap space at
java
.nio.HeapInt
浏览 5
提问于2015-01-27
得票数 1
回答已采纳
3
回答
如何诊断Tomcat 7
中
的
OutOfMemoryErrors?
、
、
、
我在一个Tomcat7实例
中
运行了几个应用程序。如何找出哪个应用程序(理想情况下是哪个)类导致它们?更新1 (25.12.2014 11:44 MSK): 它们中有任何一个表示应用程序
中
的
内存泄漏吗? 如果是,是哪一个?
浏览 5
提问于2014-12-11
得票数 1
1
回答
当没有可用内存时,
Java
如何创建
OutOfMemoryError
对象
、
、
、
Java
创建
堆
空间
中
的
每个对象。 当
堆
空间
满时,它将抛出一个
java
.lang.
OutOfMemoryError
:
Java
堆
空间
.。当
堆
中
没有
空间
时,
java
如何分配内存并创建
OutOfMemoryError
对象?
浏览 0
提问于2017-01-17
得票数 1
3
回答
PySpark
:
java
.lang.
OutofMemoryError
:
Java
堆
空间
、
、
、
、
我最近在我
的
服务器上使用了
PySpark
和Ipython,有24个CPU和32 24内存。它只在一台机器上运行。在我
的
过程
中
,我想收集大量
的
数据,如下代码所示:.filter(lambda x:x[-1
Java
heap Space。此外,我不能执行任何操作
的
火花后,这个错误,因为它失去了与
Java
的
连接。它给了Py4JNe
浏览 2
提问于2015-09-01
得票数 68
回答已采纳
1
回答
初始作业没有接受任何资源与
Java
独立
的
Apache
亲切
的
问候有没有办法找到平衡,这样我就有足够
的
资源和
堆
空间
了?我基本上减少了驱动程序内存,增加了执行者
的
数量。我真的不明白这是如何解决我
浏览 0
提问于2018-12-09
得票数 0
2
回答
星火StorageLevel在本地模式不工作?
、
局部模式运行 from
pyspark
import SparkConf, SparkContext r
浏览 2
提问于2019-01-31
得票数 0
1
回答
熊猫到
PySpark
会产生OOM错误而不是溢出到磁盘上
、
、
、
我有一个用例,在这个用例
中
,我想迭代地将数据加载到Pandas
中
,使用外部函数(即xgboost,在示例代码
中
没有显示)进行一些处理,然后将结果推到单个
PySpark
对象(RDD或DF)
中
。在将数据存储为RDD或Dataframe时,我尝试让
PySpark
溢出到磁盘,同样,源是Pandas DataFrame。似乎什么都没有用,我一直在破坏
Java
驱动程序,无法加载数据。或者,我尝试加载我
的
数据而不使用基本
的
textFile RDD进
浏览 1
提问于2017-09-18
得票数 0
2
回答
无法在56 local空闲
的
PySpark
本地模式下加载25 to数据集
、
、
、
、
我
的
机器上有比Parquet数据集大小更多
的
空闲内存和分配给
pyspark
的
内存(更不用说数据集
的
两列),但是加载DataFrame后,我无法在它上运行任何操作。这太让人困惑了,我不知道该怎么办。
spark
.driver.memory 50g
spark
.executor.cores 12我
的
环境是这样
的
:
浏览 0
提问于2019-07-01
得票数 3
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券