腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(701)
视频
沙龙
0
回答
使用
SparkGraphComputer
对
巨人
图上
的
顶点
进行
计数
会
抛出
org.apache.spark.SparkException
:
作业
由于
阶段
失败
而
中止
:
、
、
当尝试
使用
SparkGraphComputer
来计算集群上
的
巨人
图上
的
顶点
数量时,我得到了一个错误,我不知道如何处理。我在我
的
代码中
使用
了tinkerpop3.1.1-孵化和Titan 1.1.0-SNAPSHOT,并且在集群上安装了datastax社区版本2.1.11和spark 1.5.2-bin-hadoop2.6OLTP和将OLAP与FulgoraGraphComputer一起
使用
的
浏览 8
提问于2016-07-22
得票数 3
回答已采纳
1
回答
SparkR和dplyr:
使用
gapply
的
窗口函数
计数
()
、
、
我试着用"gapply“来实现
对
星火
的
简单查询,但是
会
遇到麻烦。 这个代码很好用。由: EOFException:
org.apache.spark.SparkException
:
由于
阶段
失败
导致
作业
中止
:
阶段
235.0中
的
任务0
失败
4次,最近
的
失败
: 235.0
阶段
中丢失任务0.3(TID 374) (10.150.
浏览 10
提问于2022-06-21
得票数 0
1
回答
从火花连接到SAPHANA
、
、
、
我试图通过JAVA代码在SAP上
使用
spark来执行查询。在调用数据框架对象
的
任何操作时,当调用java.io.NotSerializableException.In时,将
抛出
NotSerializableException。String[] args) { test.call();} 线程"main“
org.apache.spark.SparkException
org.apache
浏览 0
提问于2016-03-29
得票数 2
1
回答
无法从火花外壳打印Hana数据
、
、
、
、
在下面的代码中,我试图从星火壳连接到HANA,并从特定
的
表中获取数据: val countsval=results.count()错误如下: scala> resultsCounts.show()
org.apache.spark.SparkException
:
由于
<e
浏览 1
提问于2017-10-11
得票数 0
1
回答
GraphFrames
的
PageRank中存在错误
、
、
、
、
我刚接触pyspark,正在尝试了解PageRank是如何工作
的
。我在Cloudera上
使用
Jupyter中
的
Spark 1.6。我
的
顶点
和边(以及模式)
的
屏幕截图位于以下链接中:和#import relevant libraries for Graph Frames from pyspark import语法:
org.apache.spark.SparkException
:
作业
由于
阶段</em
浏览 6
提问于2018-05-25
得票数 0
1
回答
将整型/字符串从集群中写入到吡火花中
的
文本文件
、
、
我正在
使用
EMR step函数来分析数据。我想要存储分析数据
的
计数
,以决定是否可以将其保存为csv或拼板。我更喜欢CSV,但如果尺寸太大,我将无法下载和
使用
它在我
的
笔记本电脑。当我尝试
使用
以下代码时,我
使用
count()方法将其存储到int变量limit中: coalesce(1).write.format("text").option("header", "false").mode("overwri
浏览 5
提问于2020-03-23
得票数 2
回答已采纳
1
回答
试图从Power加载新视图时
的
火花错误
、
、
我在Power中
使用
spark服务,它
抛出
下面的错误试图从Spark加载视图。'org.apache.hive.service.cli.HiveSQLException::ODBC:来自服务器
的
错误HY000错误:错误代码:'0‘错误消息:运行查询
的
DataSource.Error错误:
由于
阶段
失败
而
中止
的
org.apache.spark.SparkException
:
作
浏览 2
提问于2022-05-15
得票数 0
回答已采纳
1
回答
云数据业务中
的
星火连接策略
、
在云Datafusion中,我
使用
一个合并转换来连接两个表。
org.apache.spark.SparkException
:
由于
阶段
失败
而
中止
作业
:
阶段
7.0中
的
任务50
失败
4次,最近一次
失
浏览 4
提问于2020-01-10
得票数 1
2
回答
无法在单元测试中捕获NumberFormatException
、
、
我有一个单元测试,它必须有目的
失败
,但我不能捕捉它,所以这是奇怪
的
。以下是csv文件
的
外观:AED_FXDEP;OIS;AED;240,1000AUD_CALMNY_DISC;OIS;AUD;169.7056275AUD_DEPO_BBSW;6m;AUD;{"type" : "structcsv
的</
浏览 4
提问于2017-01-04
得票数 1
回答已采纳
1
回答
使用
火花JdbcRDD读取PostgreSQL表时出错
、
、
、
、
我正在尝试将PostgreSQL 9.6中
的
一个表读入RDD中
的
Spark2.1.1,我在Scala中有如下代码。my_db", "my_user", "my_pass")}, 0, 100000, 2)
org.apache.spark.SparkException
:
由于
阶段
失败
而
中
浏览 0
提问于2017-06-16
得票数 2
回答已采纳
1
回答
Spark错误-退出状态: 143。诊断:容器应请求终止
、
、
我收到以下错误: 原因:
org.apache.spark.SparkException
:
由于
阶段
故障
而
中止
作业
:
阶段
7.0中
的
任务653
失败
了4次,最近一次
失败
:
阶段
7.0中丢失
的
任务653.3 (TID 27294,ip-10-0-57-16.ec2.internal,executor 34):ExecutorLostFailure (executor 34由正在运行
的
浏览 73
提问于2020-10-17
得票数 1
2
回答
从正在更新
的
拼花文件中读取错误
、
、
我们
的
应用程序处理实时流数据,这些数据被写入到拼花文件中。我们经常会启动一个新
的
拼花文件,但是
由于
每秒钟更新一次,而且数据需要在数据输入时立即被搜索,所以我们一直在更新“当前”拼花文件。我们以原子
的
方式
进行
这些更新(用现有数据生成一个新
的
parquet文件,再加上新
的
数据到一个临时文件名,然后通过
对
现有文件
的
文件名
的
原子OS调用将文件重命名)。问题是,如果我们对上面描述
的
“半活”文件
进行</
浏览 0
提问于2019-04-04
得票数 0
2
回答
从运行在远程服务器上
的
Apache Zeppelin向HDFS传输文件
、
、
、
、
我有一个运行在远程服务器上
的
Apache实例,我
使用
Scala通过一个Spark解释器与它
进行
通信。我试着用这个标准语句,但它返回以下错误:
org.apache.spark.SparkException
:
由于
阶段
失败
而
中止
的
任务:
阶段
19.0中
的
任务0
失
浏览 4
提问于2017-06-21
得票数 2
回答已采纳
1
回答
在星火中读取蜂巢表时,从RDD[Row]中提取元素
、
、
、
我打算
使用
scala读取一个Hive表,并从中提取一些/所有字段,然后将数据保存到HDFS中。+=(row.get(i).toString)第一行效果很好。数据能够正确地保存在HDFS上。如果
使用
第二行,则在保存数据时引发错误: 错误ApplicationMaster: User类<em
浏览 0
提问于2018-11-07
得票数 0
回答已采纳
1
回答
用腌制
的
PySpark模型和pandas_udf
进行
预测
、
、
、
、
我
使用
随机搜索找到了一个LightGBM模型,该模型
使用
MLFlow保存到.pkl文件中。我们
的
目标是将这个被腌制
的
模型加载到Pyspark中,并在那里
进行
预测。简单
的
不腌制就能做到这一点吗?columns_list 如果我试图显示、
计数
或保存输出:
由于
<em
浏览 1
提问于2021-06-11
得票数 2
回答已采纳
1
回答
使用
UDF处理多列时堆栈溢出
、
、
、
、
我有一个DataFrame,它有许多str类型
的
列,我想
对
所有这些列应用一个函数,在不重命名它们
的
名称或添加更多列
的
情况下,我尝试
使用
一个执行withColumn
的
for-in循环(参见下面的例子),但是通常当我运行代码时但是您可以在这里找到完整
的
跟踪 Py4JJavaError:调用o516.howString时出错。::java.io.ObjectInputStream$BlockDataInputStream.readByte(ObjectInputStream
浏览 2
提问于2016-01-28
得票数 6
回答已采纳
2
回答
什么时候在星星之火上
使用
persist()不是实际
的
性能?
、
、
、
在努力提高代码性能时,因为我有许多
作业
失败
(
中止
),每当我需要在许多其他操作中
使用
相同
的
数据same时,我就考虑在Spark上
使用
persist()函数。在执行任务时,以及在Spark应用程序UI中
的
各个
阶段
,我觉得这样做并不总是最优
的
,这取决于分区
的
数量和数据大小。我不确定,直到我因为坚持
阶段
的
失败
而
放弃了这份工作。我在质问persist()
浏览 2
提问于2019-02-12
得票数 8
1
回答
熊猫udf showString误差
的
简化实例
、
、
、
我开始
使用
这个“身份”熊猫udf在一个运行在EMR集群上
的
Pyspark木星笔记本上与熊猫udf合作,我得到了以下错误: @pandas_udf(df.schema, PandasUDFType.GROUPED_MAP::
org.apache.spark.SparkException
:
由于
阶段
失败
而
中止
作业
: 113.0
阶段
的
任务0
失败
4次,最近
的
失败</
浏览 3
提问于2020-09-08
得票数 1
回答已采纳
1
回答
使用
PySpark向Spark注册函数时出错
、
82.6194271643,2381.06882039,-65.0826814456,1.70454845719,-75.5970986012,-67.5109145931]接下来,我
使用
以下代码创建一个函数predict(a,b,c,d,e,f):我知道这个函数工作正常,因为我可以对它
进行
如下测试:Out[44]: 57
浏览 0
提问于2015-05-10
得票数 1
1
回答
spark 2.1.0中
的
scala版本错配
、
、
、
、
当我
使用
火花1.6.1时,一切都很好。当我切换到Spark2.1.0时,我遇到了以下问题: 线程“主”
org.apache.spark.SparkException
中
的
异常:
由于
阶段
失败
而
中止
作业
:第3.0
阶段
中
的
任务33
失败
了4次,最近一次<em
浏览 0
提问于2017-02-10
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
北大、微软提出NGra:高效大规模图神经网络计算
是时候升级二阶段提交协议了
图计算的特点与挑战之探讨
Spring中的事务(二)
Gitlab CI 基础知识
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券