腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
org.apache.
spark
.SparkException:任务不可
序列化
,除实现
java
.io.Serializable之外
的
任何其他解决方案
、
当我在我
的
spark
(用
java
编写)应用
程序
中使用
UDF
函数时,我得到了这个
错误
。处不可
序列化
...由:类: jp.co.nec.necdas.commons.customize.service.dataset.ALMTriggerProcessLogic
序列化
堆栈:-对象不可
序列化
引起,所以我尝试了一下,但得到了如下相同
的
错误
: 由:类: jp.co.nec.necdas.commons.<em
浏览 0
提问于2019-10-17
得票数 0
1
回答
示例
Java
程序
中
的
Spark
UDF
反
序列化
错误
、
、
、
import org.apache.
spark
.sql.*;import org.apache.
spark
.sql.types.DataTypes("SELECT 5 + 1").show();
spark
.
udf
().register("plusOne", (
UDF
1<Integer, Integer
浏览 64
提问于2020-10-11
得票数 1
1
回答
星星之火SQL并使用现有的hive udfs
、
、
、
、
我必须阅读
spark
中
现有的hive,所以在
spark
.sql
中
我创建了临时函数并使用它,它在火花外壳
中
工作得很好,但是在火花-提交
错误
时失败了: com.xxx.x.x.udfs.isb_
udf
.evaluate(
Java
.lang.string):org.apache.hadoop.hive.metadata.HiveException :无法在xxxx类
的
对象xxxx.
udf
上执行方法公共静态布尔xxxx.<
浏览 0
提问于2019-07-14
得票数 2
1
回答
Spark
任务不可
序列化
、
、
、
我们正在迁移我们
的
变异代码从Hadoop到星火运行在卡桑德拉之上(通过DataStax企业)。DSE 4.7在生产中,4.8在发展
中
。 我们
的
数据
的
每一个文本值都是前缀和后置“。
浏览 3
提问于2016-03-23
得票数 1
回答已采纳
1
回答
UDF
返回"sc不可
序列化
“。
、
、
我有一个来自Cassandra数据库
的
数据集,使用下面的代码片段创建,然后我尝试在其中一个列上创建一个
UDF
。但是,在这样做时,我会得到
错误
的
java
.io.NotSerializableException: org.apache.
spark
.SparkConf。load() 我已经将
UDF
简化为给定列
中
字符串
的
长度。dfSurvey.withColumn("respText",responseFromJsonTe
浏览 0
提问于2017-03-13
得票数 0
回答已采纳
2
回答
使用tensorflow.keras模型在pyspark中产生一个泡菜
错误
、
、
、
、
我想在pysark pandas_
udf
中使用tensorflow.keras模型。但是,在将模型发送给工作人员之前,当模型被
序列化
时,我会得到一个泡菜
错误
。我不确定我是否正在使用最好
的
方法来执行我想要
的
,因此我将公开一个最小但完整
的
示例
。是一个pandas_
udf
: '''
Spark
pandas <e
浏览 11
提问于2020-04-08
得票数 4
回答已采纳
2
回答
Spark
(2.2):使用结构化流对Kafka
中
的
Thrift记录进行反
序列化
、
、
、
我是
spark
的
新手。我使用结构化流媒体从kafka
中
读取数据。我可以在Scala中使用以下代码读取数据: .format("kafka") .option("startingOffsets", startingOffsets) .
浏览 1
提问于2017-10-19
得票数 2
1
回答
似乎不适用于星火提交。
、
、
、
我无法让
UDF
与火花提交工作。我在使用火花壳
的
时候没有任何问题。会感谢你
的
帮助
的
!-你好,文奇 Exception in thread "main"
java
.lang.NoSuchMethodError: scala.reflect.api.Ja
浏览 2
提问于2016-08-17
得票数 3
回答已采纳
1
回答
将
spark
.sql查询转换为
spark
/scala查询
、
、
我使用在scala
中
返回true/false
的
一些业务逻辑,在
中
添加了一列。实现是使用
UDF
完成
的
,
UDF
有10个以上
的
参数,因此在使用
UDF
之前我们需要先注册
UDF
。)org.apache.
spark
.sql.expressions.UserDefinedFunction <and> (f: org.apache.
spark
.sql.api.
java
.<
浏览 0
提问于2019-04-20
得票数 0
1
回答
Hashtable[String,String]
的
Scala
错误
、
、
我正在写一个小
的
UDF
val transform =
udf
((x: Array[Byte]) => { stock }) 我在哪里得到
错误
java
.lang.UnsupportedOperationException
浏览 17
提问于2020-01-20
得票数 0
回答已采纳
2
回答
Spark
(2.3+)可从PySpark/Python调用
的
Java
函数
、
、
我
的
问题是: 我想有一个大量
的
UDF
库,为火花2.3+,都是用
Java
写
的
,都可以从PySpark/Python访问。阅读上面我链接
的
文档,你会发现在一个类和
Java
函数(可以从PySpark
中
的
Spark
-调用)之间存在SQL一对一
的
映射。因此,如果我有10个
Java
UDF
函数,那么我需要创建10个公共
Java
类,每个类有1个<em
浏览 76
提问于2018-08-11
得票数 0
1
回答
在
Java
中
创建SparkSQL
UDF
、
、
、
、
问题 我可以在
Java
中
成功地创建一个<
浏览 4
提问于2016-03-27
得票数 5
回答已采纳
4
回答
星星之火sql --无论是使用行转换还是使用
UDF
。
、
、
、
我想要一个有50列
的
输出表(O),这些列是从I
的
列派生出来
的
,也就是说,有50个函数将I
的
列映射到O
的
50列,即o1 = f(i1),o2 = f(i2,i3) .在
spark
sql
中
,我可以通过两种方式做到这一点: 行转换,其中对整行I进行逐个解析(例如: map函数),以生成一行O。使用我猜在列级别上工作
的
UDF
,即以I
的
现有列作为输入,并生成相应
的
O列之一,即使用50个
UDF</
浏览 12
提问于2017-04-14
得票数 20
1
回答
用
序列化
问题在Dataframe上调用
UDF
我在
UDF
的
博客上看了一些似乎有效
的
例子,但实际上,当我运行它们时,它们给出了臭名昭著
的
任务,而不是可
序列化
的
错误
。val df = sc.parallelize, "a", &qu
浏览 1
提问于2019-03-10
得票数 2
回答已采纳
1
回答
理解火星雨中
的
罐子
、
、
我是个新手,我
的
理解是: jars就像一捆
java
代码文件。我在内部安装
的
每个库都有自己
的
jar文件,这些jar文件需要与驱动
程序
和执行器一起使用,以便它们能够执行用户交互
的
package调用。这些jar文件类似于那些API调用
的
后端代码。为什么用python
中
的
所有代码都不够呢?(我猜答案是,
Spark
最初是用scala编写
的
,在那里它以jars
的
形式分发它
的</em
浏览 5
提问于2021-12-09
得票数 1
回答已采纳
3
回答
无法禁用或禁止配置单元注册日志
、
、
、
在应用
程序
中
,创建了一个日志文件来写入日志信息和日志
错误
信息,但在日志文件
中
,写入了一些不需要
的
配置单元信息日志INFO Hive:234 - Registering function rankcom citi oprisk andes
udf
Rank 将
Spark
2 3 1与hive和
java
8配合使用 如果希望仅写入应用
程序</e
浏览 22
提问于2019-10-25
得票数 0
1
回答
由
Spark
Executor执行
的
类反
序列化
期间
的
StackOverflowError
Spark
作业开始在代码
中
突然失败,它从总大小约为1 GB
的
文件
中
折叠一些历史数据。我将跟进实际
的
RDD大小。(URLClassLoader.
java
:467) at
java
.net.URLClassLoaderat
java
.net.URLClassLoader.access
浏览 9
提问于2016-08-04
得票数 1
2
回答
如何在
spark
中使用由orElse组成
的
部分函数作为
udf
、
正如问题所述,我想使用一个由orElse组成
的
部分函数,作为一个在
spark
中
的
udf
。下面是一个可以在火花壳
中
运行
的
示例
:df.show df.withColumn("pf", baselineUdf(c
浏览 1
提问于2016-10-07
得票数 5
回答已采纳
1
回答
用火花将字段添加到Csv
中
、
、
、
问题是,如何为CSV
中
的
每一行添加geohash和timehash字段(因为数据大约为200 GB)?问题
的
更新:public class Hash {public staticJavaSparkContext
Spark
_Context;
UDF
2 geohashConverter = new
UDF
2<Lon
浏览 0
提问于2018-08-02
得票数 0
回答已采纳
1
回答
用
Java
在GraphFrames
中
获取shortestPaths
、
、
我是
Spark
和GraphFrames
的
新手。当我想了解GraphFrame
中
的
shortestPaths方法时,GraphFrames documentation给了我一个用Scala编写
的
示例
代码,但不是用
Java
编写
的
。是必要
的
,因为应用
程序
接口需要Seq或ArrayList,而我无法传递ArrayList来正确编译它。`
udf
((x: Int) => x)` 2. use
Ja
浏览 32
提问于2020-08-27
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
PyFlink核心功能与应用全解
教程:Apache Spark SQL入门及实践指南!
Spark踩坑记:Spark Streaming+kafka应用及调优
每日三问
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券