腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
反射
从
scala
调用
spark
UDF
?
、
、
、
我正在构建一个
spark
应用程序,它依赖于一个java库。, String]) =
udf
((data: String) => {}) 这个函数可以作为myfunc(properties)(data)
从
spark
shell
调用
,其中属性是一个映射,数据是列类型。问题是我需要通过
scala
文件中的
反射
来
调用
它。
如何
以及在何处传递Column参数?或者,是否
浏览 21
提问于2019-06-19
得票数 1
回答已采纳
2
回答
如何
在火花外壳中注册Java
SPark
UDF
?
、
、
、
下面是我的java
udf
代码, @Override用下面
浏览 2
提问于2019-02-19
得票数 1
2
回答
Spark
(2.3+)可从PySpark/Python
调用
的Java函数
、
、
我的问题是:这是正确的吗?我是否可以创建1个public Java
浏览 76
提问于2018-08-11
得票数 0
1
回答
Apache
Spark
UDF
:访问冰山
、
、
我试图
从
Spark
Java
UDF
中访问Iceberg表,但在
UDF
中运行第一个SQL语句时出现错误。下面是我
如何
在
UDF
中创建
Spark
会话: SparkSession
spark
= .master(...("USE db"); 我注意到
Spark
配置中的环境变量( Jupyter config =
spar
浏览 56
提问于2021-05-11
得票数 0
1
回答
scala
用户定义函数在sparksql中不起作用
、
、
、
我已经编写了一个
UDF
,它基本上计算给定的IP地址是否在cidr列表中。我可以
从
scala
调用
我的
UDF
,它工作得很好,但是当我
从
spark
sql
调用
udf
时,它抛出了这个错误。请帮帮我。但是当我
从
spark
sql
调用
isinlist函数时,它显示下面的错误。at $line926276415525.(Iterat
浏览 4
提问于2017-08-12
得票数 0
1
回答
当输出是要从Pyspark
使用
的复杂类型(
使用
StructType和StructField)时,
如何
传递
Scala
UserDefinedFunction
、
、
、
、
因此,我想创建一个可以在Pyspark中
使用
的
scala
UDF
。它适用于
Scala
Spark
。 我的问题是试图让这个在pyspark中可
调用
。import org.apache.
spark
.sql.functions.
udf
import org.apache.
spark
.sql.api.java.
UDF
浏览 29
提问于2020-10-09
得票数 4
回答已采纳
1
回答
Scala
火花
UDF
函数,它接受输入并将其放入数组中
、
、
、
我正在尝试为
Spark
创建一个
Scala
,它可以在
Spark
中
使用
。该函数的目标是接受任何列类型作为输入,并将其放入ArrayType中,除非输入已经是ArrayType。下面是我到目前为止掌握的代码:importorg.apache.
spark
.sql.types._
浏览 8
提问于2022-05-06
得票数 0
2
回答
星星之胞
udf
:没有处理程序用于联非新议程分析异常
、
、
、
、
创建了一个项目‘
spark
udf
’&编写的单元
udf
如下所示:import org.apache.hadoop.hive.ql.exec.
UDF
spark
.sql("CREATE OR REPLACE FUNCTION uppercase AS 'com.
spark
.
浏览 4
提问于2018-09-04
得票数 5
回答已采纳
2
回答
如何
使用
Spark
会话在
Spark
2中重载
UDF
、
、
如何
使用
Spark
会话实现
Spark
2中
UDF
的方法重载。
scala
>
spark
.
udf
.register("func",(a:String)=>a.length) 以下是我的蜂巢表,名为“orc”及其描述
scala<
浏览 0
提问于2018-03-21
得票数 0
回答已采纳
1
回答
提供
scala
sbt libraryDependencies -避免下载第三方库
、
、
我有下面的
Scala
代码引用第三方库,import com.protegrity.
spark
.
udf
.ptyProtectStrimport com.protegrity.
spark
.
udf
.ptyProtectInt class ptyProtectStr extends
UDF
2[St
浏览 14
提问于2020-07-18
得票数 0
1
回答
在dataframel中
调用
具有多个参数的
Udf
失败
、
、
、
、
我在
Scala
和
spark
sql中工作,在那里我想
调用
UDF
,它有多个参数。我不知道我的电话出了什么问题
udf
是 private def parseJsonUdf: UserDefinedFunction =
udf
(parseJson _) df.withColumn(field, parseJsonUdf(col("data"), lit(fie
浏览 17
提问于2020-06-19
得票数 0
1
回答
整型、长整型或双精度型作为
Spark
UDF
的函数参数
、
、
、
我有一个简单的
调用
Scala
函数的
spark
UDF
。
Scala
函数目前
使用
'Long‘类型,如下所示 } 由于
spark
不支持Any类型,有没有一种方法可以传递一个泛型类型,可以在Long、Int或Double类型中工作,而
浏览 2
提问于2017-08-24
得票数 0
1
回答
Apache
Spark
2.3.0 -
如何
将两个array<string>合并成一个array<string>
、
、
输入-预期输出-有人能解释一下
如何
使用
Java在
Spark
中实现这一点吗?
浏览 9
提问于2021-09-22
得票数 1
2
回答
将java funciton URLDecoder.decode应用于
Spark
3中的整列
、
、
我有一个包含url编码字符串的dataframe列,如下所示:someDF.withColumn('newcol', URLDecoder.decode( col("mystring"), "utf-8" ))| mystring | newcol || ThisIs%201rstString | ThisIs 1rstStr
浏览 0
提问于2020-09-09
得票数 3
1
回答
不支持
Spark
2.1.0
UDF
模式类型
、
、
我
使用
一个名为Point(x: Double,y: Double)的数据类型。我尝试
使用
列_c1和_c2作为Point()的输入,然后创建一个新的Point值列,如下所示然后我
调用
这个函数:但是,当我
浏览 2
提问于2017-04-27
得票数 1
1
回答
将数组类型的列处理为
udf
时的
Spark
- java.lang.ClassCastException [数组[Map[String,String]
、
、
、
但是,我希望将该列展平,以获得一个Array[Map[String,String]]类型的列,其中包含两个原始列的值 我
从
Spark
2.4中读到,可以直接在列的连接上应用flatten。如下所示: df.withColumn("concatenation", flatten(array($"colArrayMap1", $"colArrayMap2"))) 但是我仍然
使用
Spark
2.2,所以我需要
使用
udf
。$ofRef c
浏览 30
提问于2020-12-24
得票数 0
回答已采纳
2
回答
什么是非类型化
Scala
和类型化
Scala
?他们有什么不同?
、
、
我
使用
Spark
2.4已经有一段时间了,最近几天我刚刚开始
使用
Spark
3.0。API with caution; 在
Spark
3.0中,默认情况下不允许
使用
org.apache.
spark
.sql.functions.
udf
建议删除要自动切换到类型化
Scala
的返回类型参数,或者将
spark
.sql.legacy.allowUn
浏览 9
提问于2020-12-03
得票数 6
回答已采纳
1
回答
如何
用替代解决重载方法值寄存器,
UDF
、
、
我试着把一个完整文件的最后一个文件处理掉,我的代码看起来就像Error:(39, 29) overloaded method value register with alternatives: (name: String,f: org.apache.
spark
.sql.api.java.
UDF
22[_, _, _, _, _, _,
浏览 3
提问于2018-06-28
得票数 1
回答已采纳
3
回答
使用
Spark
注册配置单元自定义
UDF
(
Spark
SQL) 2.0.0
、
、
我正在开发一个
spark
2.0.0版本,其中我的需求是在我的sql上下文中
使用
'com.facebook.hive.
udf
.UDFNumberRows‘函数来
使用
其中一个查询。<init>(Dataset.
scala
:186) at org.apache.
spark
.sql.Datase
浏览 1
提问于2016-11-02
得票数 5
1
回答
在
Spark
中
使用
Scala
从
withColumn内
调用
udf
时出错
、
、
我在
Spark
中
使用
Scala
从
withColumn内部
调用
udf
时收到错误。当
使用
SBT构建时,会发生此错误。{ }else "-1" }else "-1")
scala
:58: No TypeTag available for String
浏览 0
提问于2016-07-04
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
教程:Apache Spark SQL入门及实践指南!
北风网-Spark 2.0从入门到精通
Spark 3.0重磅发布!开发近两年,流、Python、SQL重大更新全面解读
Spark SQL DataFrame与RDD交互
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券