腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
Spark
Java
API
中
从
参数
类型
创建
DataType
、
、
、
、
我正在使用
Spark
2.3。我想从给定的
类型
参数
创建
一个
DataType
对象:例如,StringType,IntegerType...我试过这个:
DataType
dataType
=
DataType
.fromJson(type_constructError(JsonParser.
java</e
浏览 28
提问于2019-11-27
得票数 0
回答已采纳
1
回答
将
spark
.sql查询转换为
spark
/scala查询
、
、
我使用在scala
中
返回true/false的一些业务逻辑,
在
中
添加了一列。实现是使用UDF完成的,UDF有10个以上的
参数
,因此
在
使用UDF之前我们需要先注册UDF。: org.apache.
spark
.sql.
api
.
java
.UDF10[_, _, _, _, _, _, _, _, _, _, _],returnType: org.apache.
spark
.sql.types.
DataType
<
浏览 0
提问于2019-04-20
得票数 0
1
回答
John Snow Labs基于Apache
Spark
构建的NLP库支持
Java
吗
、
、
、
John Snow Labs的NLP库构建在Apache
Spark
和
Spark
ML库之上。它的所有示例都是用提供的。它支持
java
吗?如果是,我在哪里可以找到相关的指南?如果没有,有没有支持
java
的计划?
浏览 2
提问于2018-03-23
得票数 2
2
回答
什么是非
类型
化Scala和
类型
化Scala?他们有什么不同?
、
、
to true and use this
API
with caution;
在
Spark
3.0
中
,默认情况下不允许使用建议删除要自动切换到
类型
化Scala的返回
类型
参数
,或者将
spark
.sql.legacy.allowUntypedScalaUDF设置为true以继续使用它。
在
SparkVersion2.4和更低版本
中
浏览 9
提问于2020-12-03
得票数 6
回答已采纳
1
回答
Scala火花UDF函数,它接受输入并将其放入数组
中
、
、
、
我正在尝试为
Spark
创建
一个Scala,它可以
在
Spark
中使用。该函数的目标是接受任何列
类型
作为输入,并将其放入ArrayType
中
,除非输入已经是ArrayType。下面是我到目前为止掌握的代码:import|string 3|
java<
浏览 8
提问于2022-05-06
得票数 0
1
回答
Scala 2.11 &
Spark
2.0.0动态
创建
case类来编码数据集
、
我正在尝试将我的应用程序
从
Spark
1.6.2更新到2.0.0,我的问题是
从
Dataframe (我读到的拼图)
创建
一个数据集。我知道我可以使用case类或元组来输入Dataframe,然后有一个Dataset,但在运行之前,我不知道哪些数据将加载用户,也不知道列的
类型
和数量。要加载数据,我使用SparkSession
从
parquet读取数据,简单如下:schemaOfData是
浏览 2
提问于2016-10-05
得票数 3
2
回答
Spark
(2.3+)可从PySpark/Python调用的
Java
函数
、
、
参数
:javaClassName -
java
类的全限定名 returnType -注册的
Java
函数的返回
类型
。该值可以是pyspark.sql.types.
DataType
对象,也可以是DDL格式的
类型
字符串。阅读上面我链接的文档,你会发现在一个类和
Java
函数(可以
从
PySpark
中
的
Spark
-调用)之间存在SQL一对一的映射。因此,如果我有10个
Java
浏览 76
提问于2018-08-11
得票数 0
2
回答
如何在
Spark
UDF
中
设置decimal返回
类型
的精度和小数位数?
我期望
从
UDF返回
类型
为decimal(16,4),但它是decimal(38,18)。 有没有更好的解决方案?我不期望得到“cast(价格表示为decimal(16,4))”的答案,因为除了强制转换之外,我的UDF
中
还有其他一些业务逻辑。 提前谢谢。import scala.util.Tryimport org.apache.
spark
.sql.types.Decimalval
spark
= Spa
浏览 271
提问于2020-04-08
得票数 1
回答已采纳
1
回答
在
scala
中
的运行时
从
对象获取类
、
、
、
("Handled", BooleanType), ) val newArr = arr.map(ele => StructField(ele._1, ele._2)) } 在这种情况下,我无法
从
方法我得到的例外是type mismatch; found : Object required:
浏览 3
提问于2016-10-30
得票数 0
回答已采纳
1
回答
火花DirectStream问题
、
、
、
我正在尝试
从
Kafka
创建
一个Stream,但是
在
创建
directStream对象时,我得到的错误如下:import
java
.util.HashMap;import
java
.util.Set; import org.apache.commons.codec.Str
浏览 3
提问于2017-09-28
得票数 1
回答已采纳
1
回答
如何与CSV文件
中
的数据集一起使用决策树?
、
、
、
、
我想像下面的代码一样使用
Spark
的org.apache.
spark
.mllib.tree.DecisionTree,但是编译失败。import org.apache.
spark
.ml.Pipelineval data = sqlContext.read.format("csv&quo
浏览 4
提问于2017-05-22
得票数 0
0
回答
Spark
Java
API
:如何将JavaRDD转换为RDD
类型
、
、
、
问题是我将JavaRDD
创建
为:但是sqlContext类的createDataset方法需要RDD<T>
类型
,而不是JavaRDD<T>
类型
。Encoders.bean(Abc.class); Dataset<Abc> abcDataset= sqlc.createDataset(abcJavaRdd,
浏览 4
提问于2018-07-14
得票数 2
回答已采纳
3
回答
通过
类型
的大小写匹配根据SparkSQL
中
的
类型
转换值
、
在
Scala
中
可以匹配
参数
类型
吗?假设我有一个函数,它接收两个
参数
:value和type。我想使用模式匹配来进行
类型
转换。=> return BigDecimal(value),我得到: 错误:模式
类型
与预期
类型
不兼容;找到: org.apache.
spark
.sql.types.DecimalType.type必需:org.apache.
spark
.sql.types.
DataType
注释:
浏览 1
提问于2016-01-06
得票数 9
回答已采纳
1
回答
在
Spark
中使用循环引用处理模型?
、
、
、
昨天(实际上是完整的日志),我试图找出一种优雅的方法,用Scala/SparkSQL2.2.1
中
的循环引用来表示模型casetrees = Seq(Tree(1, List(Branch(2, List.empty), Branch(3, List(Branch(4, List.empty)))))) ds.show
java
.lang.Unsupporte
浏览 1
提问于2018-09-22
得票数 0
回答已采纳
2
回答
Spark
的Scala TimestampType -没有为org.apache.
spark
.sql.types.TimestampType找到编码器
、
、
、
、
我
在
Databricks笔记本上使用
Spark
2.1和Scala2.11可以
在
SparkSQL的Scala
API
中找到 .schema(jsonSchema)使用Dataset
API
浏览 1
提问于2017-06-01
得票数 7
回答已采纳
1
回答
星星之火: DF.as[Type]无法编译
、
、
、
、
我正在尝试
从
星火书
Spark
: The Definitive Guide
中
运行一个例子ThisBuild / scalaVersion := "3.2.1" ("org.apache.
spark
" %% "
spark
-sql" % "3.2.0" % "provided").cross(CrossVersion.f
浏览 23
提问于2022-10-30
得票数 1
回答已采纳
2
回答
如何
从
Spark
StreamingContext的DStream
中
获取文件名?
、
、
、
注意: FileName (错误事件作为json文件)是系统的输入,因此
在
输出中保留该名称非常重要,以便在审计期间可以跟踪任何事件。每个文件只包含一行复杂的json字符串。使用流上下文,我能够
创建
一个RDDString,其中每个字符串都是来自单个文件的json字符串。对于将字符串与相应的文件名相关联,是否有人有任何解决方案/解决方案。
浏览 0
提问于2015-11-22
得票数 2
1
回答
如何在
spark
-avro 2.4模式
中
设置logicalType?
、
、
、
我们
从
应用程序
中
的avro文件
中
读取时间戳信息。我正在测试
从
Spark
2.3.1升级到
Spark
2.4的过程,其中包括新内置的
spark
-avro集成。我们目前通过
在
感兴趣的对象上进行反射来构建模式,如下所示: val searchSchema: StructType = ScalaReflection.schemaFor[searchEntry].
dataType
.asInstanceOf, nullable, metadata
浏览 36
提问于2019-02-07
得票数 2
回答已采纳
1
回答
将日期时间保存到星火中的Parquet
中
、
、
、
我想在编译时用未知格式的数据
创建
Parquet文件。稍后,我将模式作为文本,并且我知道有些列包含日期与时间。我想使用
Spark
和
Java
来完成这个任务。因此,我遵循并
创建
了具有适当
类型
的模式。我试着用
Spark
的
DataType
.TimestampType和
DataType
.DateType来表示日期,比如列。但两者都不起作用。当我试图用JavaSchemaRDD.saveAsParquetFile保存文件时,我得到的是错误Unsupported <e
浏览 3
提问于2015-02-20
得票数 4
回答已采纳
2
回答
Spark
Scala整数vs Option vs StructType整数
、
为什么这是我可以做的case类 fieldn: Option[Int] 或 fieldn: Option[Integer] 但是对于StructType,我必须使用吗? StructField("fieldn", IntegerType, true),
浏览 30
提问于2019-03-07
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券