腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如
何在
spark
scala
中
处理
模式
匹配
中
的
空
值
、
下面是
spark
shell代码 202101102 """) df: org.apache.
spark
.sql.DataFrame = [time_p
浏览 24
提问于2021-03-11
得票数 2
回答已采纳
2
回答
如
何在
行上使用
空
值
进行
模式
匹配
?
、
我想知道为什么我不能在包含
空
值
(Strings)
的
Spark
(2.1)行上进行
模式
匹配
:
scala
.MatchError:
浏览 2
提问于2017-10-26
得票数 7
回答已采纳
2
回答
处理
星火中
的
模式
不
匹配
、
我正在使用
Scala
中
的
Spark
读取一个csv文件。
模式
是预定义
的
,我正在使用它进行阅读。session .appName("Parquet Converter")根据我在使用
模式
阅读ca
浏览 0
提问于2018-11-14
得票数 5
回答已采纳
4
回答
如何最有效地将
Scala
DataFrame
的
行转换为case类?
、
、
一旦我在
Spark
中
获得了一些Row类,无论是Dataframe还是催化剂,我都想在代码中将其转换为case类。这可以通过
匹配
完成。someRow match {case Row(a:Long,b:String,c:Double) => myCaseClass(a,b,c)} 但是,当一行中有大量
的
列时,比如十几个双打,一些布尔人,甚至偶尔
的
空
列,情况就变得很糟糕了。我只想能-抱歉-把排到myCaseClass.这是可能
的
,还是我已经有了最经济
的
浏览 9
提问于2015-01-27
得票数 55
回答已采纳
3
回答
在
Spark
DataFrame中将
空
值
转换为
空
数组
、
、
、
我有一个
Spark
数据帧,其中一列是整数数组。该列可以为
空
,因为它来自左外部联接。我希望将所有null
值
转换为一个
空
数组,这样以后就不必
处理
null值了。$.apply(literals.
scala
:49)at org.apache.
spark
.sql.functions$.when(functions.
sc
浏览 5
提问于2016-01-08
得票数 24
回答已采纳
1
回答
Apache
中
的
Case类相等
、
、
、
、
为什么火花中
的
模式
匹配
与
Scala
中
的
模式
匹配
不一样?见下面的例子。函数f()尝试在类上进行
模式
匹配
,它在
Scala
中
工作,但在
Spark
中
失败,并导致所有“??”。f2()是一种解决方法,可以在使用.isInstanceOf()
的
星火中获得预期
的
结果,但我理解这在
Scala
中</em
浏览 4
提问于2016-02-09
得票数 15
回答已采纳
1
回答
火花SQL卡桑德拉如何
处理
时间戳
空
值
?
、
、
这是我
的
星星之火:import org.apache.
spark
.sql.cassandra.CassandraSQLContext-i myscript 在一行包含ts单元格
的
空
值
之前,一切都是正常
的
。如果有一个为ts
值
为
空
的
行,那么我得到了几个与several相关
的
异常,它们等待一个长
值
(8个字节),
浏览 5
提问于2015-01-29
得票数 0
2
回答
如何通过Apache Livy on
Spark
执行jar打包
的
scala
程序,以直接响应客户端请求
的
结果?
、
、
、
我想要实现
的
是让
Scala
Spark
程序(在jar
中
)接收来自客户端
的
POST消息,例如curl,获取一些参数值,执行一些
Spark
处理
,然后将结果
值
返回给调用
的
客户端。从可用
的
Apache Livy文档
中
,我找不到如何通过Livy以交互即会话
模式
从客户端(例如curl)调用编译和打包
的
Spark
程序
的
方法。通过Livy<em
浏览 3
提问于2019-01-06
得票数 1
1
回答
使用
Spark
Scala
将SqlServer数据类型转换为Hive数据类型
、
、
Spark
用于从SQL server DB
中
获取表
的
模式
。由于数据类型不
匹配
,我在使用此
模式
创建配置单元表时遇到问题。如
何在
Spark
Scala
中将SQL Server数据类型转换为Hive数据类型。
浏览 48
提问于2019-07-19
得票数 1
0
回答
使用
模式
匹配
Scala
标识字符串
、
、
、
我想知道如何避免将Any转换为String,而是使用
模式
匹配
。从
spark
scala
收集数据帧在某种程度上是一种变通
的
df.select('column).first.toSeq.head.asInstanceOf[String],但我更喜欢使用like df.select('column).first.toSeq.head原生
模式
匹配
,比如
浏览 3
提问于2016-12-22
得票数 1
回答已采纳
1
回答
如何从DataFrame中提取文件和筛选条件?
、
我有一个DataFrame,其中包含要
处理
的
CSV文件
的
名称。DataFrame
的
第一列FileName、FilterData作为第二列和其他列(将每一列视为String)
中
的
文件名如下所示: FileName FilterData col3我想读取第一列(即文件名),然后打开/读取文件,并获得与FilterData
中
的
模式
匹配
的
记录。(从Dataframe读取第一列),然后根
浏览 1
提问于2017-05-08
得票数 0
回答已采纳
1
回答
N列m行
的
动态数据帧
、
从json(动态
模式
)读取数据,并将其加载到dataframe。示例数据帧:import
spark
.implicits._ (1, "ABC")ABC|| 3| GHIJ|要求:列数和名称可以是任何
值
。需要在后续流程
中
处理
该<em
浏览 6
提问于2020-06-04
得票数 0
回答已采纳
1
回答
org.apache.
spark
.sql.catalyst.expressions.GenericRowWithSchema):[abc,cde,null,3] (org.apache.
spark
.sql.catalyst.expressions.GenericRowWithSchema)类,在
Spark
中有缺失字段)
、
、
、
、
每个对象都缺少一些字段,而不是放置null
值
。在使用
Scala
的
Apache
Spark
中
: c: String = null,)
浏览 4
提问于2017-09-23
得票数 4
3
回答
某些(
空
)到字符串类型可为
空
的
scala
.matcherror
、
我有一个在数据中有一些
空
值
的
RDD[(Seq[String], Seq[String])]。(CatalystTypeConverters.
scala
:295) at org.apache.
spark
.sql.SQLCo
浏览 2
提问于2017-04-06
得票数 3
2
回答
Spark
DataFrame对数据集为
空
、
从MS SQL数据库导入数据时,可能会出现
空
值
。在
Spark
中
,DataFrames能够
处理
空
值
。但是,当我尝试将DataFrame转换为强类型Dataset时,收到编码器错误。下面是一个简单
的
例子: defmain(args: Array[String]): Unit = {
浏览 2
提问于2017-03-31
得票数 0
4
回答
如何读取
Spark
中
的
嵌套集合
、
、
、
、
我有一张镶木镶木桌上有一根柱子在
Spark
文档
中
找不到任何与此相关
的
引用。提前感谢您提供
的
任何信息! ps。我觉得在谈判桌上提供一些统计数据可能会有所帮助。主表
中
的
列数约为600。行数~
浏览 191
提问于2015-05-03
得票数 19
回答已采纳
1
回答
Apache
、
我正在使用
Spark
1.2进行一些数据
处理
。我已经使用StructField创建了一个
模式
。org.apache.
spark
.rdd.RDD.computeOrReadCheckpoint(RDD.
scala
:263) at org.apa
浏览 4
提问于2015-10-16
得票数 0
12
回答
如何创建一个
空
的
DataFrame?为什么"ValueError: RDD是
空
的
“?
、
我正在努力创建一个
空
的
数据在火花(火花)。df = sqlContext.createDataFrame(sc.emptyRDD(), schema)Traceback (most recent call last):File "<stdin>", line 1, in <module> File "/Users/Me/Desktop/
spark
浏览 4
提问于2016-01-06
得票数 34
回答已采纳
3
回答
如何比较SQL语句中两种数据
的
模式
?
、
、
在
spark
(
如
)
中
,有许多方法来验证两个数据帧
的
架构。但是我只想在SQL
中
验证两个数据帧
的
模式
,我指的是SparkSQL。
中
没有数据库(
模式
)
的
概念,但是我读到了包含
模式
信息等
的
亚稳态。我们可以在SparkSQL
中
编写像上面这样
的
SQL查询吗?我只是在检查为什么显示create没有使用
spark
,是因为它是一个临
浏览 6
提问于2018-09-04
得票数 1
1
回答
时间戳StructField
中
的
空
值
、
如何
处理
时间戳列
中
的
空
值
?我将源数据保存在列表
中
(sql
的
结果) [220,1,220,220,2012-04-24 23在最后一列
中
,
空
值
与时间戳混合。(rdd, StructType(fields)) 导致: java.lang.RuntimeException:
scala
浏览 0
提问于2018-06-21
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何在Spark中处理结构化流式数据,如日志文件或传感器数据?
如何在 Excel 二维表中横向查找最晚更新的非空值?
Python数据处理技巧:如何将数据列表中的空值补0
Scala对于大数据开发重要吗?Scala基础学习建议
数据质量和验证检查
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券