腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
将
struct
字段
与
另一
列
Spark
进行
比较
、
、
我有一个具有ArrayType结构
字段
的数据集,并且我需要过滤
与
max_stat值一致的stat
字段
的值。数据结构如下所示: |-- data: array (nullable = true) | |nullable = true) |-- naming: string (nullable = true) 我尝试过这样做,但无法
将<
浏览 28
提问于2020-11-07
得票数 1
回答已采纳
0
回答
有没有办法将带有切片
字段
的结构
与
零值结构
进行
比较
?
、
、
Hobbies []string 我有一个包含
另一
个结构的Person: Name string Favorites Favorites对于其他类型的
字段
,例如字符串或int,我会将该
字段
与
零值(分别为“”或0)
进行
比较
。如果我尝试
与
零
进行
比较
,如下所示,我得到错误invalid operation: p2.Favorites == zeroValue
浏览 6
提问于2016-12-23
得票数 3
1
回答
熊猫
与
给定的列表相匹配,排得最好。
我有一只熊猫数据"d1“,它有"n”
列
和"m“行。我有
另一
个带有一行的dataframe "d2“。我的任务是
将
d1中的最佳匹配行
与
d2
进行
比较
,并获取d1中匹配
列
的计数。d2:0 machine machine learning
spark
java pythond1数据格式也
与
更多
浏览 4
提问于2022-08-04
得票数 1
回答已采纳
1
回答
在mysql中将日期时间
字段
值添加到整型
字段
值中
、
、
可以
将
一个像2013-06-22 09:46:00这样的datetime
字段
值添加到一个或多个像1(表示天
列
)2(表示小时
列
)这样的整数
字段
值中,那么
将
DateTime值添加到整数后得到的结果必须是datetime形式的,以便我可以
与
另一
个datetime
字段
值
进行
比较
。例如,如果我在
与
整数
字段
2013-06-23 11:46:00相加后得到结果,我希望将其<em
浏览 0
提问于2013-06-23
得票数 2
回答已采纳
1
回答
使用pyspark - Databricks处理来自事件中心的事件
、
、
、
Spark
notebook必须在文档进入Event Hub时读取文档,并与该集合的
spark
表
进行
模式匹配(
将
文档中的
字段
与
spark
表列
进行
匹配)。如果文档中的
字段
少于表中的
字段
,则必须使用Null添加
列
。我需要提取mongo文档中的各个
浏览 1
提问于2019-01-12
得票数 0
2
回答
Google :
将
列
转换为日期并与
另一
个日期
进行
比较
的查询
、
我需要将一个文本
列
与
另一
个日期
进行
比较
,该
列
包含一个以dd/mm/yyyy格式表示日期的字符串。我需要这样的东西:当然,这不起作用在查询函数中,是否有任何方法<
浏览 1
提问于2017-04-10
得票数 1
回答已采纳
1
回答
试图
将
json文件读入scala中的Map[String,Object]
、
、
val df =
spark
.read.option("multiline","true").json(path) 我需要json文件中的数据,然后将其读入具有键"name“和指定类型值的Map中。
浏览 2
提问于2020-05-22
得票数 0
回答已采纳
2
回答
Spark
Structured Streaming如何确定事件是否迟到?
我通读了
spark
structured streaming文档,我想知道
spark
structured是如何确定事件已经迟到的?它是否
将
事件时间
与
处理时间
进行
比较
?Dataset<Row> kafkadf =
spark
.readStream().forma(&q
浏览 0
提问于2018-02-26
得票数 4
1
回答
Parquet如何处理SparseVector
列
?
、
、
我不确定它是否在内部将SparseVector转换为密集数据,因为在这种情况下,它将导致大约25k
列
,而根据线程,以
列
格式保存如此大的数据会导致OOM。我应该尝试增加内存还是用CSV而不是Parquet来保存它?任何帮助都是非常感谢的。提前谢谢。那么,它仍然是一些问题
与
Parquet或我需要一些其他的调试?
浏览 0
提问于2019-01-16
得票数 2
2
回答
检查最小值,方法是对
另一
个dataframe中的所有行迭代数据中的一行。
、
、
、
、
因此,对于DF1中的每一行,我必须对DF2中的每一行
进行
迭代,并根据使用索引的计算来寻找最短的距离。(functions.min(distance(col("IndexA"), DF2.col("IndexB"))))线程“主”中的org.apache.
spark
.sql.AnalysisException
浏览 6
提问于2021-10-24
得票数 1
回答已采纳
1
回答
针对结构值的
Spark
-Hive集成-空输出
、
、
使用
Spark
2.2 我已经从
spark
程序中填充了一个拼图结构
列
,也填充了
另一
个拼图列结构数组 当它将其作为外部表从配置单元读取时;结构数组已正确填充,但结构(非数组类型)
字段
生成为NULL。注意:在拼图中,同时填充了
struct
和
struct
数组值。只有在蜂巢里我们才有问题,对此有什么想法吗?
浏览 7
提问于2020-01-18
得票数 0
2
回答
多级分区表的
Spark
(EMR)分区修剪行为
、
、
、
、
如果我有一个用多级分区创建的表,即包含两
列
(state,city),如下所示: state=Texas,city=Houston如果我像这样运行select查询:也就是说,在使用第二个分区
列
的地方我非常确定Hive是如何运作的,但我热衷于确认
Spark
中的行为。此外,如果在EMR的
Spark
中执行,行为是否会有
浏览 17
提问于2019-11-12
得票数 1
1
回答
使用dataframe筛选
列
、
、
、
我有一个dataframe,我有一个名为url的
列
,我想要的是选择所有不包含单词"www.ebay.com"的url,我尝试过这样做:display(flutten_df.printSchema
浏览 2
提问于2022-01-10
得票数 -1
回答已采纳
2
回答
从表中复制
列
、
我需要将一
列
从一个表复制到
另一
个表。问题在于
将
值
与
正确的行
进行
匹配。INSERT INTO DestinationTable (money_owed)FROM SourceTable 如何搜索目标表并
比较
另一
个
字段
,以查看它是否
与
源表中的
字段
相同
浏览 0
提问于2012-05-08
得票数 1
回答已采纳
2
回答
如何生成唯一的哈希值?
、
每条记录大约有100个
字段
。当我读取一条记录时,我想确定该记录是否与我之前读取的
另一
条记录重复。重复检查的标准基于20个
字段
,并检查是否完全相等。我可以获取新记录,并与20个
字段
中每个
字段
的所有先前记录
进行
比较
。 我正在考虑的
另一
种方法是
将
20个
字段
散列到单个
字段
中,并将散
列
与
所有先前记录的散
列
进行
比较
。为此,
浏览 0
提问于2016-08-26
得票数 0
2
回答
如何在C中
比较
套接字地址?
、
我的意思是,当我检查两个
struct
sockaddr是否具有相同的ip地址和端口号时,我应该
比较
struct
sockaddr的哪些
字段
?sockaddr_in呢 我是否可以
将
sockaddr_in转换为sockaddr,并将其
与
真正的sockaddr
进行
比较
浏览 2
提问于2013-03-17
得票数 18
回答已采纳
1
回答
如何
将
JSON对象添加到apache中的Dataset/Dataframe
、
、
我想知道是否有可能使用
Spark
创建自定义的JSONDataset<Row> alerts =
浏览 0
提问于2018-03-30
得票数 0
回答已采纳
1
回答
将
to_date
列
与
pyspark中的单个值
进行
比较
、
、
我有一个pyspark格式的dataframe,读起来如下: df =
spark
.table('db.table') .select(F.col('key').alias('F.to_date('move_out_date', 'yyyyMMdd').alias('move_out_date')) 现在,我想将move_out_date
列
与
20151231日期
进行
比较
。f
浏览 17
提问于2019-08-31
得票数 1
回答已采纳
3
回答
如何在
Spark
2.3中
将
项追加到数组中
如何
将
项目追加到dataframe (
spark
2.3)中的数组? 这是一个使用整数的示例,但实际情况是使用
struct
。
浏览 0
提问于2019-02-10
得票数 1
3
回答
比较
两个数据集并获取哪些
字段
被更改
、
我正在使用Java开发
spark
,在这里我将从api下载数据并与mongodb数据
进行
比较
,而下载的json有15-20个
字段
,而数据库有300个
字段
。现在,我的任务是
将
下载的jsons
与
mongodb数据
进行
比较
,并获取随过去数据更改的任何
字段
。City2,stark,456,bg@g.com,NY,Nowhere 3,spidy,789,c@g.co
浏览 0
提问于2019-08-20
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
自定义开发Spark ML机器学习类
Spark SQL在字节跳动数据仓库领域的优化实践
灵活强大:iObjects Java for Spark模块扩展开发
Hive底层数据存储格式详解
如何管理Spark的分区
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券