腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2022)
视频
沙龙
1
回答
如
何在
Apache
Spark
SQL
中
仅对
某些
列
按
汇总
进行
分组
?
、
、
我在Databricks 7.0运行时集群中使用
SQL
for
Spark
3.0。200 || a2 | b2 | 150 | +-------+-------+------+ 但是,我正在尝试编写一个查询,其中只需要
汇总
b
列
。
SQL
中支持这种操作,但是在尝试运行上面的查询时,我得到了Error in
SQL
statement: UnsupportedOperationException。有没有人知道这种行为在
浏览 17
提问于2020-07-02
得票数 3
回答已采纳
1
回答
如
何在
spark
sql
上执行
分组
和聚合操作
、
、
如
何在
spark
上
按
操作执行组。我无法对某一
列
进行
分组
,并在各列上
按
聚合值
分组
。 group by values") ( org.
apache
.
spark</em
浏览 3
提问于2019-01-08
得票数 1
回答已采纳
1
回答
如
何在
Dataframe火花中添加按ID
分组
的索引
、
、
、
----------------------------------------------------+---------------+我已经尝试过使用posexplode了,但是它改变了我的dataframe模式,添加了col和pos
列
,newDF.printSchema() }} } 那么,在不更改Da
浏览 1
提问于2019-06-25
得票数 2
回答已采纳
0
回答
groupBy在
Spark
中
的应用
、
、
、
、
我目前正在学习python
中
的
spark
。我有一个小问题,在
SQL
这样的其他语言中,我们可以简单地
按
指定的
列
对表
进行
分组
,然后对它们执行进一步的操作,
如
sum、count等。我们如
何在
Spark
中
做到这一点?"20"] [n
浏览 3
提问于2016-07-14
得票数 2
2
回答
在
SQL
查询
中
迭代
bill_id | total1 | 600请建议
SQL
查询.并请解释.
浏览 2
提问于2020-04-21
得票数 0
回答已采纳
3
回答
在Scala
中
查找数据帧
中
数组
列
的重复值
、
、
我有一个包含数组
列
的数据帧,如下所示: val df = Seq( Array("bcd", "bc", "bcd看起来是这样的: col:["bcd","bc","bcd&qu
浏览 43
提问于2020-04-02
得票数 0
回答已采纳
2
回答
星星之火:无法读取蜂窝表
中
的数据
、
、
、
、
>我的班级正在读取蜂窝表
中
的数据:import org.
apache
.
spark
.SparkConfimport org.
apache
.
spark
.SparkContext import org.
apache
.
spark</em
浏览 5
提问于2017-02-20
得票数 1
回答已采纳
1
回答
使用scala在
spark
-
sql
中
按
其他
列
检索最大日期
分组
、
、
csv文件,它有3
列
数据类型:String,Long,Date。我想
按
字符串的第一
列
进行
分组
,并检索最大的日期值。Justin, 18,01/08/2003Ben Stokes, 29,30
浏览 22
提问于2021-03-10
得票数 0
回答已采纳
1
回答
如
何在
SQL
中使用枢轴(不是作为DataFrame
分组
操作符)?
、
、
、
我试过这样做, """| 1| b|| 1| a|不像上面使用dataframe操作显示的输出
spark
.
sql
,')) as exploded ) pivot (exp
浏览 0
提问于2020-05-11
得票数 4
回答已采纳
1
回答
使用
spark
sql
计算收入贡献
、
、
一种方法是首先获得单个项目的mrp总和,并存储在一个变量
中
,然后获得所有项目的总mrp的总和,执行division.But这将需要对单个项目
进行
循环。我想用
spark
的方式来做,只使用
sql
。
浏览 1
提问于2017-07-19
得票数 1
2
回答
我需要对平面数组集合数据
进行
分组
和
汇总
。数据不能在应用程序之外
分组
,必须返回arraycollection
、
、
、
我的应用程序中有平面数据,我需要像通常使用
sql
查询一样对这些数据
进行
分组
、
汇总
和计数。但是,对于这个项目,它必须在flex应用程序
中
完成。我需要弄清楚如何使用Arraycollection
中
的datatime字段
按
天或月对数据
进行
分组
,然后对其他字段
中
的数据
进行
适当的计数或
汇总
。我以前使用过Groupingcollections,但仅在绑定到分层控件(
如
Adva
浏览 3
提问于2011-09-24
得票数 0
2
回答
如
何在
星火中使用两
列
和双向groupBy
、
、
、
我想根据两个方向上的两
列
对我的dataframe元素
进行
分组
。这是一个用过的数据格式的示例。, "A"), ("B", "A"),("A", "C"), ("B", "A"), ("C", "D"),("D", "C"), ("A", "C"), ("C", &qu
浏览 2
提问于2021-11-09
得票数 1
回答已采纳
3
回答
如何忽略要在
SQL
中
分组
的
列
中
的不同值
、
我有一张桌子,上面有我要
分组
的记录。
某些
列
可以包含一些不同的值,例如:1----Candy--------23.441----CAND---------8.18 “
列
'PRODUCT‘在select列表<
浏览 3
提问于2014-02-26
得票数 0
回答已采纳
2
回答
在
spark
.
sql
中选择具有组的多个元素
、
、
、
在选择我正在使用的多个元素代码的
sql
spark
中
,是否有
按
表
分组
的方法:df.createOrReplaceTempView("GETBYID")val sqlDF =
spark
.
sql
( "SELECT count(customerId)
浏览 7
提问于2017-01-02
得票数 2
回答已采纳
1
回答
星火组和聚合仅几个最小的项目。
、
"z", 16),("y", 18),("x",3),("w",39),("v",98), ("u", 88))) val df1 =
spark
.createDataFrame(rdd1).toDF("id1", "val1") val df2 =
spark
.createDataFrame(rdd2).toDF(&
浏览 2
提问于2019-06-27
得票数 1
回答已采纳
1
回答
Spark
- Dataframe上的
SQL
窗口函数-查找组
中
的第一个时间戳
、
、
、
、
我的目标是-找出用户'a‘在每个区域花费了多少时间,
按
什么顺序?
SQL
窗口函数可以用于此目的。除了组
中
的最后一个条目外,regionTimeEnd
列
只是regionTimeStart的'lead‘。我看到聚合操作有'first‘和'last’函数,但为此我需要基于('uid',' region ')对数据
进行
分组
,这会破坏遍历的路径的单调递增顺序,即在时间13,14用户已返回区域' 1‘,我希望保留
浏览 1
提问于2016-02-10
得票数 1
1
回答
distinct + groupByKey在星火上的性能改进
、
我想做的是按键对元组
进行
分组
,为了使其更有趣,将
分组
值的长度限制为任意数(例如3)。
浏览 3
提问于2020-07-02
得票数 1
回答已采纳
1
回答
按
星火数据帧所有
列
分组
并计数
、
、
、
我希望使用
Spark
对数据帧的每一
列
执行Group。Dataframe将有大约。1000
列
。val df = sqlContext .format("org.
apache
.
spark
.
sql
.cassandra")channelDf.groupBy(c).cou
浏览 0
提问于2019-08-12
得票数 1
回答已采纳
1
回答
按
列
分组
,并使用
Apache
Spark
和Java将每组字符串写入文本文件
、
我有一个包含
列
id和几个字符串列的.csv文件。我想
按
id
分组
,然后将string_column1
中
的所有值写入一个文本文件(每个值在一个新行上)。我在Java中使用
Apache
Spark
。我不知道如何使用id
列
中
的不同值来命名文本文件。import org.
apache
.log4j.Level;import org.
apache
.
浏览 2
提问于2019-11-02
得票数 0
3
回答
对星火数据帧/蜂巢结果集
进行
排序
、
、
我正在尝试从一个Hive表
中
检索
列
列表,并将结果存储在一个
中
。var my_column_list = hiveContext.
sql
(s""" SHOW COLUMNS IN $my_hive_table""")import or
浏览 8
提问于2016-11-08
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一个Python大数据处理利器:PySpark入门指南
一文读懂Apache Spark
一文读懂 PySpark 数据框
一文读懂PySpark数据框
教程:Apache Spark SQL入门及实践指南!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券