腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
pyspark
:
SQL
count
()
失败
、
、
我有一个Spark数据帧,看起来像这样1 |34 |3sdf.createOrReplaceTempView('sdf_view')spark.
sql
('SELECT MAX(
count
), x FROM sdf_view') 这似乎是一个完美的
SQL
查询,我想知道为什么这不适用于Spark。
浏览 9
提问于2018-02-19
得票数 0
1
回答
如何模拟对
pyspark
sql
函数的内部调用
、
、
、
、
获得了以下
pyspark
代码:from unittest import mock @mock.patch('
pyspark
.
sql
.DataFrame',spec=
pyspark
.
sql
.Dat
浏览 11
提问于2019-11-02
得票数 12
回答已采纳
1
回答
Pyspark
:“rdd”对象没有属性“平面映射”
、
、
、
我是刚接触过
Pyspark
的人,我实际上是在尝试用
Pyspark
对象构建一个平面图。attribute 'flatmap'my_rdd = my_rdd.flatmap(lambda r: (r[5].split('|')))from
pyspark
.
sql
import *from
pyspark
.
浏览 2
提问于2018-10-28
得票数 4
回答已采纳
1
回答
NoneType对象没有属性'_jvm‘错误
、
、
、
我试图使用Spark2.2在DataFrame中打印每个分区中的总元素from
pyspark
.
sql
import SparkSessiondef
count
_elements(splitIndex, iterator): yield (splitIndex, n(ind, x)).take(3))) N
浏览 0
提问于2018-03-25
得票数 6
5
回答
星星之火
SQL
Row_number() PartitionBy排序Desc
、
、
、
、
这是我的工作代码:from
pyspark
.
sql
.types import *from
pyspark
.
sql
.window import Window data_cooccur.select("driver", "also_item", "unit_
co
浏览 3
提问于2016-02-06
得票数 56
回答已采纳
1
回答
获得重复计数,但保留重复行
||1 |0 |1 |2 |我想得出这样的结果:|a |b |c |d |row_
count
浏览 2
提问于2020-01-30
得票数 0
回答已采纳
1
回答
从蜂巢中读取数据
、
、
我正在尝试通过
Pyspark
读取Hive表中的数据。我已经成功地建立了蜂巢和火花之间的联系。我还能够看到数据库中存在的表,但是当我试图查询表时,我得到了以下错误: 代码: spark.
sql
("select
count
(*) from my_table").show(truncate = False
浏览 1
提问于2018-11-19
得票数 2
4
回答
用火花放电计算groupBy的总计数百分比
、
我在
pyspark
中有以下代码,从而生成一个表,显示列的不同值及其计数。我希望有另一列显示每一行所代表的总数的百分比。我该怎么做?difrgns = (df1 .
count
() .sort(desc("
count
"))
浏览 0
提问于2018-09-11
得票数 14
回答已采纳
1
回答
列在
pySpark
中不可迭代
、
、
、
--+-------------------+ orderBy(hashtags_24.created_at_int).rangeBetween(-3600, 3600)#sum_
count
_over_time = sum(hashtags_24.ht_
count
浏览 1
提问于2017-03-13
得票数 2
回答已采纳
1
回答
从1列表中创建一行数据
、
、
、
from
pyspark
.
sql
import Window,Rowfrom
pyspark
.
sql
.session importSparkSessionstart_time = F.lit(datetime.datetime.now())
c
浏览 10
提问于2022-10-21
得票数 0
回答已采纳
1
回答
火花。简单的“任何本地目录中都没有可用的空间”。
from
pyspark
.
sql
.types import Rowimport
pyspark
.
sql
.functions as spark_functionsRow("gamma", 3),] print("
count</
浏览 4
提问于2016-09-03
得票数 3
回答已采纳
1
回答
使用
pyspark
计算文本文件中所有单词的长度总和问题
、
我正在尝试使用
pyspark
on databricks对文本文件中的所有字母进行求和。我已经成功地掌握了每个单词的长度,但却很难把它们总结起来。
浏览 3
提问于2021-09-02
得票数 0
回答已采纳
1
回答
SQL
查询以计数在过去30天内完成的事务的频率
、
、
、
我有一个关于如何执行
SQL
查询或java查询的问题,该查询将计算在过去30天内由某个信用卡号码完成的事务的频率。
浏览 4
提问于2022-11-28
得票数 -1
2
回答
要Py的
SQL
查询(Spark)
、
、
、
、
我有以下
SQL
查询,我想将其转换为
pyspark
。我想使用两个列pp和gender,并在
pyspark
中执行以下操作 %
sql
, SUM(CASE WHEN Gender = 'M'THEN 1.0 ELSE 0.0 END) /,
count
(1) AS totalWHERE genderin (&
浏览 12
提问于2020-12-16
得票数 0
1
回答
Apache Spark中的agg(计数)不工作
、
尝试使用聚合在Apache Spark (
PySpark
)中聚合我的数据帧。countDistinct('age'))old_table.groupby('name').agg(countDistinct('age'),
count
('age))NameError: name '
count
' is not defined 有没有办法将
count
添加到我的输出
浏览 5
提问于2017-02-10
得票数 4
1
回答
数据库Python优化
、
、
、
、
# table containing all name of database in databricks showTables="""show tables in {};""".format(i.nombd) #df=df2.sele
浏览 8
提问于2022-01-06
得票数 0
1
回答
基于其他列中值的
PySpark
DataFrame乘法列
、
我有个数据,比如说,| id| mode|
count
||146360 | DOS| 30|+------------+------+-----++------------+-------+----+---
浏览 1
提问于2019-07-16
得票数 2
回答已采纳
2
回答
Pyspark
读取csv
、
、
新的
pyspark
,并希望读取csv文件到数据帧。看起来不能读。有什么帮助吗?from
pyspark
.
sql
import SQLContextfrom
pyspark
.
sql
import Row rdd = sc.textFile('data.csv').map(lambda line: line.split(","))
浏览 3
提问于2018-05-14
得票数 1
回答已采纳
1
回答
如何处理AWS胶粉中的“0000-00-00”
、
、
、
、
正因为如此,我的Glue作业(
PySpark
)
失败
了。如何在胶码中处理这个问题? File "script_2018-08-03-21-41-06.py", line 107, in <module> total_record_
count
=datasourceDF0.
count
(
浏览 0
提问于2018-08-04
得票数 2
3
回答
向
PySpark
数据帧中添加组计数列
、
、
在
PySpark
中,我可以做一些几乎同样简单的事情,如果我要查看,根据行数概括:from
pyspark
.
sql
.functionsspark = SparkSession.builder.getOrCreate() .groupBy(col("x")) \ .
count
但是,当我执行以下操作时,
Py
浏览 0
提问于2018-02-14
得票数 37
回答已采纳
点击加载更多
相关
资讯
SQL查找是否“存在”,别再count了!
半小时搭建 spark 应用
一文读懂PySpark数据框
安装SQL2008提示缺少net framework 3.5更新失败怎样解决?
人生苦短,我用python之入门篇-3
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券