腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Spark
Dataframe
最大
列
数
、
、
spark
Dataframe
的
最大
列
数
是多少?我试着从data frame文档中获取它,但找不到。
浏览 9
提问于2016-09-07
得票数 7
1
回答
将
DataFrame
转换为RDD,并将RDD动态拆分为与
DataFrame
相同的
列
数
。
、
、
、
我试图将
DataFrame
转换为RDD,并根据
DataFrame
中的
列
数
动态而优雅地将它们拆分为特定的
列
数
。Id Name Age State City456 Stan 26 Florida Tampaval temp2_rdd = temp_df.rdd.map(x =&g
浏览 1
提问于2021-07-31
得票数 2
1
回答
如何在
Spark
(Databricks)中计算表中的
列
数
?
、
、
我在编写语句以计数
Spark
中的
列
数
时遇到了困难。我尝试使用信息模式和table.columns,但这两种方法在
Spark
中似乎都不起作用。有人有什么建议吗?
浏览 2
提问于2020-04-28
得票数 1
1
回答
如何将具有大量列计数的csv文件导入ApacheSpark2.0
、
、
、
、
com.univocity.parsers.common.TextParsingException: java.lang.ArrayIndexOutOfBoundsException - 20480 提示:已处理的
列
数
可能超过了20480
列
的限制。使用settings.setMaxColumns(int)定义输入的
最大
列
数
,确保您的配置是正确的,并使用与您试图解析的解析分析器配置: CsvParserSettings:的输入格式匹配的分隔符、引号和转义序列: 如何设置解析器使用
浏览 4
提问于2016-08-27
得票数 6
回答已采纳
1
回答
有没有办法限制
spark
数据帧类型中的字符串长度?
、
有没有办法在
spark
Dataframe
中设置字符串类型的
最大
长度。我正在尝试读取一
列
字符串,获取
最大
长度,并将该
列
的
最大
长度设置为字符串的
最大
长度。 有没有办法做到这一点?
浏览 54
提问于2020-01-20
得票数 1
回答已采纳
1
回答
如何使用同一个case类创建多个数据帧
、
、
假设我想创建多个数据帧,一个有5
列
,另一个有3
列
,我如何使用一个case类来实现这个目标?
浏览 2
提问于2019-05-14
得票数 1
1
回答
将
最大
值转换为独立的1和0项的
列
、
、
、
、
我的输入
DataFrame
如下所示: 'id': [1], 'cat_2': [2],})test_df_
spark
.show() +---+-----+-----+--+-----+----
浏览 1
提问于2021-03-29
得票数 1
回答已采纳
1
回答
Pyspark :检查日期
列
中的值是否有效
、
、
、
我有一个从CSV文件导入的
spark
。在应用了一些操作(主要是删除
列
/行)之后,我尝试将新的
DataFrame
保存到Hadoop,这将显示一个错误消息: 有什么想法吗?PS:据我理解,
浏览 1
提问于2018-08-27
得票数 1
回答已采纳
1
回答
如何在SQL中使用枢轴(不是作为
DataFrame
分组操作符)?
、
、
、
我有这个
dataframe
,我试图将这个
dataframe
操作转换成sql使用pivot函数。我试过这样做, """我也试过这个 """ select * from ( select * from df lateral v
浏览 0
提问于2020-05-11
得票数 4
回答已采纳
1
回答
参数为动态的火花滞后函数
、
我需要在
spark
中实现滞后函数;我可以像下面这样做(使用hive/temp
spark
表中的一些数据)lagno:value0, 2003,null
DataFrame
df; org.apache.
spark
.sql.fu
浏览 3
提问于2016-09-16
得票数 3
1
回答
在集群上使用applyInPandas和PySpark
、
、
、
、
import pandas as pdfrom pyspark.sql import SparkSession def func(x): return x# run test function in parallel pdf = pd.
DataFrame
({'x': range
浏览 37
提问于2022-10-10
得票数 1
回答已采纳
1
回答
交叉连接的结果是“设备上没有空间”
、
、
实例类型: r4.2xlarge (8核,61 EBS,128 EBS)
浏览 14
提问于2022-08-02
得票数 0
1
回答
根据另一
列
中数组的长度将
列
添加到吡火花数据
0:2:1", "maker":"pr", "dev":"1022"}, "max_w" : 8, "max_s" : 2, "curr_w" : 7, "curr_s" : 4}]}}}`时间戳down_dev,payload_links_1_up_db,payload_links_1_up_mak
浏览 9
提问于2022-07-21
得票数 0
回答已采纳
1
回答
使用现有
列
使用Scala添加新
列
、
嗨,我想在
DataFrame
的每一行中添加使用现有
列
的新
列
,我在Scala中尝试这样做.df是包含可变
列
数
的
dataframe
,只能在运行时决定。导入
spark
.implicits._支持基本类型(Int、String等)和Product (case类),以便在以后的版本中添加其他类型的序列化支持。方法映射的参数不足:(隐含证据$7: org.apache.
spark
.sql.Encoderorg.apache.
spark
.sql.R
浏览 2
提问于2017-10-09
得票数 1
1
回答
N
列
m行的动态数据帧
、
从json(动态模式)读取数据,并将其加载到
dataframe
。示例数据帧:import
spark
.implicits._ (1, "ABC"), (3, "GHIJ")someDF: org.apache.<em
浏览 6
提问于2020-06-04
得票数 0
回答已采纳
1
回答
如何在数据库存储中计数表中的
列
、
、
从information_schema.columns选择count(*),其中table_name = 'emp‘均匀描述表 请建议一些其他代码来计算特定表中的
列
浏览 5
提问于2022-05-10
得票数 1
2
回答
获取数组
列
的大小/长度
、
、
我是Scala编程的新手,这是我的问题:如何计算每行的字符串
数
?我的数据帧由ArrayString类型的单个
列
组成。friendsDF: org.apache.
spark
.sql.
DataFrame
= [friends: array<string>]
浏览 2
提问于2017-09-07
得票数 45
回答已采纳
1
回答
星星之火:用read.csv读取许多文件
、
、
、
我想从位于同一个目录中的许多小文件创建一个
DataFrame
。我计划使用来自pyspark.sql的pyspark.sql。
浏览 0
提问于2018-03-21
得票数 0
1
回答
我们可以在
dataframe
星火scala中拥有的
最大
列
数
、
、
、
我想知道在
dataframe
中我可以拥有的
最大
列
数
,在数据文件中保持
列
的数量有什么限制吗?谢谢。
浏览 3
提问于2017-06-15
得票数 6
1
回答
通过集群提高SparkSQL查询性能
我是SparkSQL新手,我主要负责编写SparkSQL查询。我们经常需要在查询中使用JOIN大表,并且不需要很长时间就会遇到与它们相关的性能问题(例如。Joins、aggregates等)。不幸的是,我找不到足够的例子,让我清楚地理解它们,并开始将它们应用到我的查询中。我主要是寻找一些例子来解释它们的语法、提示和使用场景。 有谁能在这里帮助我,并提供SparkSQL查询它们的用法和
浏览 5
提问于2020-06-05
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark SQL DataFrame与RDD交互
Python使用DataFrame打印指定列的方法
使用Spark将本地文件读取并封装为DataFrame的完整指南
如何对 dataframe中的某一列数据 开根号呢?
如何管理Spark的分区
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券