腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3016)
视频
沙龙
1
回答
Apache
SparkSQL
无法
解析
在
sqlText
中
创建
的
给定
输
入列
、
、
、
、
我正在尝试运行一个spark sql语句,并试图
在
执行聚合
的
同时执行一个简单
的
group by;它抱怨说,它
无法
在
我
在
模式中提供
的
给定
输
入列
中找到列month,但在教程之后,他们能够运行
给定
的
代码。count(1) as total from logging_level group by level, month"); 堆栈跟踪: Exception in thread "mai
浏览 16
提问于2020-08-23
得票数 1
回答已采纳
1
回答
添加新列DataFrame Spark
我尝试通过
在
dataframe
中
添加一个新列来使用
SparkSQL
。我
的
守则是:df.withColumn("UID", new org.
apache
.spark.sql.Column("UID")) 错误:'**UID**‘
给定
的
输
浏览 1
提问于2017-03-14
得票数 1
3
回答
org.
apache
.spark.sql.AnalysisException:
无法
解析
给定
的
输
入列
、
、
我有一个Spark程序,可以读取CSV文件并将其加载到Dataframe
中
。加载后,我将使用
SparkSQL
操作它们。当运行我
的
Spark作业时,它失败并给出以下异常:当
SparkSQ
浏览 2
提问于2016-10-05
得票数 3
1
回答
在
spark sql中选择除特定列之外
的
所有列
、
、
、
我想选择表
中
除StudentAddress之外
的
所有列,因此我编写了以下查询:
在
Squirrel Sql客户端中出现以下错误。org.
apache
.spark.sql.AnalysisException:
无法
解析
给定
的
输
入列
的
“”(StudentAddress)?+.+“”
浏览 45
提问于2017-04-27
得票数 3
回答已采纳
1
回答
在
标头中用点裁剪数据帧值
、
我正在读取一个具有“标题”
的
输入文件。‘点为DataFrame。我正面临问题,试图修剪
在
该文件
中
的
值。= new SQLContext(getLocalSparkContext())import org.
apache
.spark.sql.functions`"))).show() testDataFrame.withColumn("col1", trim(testDataFrame
浏览 1
提问于2016-12-20
得票数 0
1
回答
我如何才能在DataFrame in PySpark
中
按总和订购?
、
、
::org.
apache
.spark.sql.AnalysisException:
无法
解析
给定
输
入列
order_item_order_id,SUM(order_item_subtotal#429)
的
“SUM::org.
apache
.spark.sql.AnalysisException:
无法
解析
给定
输
入列
order_item_order_id,SUM(order_item_subtotal#429)
浏览 1
提问于2015-12-21
得票数 4
1
回答
用向后兼容模式读取星火中
的
旧数据
、
、
、
我已经将一些较旧
的
数据存储
在
带有模式
的
parquet
中
。每次我尝试用spark.read.parquet("test_path").as[B].collect()读取数据时,我都会得到以下异常: 是否有方法为我
浏览 0
提问于2017-11-07
得票数 2
回答已采纳
1
回答
如何引用星火sql查询
中
的
映射列?
、
、
scala> val map1 = spark.sql("select map('p1', 's1', 'p2', 's2')")+--------------------+ org.
apa
浏览 8
提问于2020-09-28
得票数 1
回答已采纳
1
回答
如何使用流查询处理Kafka
的
Scala case类对象?
、
、
startingoffsets", "earliest") .select("value") 我知道错误了 线程"main“
中
的
异常org.
apache
.spark.sql.AnalysisException:
无法
解析
给定
的
输
入列
:id;
浏览 0
提问于2019-11-01
得票数 1
回答已采纳
1
回答
在
星火中使用过滤器和组块
、
、
、
但是,
在
执行我
的
代码时,我得到
的
“
无法
解析
”
给定
的
输
入列
“flag”: (1, 111,100,100,"C","5th","Y",11),.select("id", "rollno", "sub1"
浏览 1
提问于2021-01-20
得票数 0
回答已采纳
1
回答
使PySpark数据
中
的
“不可用列”为零。
、
、
、
、
我有一个脚本,它目前运行在示例dataframe
中
。这是我
的
密码:
在
旋转之后,parameter_cut
中
的
某些列可能在df fd_orion_apps上不可
浏览 2
提问于2022-07-10
得票数 1
回答已采纳
1
回答
Spark2.0隐式编码器,当类型为Option[Seq[String]] (scala)时,处理缺少
的
列
、
、
当数据源
中
缺少一些类型为Option[SeqString]
的
列时,我在编码数据时遇到了一些问题。理想情况下,我希望用None填充缺少
的
列数据。我们将这些拼花文件
中
的
数据加载到一个Dataset
中
,并将其转换为MyType。String], column2: Option[Seq[String]]) org.
apache
.spark.s
浏览 2
提问于2017-01-03
得票数 10
回答已采纳
1
回答
如何在火花中将byte[] of List<Objects>解码为Dataset<Row>?
、
、
、
、
我
在
我
的
项目中使用了火花-SQL2.3.1v,带有java8
的
kafka。我正试图
在
卡夫卡消费端将接收到
的
主题转换为数据集。(companySchema , false),false)我使用序列化将消息以byte[]
的
形式发送到我成功地
在
使用者处接收到消息字节[]。我正试图将其转换为Dataset ??怎么做?true) Dataset&
浏览 2
提问于2020-02-07
得票数 0
回答已采纳
1
回答
如何从日期字符串中提取年份?
、
、
我用
的
是火花2.1.2。import org.
apache
.spark.sql.functions._import org.
apache
.spark.sql.typesunix_timestamp(mydf("date"),"MM/dd/yy").cast(Times
浏览 0
提问于2019-07-18
得票数 2
回答已采纳
1
回答
通过Knox连接到Spark thriftserver
、
、
我正在尝试通过Kerberos (
SparkSQL
发行版是HDP 2.4.2)保护
的
集群
中
的
Knox连接到Hadoop (Spark1.6.2)。我们对Hive有相同
的
架构,它工作得很好。因为Spark使用
的
是同样
的
服务器,所以我认为做同样
的
事情是微不足道
的
,但事实并非如此。通过Knox连接时,Spark thriftserver抛出
的
错误是: 16/10/17 15:25:39 ERROR T
浏览 3
提问于2016-10-17
得票数 1
1
回答
AWS Glue -从目录而不是数据源头派生模式
、
、
我已经
在
AWS目录
中
创建
了一个指向S3位置
的
表。我正在使用AWS读取S3位置
中
的
任何新文件。数据文件将有第一个记录作为头文件。但是,
在
某些情况下,S3
中
有一个空文件正在删除,没有数据,也没有头文件。由于文件也没有任何头部信息,这将导致我
的
ETL作业失败,说“
无法
解决
给定
的
输
入列
”。 我
的
问题是,是否有一种方法可以不从文件头读取模式,而只从AWS
浏览 0
提问于2020-03-25
得票数 1
1
回答
线程"main“org.
apache
.spark.sql.AnalysisException
中
的
异常:
、
、
、
我尝试了一下kafka火花结构化流,但是得到了一些异常,比如线程"main“
中
的
异常:
无法
解析
给定
的
输
入列
:值、偏移量、分区、键、时间戳、timestampType、主题;。附加我
的
代码import org.
apache
.spark.sql.functions._ import org.
apache
.spark.sql.type
浏览 0
提问于2017-07-24
得票数 0
1
回答
添加一个新列来激发数组列表
中
的
数据
、
我试图添加一个新列来激发数据框架,如下所示:我正在尝试将这个ArrayString作为新列添加到dataframe
中
,并尝试对新列执行来源= source.withColumn("newcolumn",sha2(col(Word),256).cast(StringType)) 它已经完成,运行时错误也是我所得到
的
。线程“主”org.
apache
.spark.sql.AnalysisExceptio
浏览 3
提问于2020-04-21
得票数 1
回答已采纳
2
回答
使用带有选项字段
的
case类将数据转换为数据集
、
、
、
lastname: Option[String] = None, age: BigInt) {}{ "name": "bemjamin", "age" : 1 }spark.read.json("example.json")它显示了以下错误: 线程“主”org.
apache
.spark.sql.AnalysisException
中
的
异常:<
浏览 0
提问于2019-03-12
得票数 6
回答已采纳
2
回答
SparkSql
中
的
存储过程/函数
、
、
有没有办法
在
sparksql
中
实现像存储过程或函数这样
的
sql特性? 我了解hpl、sql和hbase
中
的
协处理器。但想知道spark中有没有类似的东西。
浏览 0
提问于2017-03-21
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
SparkSQL内核剖析
教程:Apache Spark SQL入门及实践指南!
SQL概要文件
Spark之SparkSQL
SparkSQL在有赞大数据的实践
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券