腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
无法从HBase访问运行在安全集群上
的
数据库?
、
、
、
、
尝试从Windows
中
的
Eclipse程序连接到Windows。如何在类路径
中
设置hbase-site.
xml
?我下载了*site.
xml
文件,尝试将hbase-site.
xml
, core-site.
xml
and hdfs-site.
xml
作为source文件夹添加
浏览 4
提问于2016-11-18
得票数 0
1
回答
scala
中
的
xml
to
DataFrame
、
、
、
、
目前在我
的
scala
项目中,我使用kafka通过spark-streaming接收
xml
数据。我用一种简单
的
方式来做:lines.foreachRDD(rdd => { println(record)}) 在此之后,我必须将我
的</
浏览 8
提问于2017-03-06
得票数 0
2
回答
在数据库中将
XML
字符串转换为Spark
Dataframe
、
、
、
如何从包含
XML
代码
的
字符串构建Spark
dataframe
?如果代码保存在一个文件
中
,我可以很容易地做到这一点 .options(rowTag='my_row_tag')但是,如前所述,我必须从包含常规
XML
的
字符串构建数据帧。
浏览 1
提问于2020-04-21
得票数 0
1
回答
Spark
Scala
-将
Dataframe
中
包含
XML
的
列转换为多列
、
、
我有一个包含两列
的
dataframe
,一个pk和一个
xml
字符串。我需要将
xml
字符串转换为此数据框
中
的
列。/
浏览 0
提问于2019-07-24
得票数 1
1
回答
Spark
DataFrame
到
xml
文件
、
、
、
我是
Scala
/Spark编程
的
新手,我需要将
DataFrame
保存为
XML
文件,我从HQL (Hive)查询
中
获取
DataFrame
。它是一个简单
的
DataFrame
(没有数组或其他复杂类型) 我已经研究并找到了spark-
xml
库,但是这个库似乎不能解决这个问题。
浏览 32
提问于2019-03-10
得票数 0
回答已采纳
1
回答
如何将
XML
声明添加到使用Spark数据块编写
的
XML
文件
中
、
、
我想使用spark
中
的
Scala
创建一个带有CSV/
Dataframe
的
XML
声明
的
XML
文件。我正在使用Databricks spark库将
DataFrame
转换成
XML
格式。示例代码.format('com.databricks.spark.
xml
') \ .option
浏览 0
提问于2018-07-02
得票数 1
1
回答
使用DBR 7.3.x+将
XML
文件加载到PySpark
中
的
数据帧
中
、
、
、
、
我正在尝试使用databricks notebook
中
的
PySpark将
XML
文件加载到
dataframe
中
。df = spark.read.format("
xml
").options().load(filePath) 在这样做
的</e
浏览 40
提问于2021-01-11
得票数 1
1
回答
在对SnappyData运行JUnit时找不到Jetty
的
GzipHandler类
、
、
SnappyData v.0-5**java.lang.NoClassDefFoundError: org/eclipse/jetty/server/handler<init>(SparkContext.
scala
:499) 我
的
pom.<e
浏览 6
提问于2016-08-06
得票数 1
1
回答
在码头集装箱齐柏林飞艇运行火花时未发现lzo
、
、
、
同样
的
问题与齐柏林飞艇嵌入式火花和从我自己安装
的
火花外壳(1.6.3) compression
浏览 0
提问于2016-12-30
得票数 2
回答已采纳
1
回答
将Apache Spark
xml
从2.11迁移到2.12给出了直接使用xmlReader
的
以下warning.How
、
、
、
、
代码: val xmlDf:
DataFrame
= spark.read .option("nullValue", "") .
xml
(df.select("payload").map(x => x.getString(0))) 警告:类XmlDataFrameReader
中
的
方法
xml
已弃用(从0.13.0开始):直接使用XmlReader .
xml<
浏览 31
提问于2021-10-07
得票数 0
1
回答
用CLIXML实现星火数据
、
、
当我试图使用spark函数进行提取时,我没有得到正确
的
模式,而且记录已经损坏。 import com.databricks.spark.
xml
._import com.databricks.spark.
xml
.functions.from_
xml</em
浏览 4
提问于2021-12-15
得票数 2
1
回答
scala
中一些$字符串
的
输出是什么?
我正在使用spark和
scala
,并在在线文档中看到了以下内容$"name“在这里是什么意思?
浏览 4
提问于2017-02-23
得票数 14
回答已采纳
1
回答
使用databricks在Spark(
scala
)中生成带有属性和值
的
XML
、
、
、
、
我想在
scala
spark
中
从CSV/
DataFrame
创建一个嵌套
的
XML
。我使用Databricks spark-
XML
库将
DataFrame
转换为
XML
格式。我尝试创建如下所示
的
输出,但无法实现<row></row>我尝试
浏览 15
提问于2018-02-23
得票数 0
回答已采纳
5
回答
如何检查是否缓存了我
的
RDD或
dataframe
?
我已经创建了一个
dataframe
,比如df1。我通过使用df1.cache()来缓存它。如何检查这是否已缓存?还有一种方法,使我能够看到所有缓存
的
RDD或数据文件。
浏览 9
提问于2015-09-07
得票数 22
回答已采纳
1
回答
在Apache Spark 2.1.0
中
使用Except on
DataFrame
、
、
在Spark shell
中
,我创建了一个包含三个字符串
的
简单
DataFrame
:"a“、"b”、"c“。将Limit(1)分配给数组,从而正确地生成row1 (A)。然后,将row1用作grfDF
DataFrame
生成tail1上
的
extend方法
的
参数。tail1不应该是数组(b,c)
的
新
DataFrame
吗? 为什么tail1仍然包含"a“而去掉了"b”?
scala
> gr
浏览 2
提问于2017-04-19
得票数 0
1
回答
如何将multipleColumns文件
中
的
XML
转换规则传递给Spark
中
的
Dataframe
?
、
、
、
、
我有
XML
文件,其中包含使用withColumn函数在
DataFrame
上运行
的
所有转换,如下所示:如何在
DataFrame
上应用它。我有一个使用
Scala
ToolBox和runTmirror编写
的
代码,它在内部编译代码并在
DataFrame
上运行这些规则。它能很好地工作在不到100列
的
地方。但是现在需求已经改变了,列
的
数量从80列增加到210列,所以这段代码失败了,应该是StackOverflow error。这是
Scal
浏览 0
提问于2019-08-31
得票数 0
回答已采纳
1
回答
Spark中区分大小写
的
拼图模式合并
、
我使用schemaMerge加载文件,因为较新
的
文件有一些额外
的
列。此外,一些文件
的
列名是小写
的
,而其他文件
的
列名是大写
的
。integer,我遇到了一个关于ParquetFileFormat类
的
inferSchema方法
的
问题。模式合并被委托给spark sql
的
StructType merge方法。据我所知,该方法只能以区分大小写
的
方式工作。在内部,它使用映射按名称查找字段,如果大
浏览 23
提问于2019-07-31
得票数 4
回答已采纳
2
回答
简单sparksql联接查询
中
丢失
的
执行器
、
、
我正在运行一个简单
的
sparkSQL查询,它在两个数据集上进行匹配,每个数据集大约是500 is。所以整个数据都在1TB左右。失败
的
地方!我知道我不是在缓存一个巨大
的
数据,它只是一个数字,为什么它在这里失败了。(
DataFrame
.
scala
:1903) at org.apache.spark.sql.
DataFrame
.collect(
DataFrame
.
scala
:1384) org.apache.spark.sql.
DataFrame</
浏览 3
提问于2016-10-17
得票数 1
回答已采纳
1
回答
Spark:加载或选择ORC格式
的
配置单元表
、
、
、
、
我正在尝试加载一个用spark sql以ORC格式创建
的
托管配置单元表。
DataFrame
.
scala
:1505) at org.apache.spark.sql.
DataFrame
.head(
DataFrame</
浏览 21
提问于2017-04-20
得票数 3
1
回答
运行火花-使用Gradle从Intellij
中
移出红移
、
对象
的
main方法
中
运行上述代码时所收到
的
错误:at org.apache.spark.sql.
DataFrame
.take(
DataFrame
.
scala
:1377) at org.apache.spark.sql.
Da
浏览 4
提问于2015-11-04
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
《Scala 语言》Scala 中的 Actor 编程
在java中解析xml
如何在PHP中解析XML
怎么去掉 IDEA中XML 显示的屎黄色
Scala的函数
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券