腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1387)
视频
沙龙
1
回答
Spark
dataframe
将
时间
戳
数据
加
载到
hive
表
时
出现问题
、
、
我正在尝试
将
数据
帧加
载到
配置单元
表
中。但它增加了额外的30分钟。我试过下面的方法 从pyspark导入SparkContext,HiveContext sc = SparkContext()
hive
_context = HiveContext(sc) df_load.write.mode但是在
表
中,它被加载为"2020-09-01 09:30:00“。 如何解决这个问题。
浏览 48
提问于2020-09-01
得票数 0
1
回答
向配置单元
表
加载
数据
时
添加
时间
戳
、
我正在
将
数据
加
载到
Hive
表
中,原始
数据
没有
时间
戳
,如何在
将
数据
加
载到
hive
表
中
时
添加
时间
戳
?
浏览 0
提问于2016-11-04
得票数 0
2
回答
星星之火SQL到蜂巢
表
-日期-
时间
域小时错误
、
、
、
我面临这样的问题:当我输入一个带有
spark
.sql
数据
的
Hive
时间
戳
字段
时
,
时间
被奇怪地更改为21:00:00!我有一个用
spark
.sql读取的csv文件。我读取该文件,将其转换为
dataframe
并将其存储在一个
Hive
表
中。此文件中的一个字段是日期,格式为"3/10/2017“。我想输入的
Hive
字段是格式的(我使用此<em
浏览 1
提问于2017-11-22
得票数 1
回答已采纳
2
回答
从
Spark
Python到Pandas的
时间
戳
往返
、
、
、
如何实现
时间
戳
数据
从
Spark
Python到Pandas的往返转换?我从
Spark
中的
Hive
表
中读取
数据
,希望在Pandas中进行一些计算,然后
将
结果写回
Hive
。只有最后一部分失败了,
将
Pandas
时间
戳
转换回
Spark
DataFrame
时间
戳
。
DataFrame
的d
浏览 14
提问于2017-03-04
得票数 7
1
回答
在HDFS上写入
数据
需要很长
时间
在HDFS上写入文件创建多个零件文件(200)并花费很长
时间
我正在
将
配置单元
表
(使用SqlContext.sql)加
载到
数据
帧1(6K记录)并注册到临时
表
。我
将
临时
表
与另一个配置单元
表
(500万条记录)连接在一起,并加
载到
dataframe
2中。我使用左外部连接更新
dataframe
1和
dataframe
2的值,并尝试
将
dataf
浏览 71
提问于2019-05-18
得票数 2
1
回答
将
配置单元分区
表
加
载到
Spark
Dataframe
、
、
、
、
我使用的是
Spark
1.4.1版本。我正在尝试
将
一个已分区的配置单元
表
加
载到
一个
DataFrame
中,其中在配置单元
表
中按year_week编号进行分区,在这种情况下,我可能有104个分区。但是我可以看到
DataFrame
正在
将
数据
加
载到
200个分区中,我知道这是因为
spark
.sql.shuffle.partitions默认设置为200。我想知道是否有什么好方法可以将我的
Hive</em
浏览 1
提问于2016-03-28
得票数 1
2
回答
如何升级Azure
数据
库中的
Hive
版本
、
、
、
、
org.apache.hadoop.
hive
.ql.metadata.HiveException: java.lang.UnsupportedOperationException:不支持
时间
戳
。/data_analysis/pre-processed/"我在Azure
数据
块中使用
hive
,当我运行命令
spark
_session.conf.get("
spark
.sql.
hi
浏览 4
提问于2020-09-13
得票数 1
1
回答
将
系统
时间
戳
插入到单元
表
中的
时间
戳
字段中
、
、
我正在使用
Hive
0.8.0版本。我希望
将
系统
时间
戳
插入
时间
戳
字段,同时
将
数据
加
载到
单元
表
中。详细内容:我有一个包含两个字段的文件,如下所示:1 John3 Sam 现在,我希望
将
这个文件与额外的列"created_date".一起加
载到
hive
表
中。因此,我创建了带有额外文件的蜂巢
浏览 10
提问于2014-05-29
得票数 2
2
回答
HDP 3.0不能保存表格以保存细胞亚稳态
、
、
、
我不能再用亚稳态保存一个表格来保存
数据
库了。我使用
spark
.sql看到了
spark
中的
表
,但在
hive
数据
库中看不到相同的
表
。我试过这个,但它并不是为了储存蜂巢而储存的。我如何配置蜂巢亚稳态?
将
表
保存为星火目录:
spark
.sql("create table my_table as select
浏览 2
提问于2018-11-15
得票数 1
回答已采纳
1
回答
是否有可能在没有
Hive
的情况下使用带有ORC文件格式的
Spark
?
、
、
、
、
我正在使用HDP 2.6.4,更具体地说,
Hive
1.2.1与tez0.7.0,
Spark
2.2.0。 对
dataframe
进行处理。
浏览 0
提问于2018-06-08
得票数 1
回答已采纳
4
回答
将
火花
数据
存储到蜂巢中:表格不可读,因为“SequenceFile不是块”
、
、
、
我希望使用PySpark
将
数据
保存到一个
Hive
表
中。指出: from pyspark.sql import HiveContext sqlConte
浏览 2
提问于2015-07-17
得票数 9
回答已采纳
2
回答
散列md5: Pyspark和submit在
时间
戳
列上不提供相同的输出
、
、
在PySpark中,我使用md5函数散列一些
数据
格式。df_
hive
=
spark
.sql("select * from db.table1 where day=1") df_
hive
= df_
hive
.select([sqlf.col(
浏览 2
提问于2021-04-26
得票数 1
回答已采纳
1
回答
星星之火
时间
戳
类型不被接受。
、
、
我有一个,其中包含一个字段作为
时间
戳
。我正在
将
数据
存储到创建
hive
外部
表
的HDFS位置。
Hive
表
包含具有
时间
戳
类型的字段。但是,当从外部位置读取
数据
时
,单元是
将
时间
戳
字段填充为
表
中的空白值。我的星星之火
数据
查询: df.select($"ipAddress", $&qu
浏览 2
提问于2018-03-28
得票数 1
回答已采纳
2
回答
蜂巢
表
上的
时间
戳
、
、
、
、
我正在尝试
将
数据
从Oracle加
载到
Hive
,作为拼板。每次加载包含日期/
时间
戳
列的
表
时
,它都会自动
将
这些列转换为BIGINT。是否可以使用sqoop并将
时间
戳
/日期格式加
载到
单元格中?已经尝试过先在蜂巢中创建
表
,然后使用黑斑马来加载
数据
INPATH的拼花文件。仍因错误而失败 “文件XX的第XX列的Parquet模式不兼容:
浏览 0
提问于2017-04-20
得票数 1
回答已采纳
1
回答
在Sparklyr中创建新的
Spark
表
或
数据
框最有效的方法是什么?
、
、
、
、
这个问题是肤浅的,因为它在上面提出,但我希望得到更多的信息,而不是纯粹的效率,所以如果你想编辑我的问题,我对此没有意见…… 我在
Hive
中有一些
表
,我们称它们为Activity2016、Accounts2016我想从2016年的
数据
开始,合并姓名和当前地址的两个
表
,过滤一些活动和帐户详细信息,然后
将
两种不同的方式与2017年的帐户信息合并,特别是统计留在自己地址的人数与更改地址的人数。2)我不应该也可以直接将它发送到已写入的
Hive
表
中吗?什么时候它最终会成为缓存对象、
浏览 15
提问于2017-06-24
得票数 4
回答已采纳
1
回答
使用.saveAsTable()
将
表
保存到配置单元元存储,如何重新加载?
、
、
我在我的
DataFrame
上使用了.saveAsTable,现在它存储在我的HDFS
hive
仓库元存储中。如何将其重新加
载到
Spark
SQL中?我已经删除了我的集群(Azure HDInsight),并创建了一个新的集群,确认了我的
Hive
元存储位置是相同的,并且目录仍然在那里。我需要再次将其作为持久
表
加载,而不是像使用PowerBI/
Spark
连接器那样作为临时
表
加载。到目前为止,我找到的唯一方法是
将
目录重新加
浏览 0
提问于2018-03-19
得票数 1
1
回答
使用Sqoop实现
Hive
表
动态分区加载
、
我有一个名为dept的MySQL
表
,我基于
时间
戳
列ts将其加
载到
配置单元外部
表
dept
表
中,作为增量附加检查列last-value。这可以很好地工作,现在我想根据dept_name和ts列
将
动态分区添加到我的配置单元
表
dept中。 我知道我可以在sqoop之外创建
表
动态分区,但在
将
数据
加
载到
动态分区方面需要帮助。我看过一个使用--
hive
-partition-ke
浏览 22
提问于2016-08-26
得票数 0
1
回答
连接到tableau中的
spark
数据
框
、
、
、
我们试图通过
spark
SQL连接在tableau中生成报告,但我发现我们最终连接到了
hive
meta-store。 如果是这样的话,这种新的
spark
SQL连接有什么优势呢?有没有一种方法可以使用
spark
SQL从tableau连接到持久的
spark
数据
帧。
浏览 0
提问于2016-02-05
得票数 0
2
回答
拼接面板
表
中
时间
戳
coulmn的sqoop导入错误
将
SQL Server
表
映射到拼接台
表
时
遇到错误。我制作了拼图表格,使SQL Server表格与相应的列
数据
类型相匹配。
hive
> select updated_at from
浏览 1
提问于2016-10-03
得票数 0
1
回答
无法使用pyspark
将
dataframe
写入配置单元分区镶嵌
表
、
、
我正在尝试将我的
数据
帧写入分区的
hive
表
中,.
Hive
表
的格式是parquet。 但我无法
将
df写到
Hive
表
中。我正在尝试将我的
数据
帧写入分区的
hive
表
中,.
Hive
表
的格式是parquet。 但我无法
将
df写到
Hive
表
中。
Spark
2.3和分区配置单元
表
当我试图<
浏览 28
提问于2019-05-27
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教程:Apache Spark SQL入门及实践指南!
Spark SQL,DataFrames 以及 Datasets 编程指南
年薪50万+的大数据工程师需要具备哪些技能?
Spark之SparkSQL
大数据技术分享:关于大数据开发学习的技术点
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券