腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
select
from
parquet
表
在
配置
单元
中
不
返回
任何
内容
、
、
(“employee.
parquet
”)create external table employees (a String, b String, c Int) stored as
PARQUET
location
浏览 4
提问于2016-07-28
得票数 0
1
回答
配置
单元
表
在
查询时显示0个结果
、
我的
配置
单元
表
是一个托管
表
,我可以看到HDFS
中
存在的文件。当通过
配置
单元
查询时,它不显示
任何
结果。| numRows | gzip |
parquet
.compression| 1612857428 | transient_lastDdlTime
浏览 10
提问于2021-02-10
得票数 0
1
回答
配置
单元
外部分区
表
、
、
、
首先,我创建了按代码和日期分区的
配置
单元
外部
表
(SAL BIGINT,INPUTFORMAT "
parquet
.hive.DeprecatedParquetInputFormat"LOCATION '&
浏览 2
提问于2014-11-03
得票数 6
回答已采纳
1
回答
需要替换存储
在
hdfs
中
的地块文件
中
的控制字符
、
、
、
我正在将数据作为拼图文件从MySQL导入hdfs,并在其上构建一个
配置
单元
外部
表
,但该文件
中
几乎没有不需要的控制字符,这些字符也被加载到
配置
单元
表
中
。我需要用一个空字符串替换它们。以下是
返回
问题的spark代码。PYSPARK代码:# using SQLContext to read
parquet
file
from
pyspark.sql imp
浏览 3
提问于2017-12-02
得票数 0
2
回答
在
拼图文件上创建Hive
表
失败-我哪里出错了?
、
、
、
我要把数据帧保存到拼图文件
中
。生成的模式如下所示:"type":"struct", { "name":"rule", "nullable":true, "m
浏览 0
提问于2017-11-08
得票数 0
1
回答
hadoop/hdfs
中
的默认存储文件格式
、
、
我希望对其进行
配置
,以便每当将文件复制到集群(通过copyFromLocal或使用sqoop等)时,hadoop/hdfs应该以拼板文件格式存储数据。 这件事我期待的对吗?有可能吗?我认为应该有一个hdfs级别的
配置
参数,在那里我可以指定在存储数据时使用哪种格式,但不知怎么找不到。想知道我是不是漏掉了什么东西。
浏览 2
提问于2015-11-06
得票数 1
回答已采纳
1
回答
如何将数据从拼图文件导入到现有的Hadoop
表
?
、
、
我
在
Hadoop集群
中
创建了一些
表
,我有一些带有数据的拼板
表
可以放入其中。我该怎么做?我想强调的是,我已经有了一些DDL命令创建的空
表
,并且它们也存储为
parquet
,所以我不需要创建
表
,只需要导入数据。
浏览 4
提问于2021-12-10
得票数 -1
3
回答
在
配置
单元
中将空白转换为NULL
、
我试图通过设置属性'serialization.null.format' = ''将源文件
中
的空白值转换为
配置
单元
表格
中
的NULL。我
在
hive
中
编写的查询是: create table test(a int, b string) stored as
parquet
TBLPROPERTIES('serialization.null.format
浏览 3
提问于2016-04-01
得票数 3
1
回答
创建具有多个parquets的
配置
单元
、
、
我正在创建的
配置
单元
表
应该只从2014q1到2020q2拉取数据。我该如何实现这一点?
浏览 16
提问于2020-08-29
得票数 0
1
回答
我能否将集群A
中
的Hive
表
与集群B
中
的Hbase
表
连接起来
、
我的客户有一个计算场景,一些数据存储
在
集群A的Hive
中
,另一些数据存储
在
集群B的Hbase
中
,然后他们想要对这两种
表
进行一些连接操作。那么有没有一种方法可以让我
在
Hive
中
这样做:
配置</em
浏览 1
提问于2018-05-26
得票数 1
1
回答
在
配置
单元
表
中加载拼图文件将
返回
全部为空
、
、
我有几个文件存储
在
HDFS
中
,我正在尝试
在
hive
中
创建一个新的外部
表
,它应该指向这些数据文件。所以,我
在
hive
中
创建了一个表格-ORDERID INT, CUSTOMER_ID INT,STATUS STRING)LOCATION 'hdfs:///user
浏览 0
提问于2016-10-18
得票数 0
2
回答
将Spark SchemaRDD保存到
配置
单元
数据仓库
、
很容易将Json登录到spark schemaRDD
中
,并且有一个用于schemaRDD的saveAsTable方法,但它只适用于从HiveContext创建的schemaRDD,而不适用于从常规SQLContext有没有办法强制它与HiveContext“绑定”并保存到Hive
中
?我看不出有什么明显的原因是做不到的。我知道有像saveAsParquetFile这样的数据持久化选项,但我们真的很想利用Hive。
浏览 0
提问于2014-09-15
得票数 4
1
回答
如何使用Trino读取位于s3上的拼花文件?
我安装Apache-钻,
在
盒子里他有s3 conector。
在
Apache
中
,演练一种用法若要从文件拼板中选择所有
内容
,请执行以下操作。我要在Trino(Presto)
中
这样做,但我没有结果(有错误)。我怎么能在Trino(Presto)里做同样的事?:当我创建带有选项external_location和格式的外部
表
时,我可以从中选择
浏览 9
提问于2022-06-27
得票数 1
回答已采纳
5
回答
如何在Hive中将数据插入到拼图表格
中
、
、
我有一个简单的文本
表
(用",“分隔),格式如下:CREATE TABLE
parquet
_test (orderID INT, CustID INT, OrderTotal FLOAT, ROW FORMAT SERDE '
浏览 0
提问于2014-04-18
得票数 7
2
回答
通过sparkSQL创建蜂窝
、
、
、
我对蜂巢
中
的扣环有一个疑问。我已经创建了一个临时
表
,该
表
在
列关键字上存储桶。当我检查这个
表
的基目录时,它显示了前缀为part_*的文件名。但是,当我通过另一个
表
手动将数据插入到这个
表
中
时,我看到了以00000_*为前缀的文件。 我不确定spark sql是否将数
浏览 1
提问于2018-08-02
得票数 5
1
回答
使用Amazon Athena复制时,为什么
Parquet
文件变小
、
、
、
、
我有一个由Hive填充的Hive分区
表
,并作为拼图存储
在
S3上。特定分区的数据大小为3 3GB。然后我用雅典娜复制一份: CREATE TABLE tmp_partition
FROM
original_table 'org.apache.hadoop.hive.ql.io.
parquet</em
浏览 14
提问于2019-05-16
得票数 0
1
回答
HIve:由于“顶点由于OWN_TASK_FAILURE没有成功”而导致
表
创建失败
、
尝试另一个来自Table_1的Table_1CREATE TABLE Table_2FIELDS TERMINATED BY',' STORED AS INPUTFORMAT OUTPUTFORMAT 'org.apache.had
浏览 0
提问于2019-06-07
得票数 2
回答已采纳
1
回答
即使地块文件包含数据,外部未分区的
配置
单元
表
也会显示0条记录,使用spark.read.
parquet
读取时会显示正确的数据
、
我
在
Azure DataBricks上创建了一个外部的未分区
配置
单元
表
。LOCATION '/mnt/data/reference/data/DATE_FILE' '
parquet
.compress'='SNAPPY' )
在
我从其他位置复制的位置上当我执行
select
*
from
reference.da
浏览 3
提问于2021-01-16
得票数 1
回答已采纳
4
回答
parquet
上的
配置
单元
外部
表
未获取数据
、
、
、
、
我正在尝试创建一个datapipeline,其中的收入数据被存储到拼图中,并且我创建了一个外部的hive
表
,用户可以查询hive
表
并检索数据,.I能够保存拼图数据并直接检索它,但是当我查询hive
表
时,它不会
返回
任何
行。/emp’ 现在在一些数据上创建了dataframe并保存到
parquet
。
from
parquet
sqlcon
浏览 47
提问于2018-12-14
得票数 1
回答已采纳
1
回答
无法将数据从地块文件加载到
配置
单元
外部
表
、
、
、
._ import org.apache.spark.sql.SaveMode HDFS状态:然后,我已经使用下
浏览 6
提问于2017-08-15
得票数 0
回答已采纳
点击加载更多
相关
资讯
Hive底层数据存储格式详解
ByConity 技术详解:Hive 外表和数据湖接入实践
移位溢注:告别依靠人品的偏移注入时代
程序员必备:30个MySQL数据库常用小技巧,值得收藏!
Spark之SparkSQL
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券