腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2116)
视频
沙龙
2
回答
在
dataproc
集群
中
,
将
Sqoop
导入到
avrodatafile
或
Parquet
文件
失败
当我们
在
GCP
dataproc
集群
中
对
avrodatafile
或
parquetfile运行
sqoop
import时,它会
失败
,并显示以下错误。但是,
导入到
文本
文件
是有效的。使用的命令: gcloud
dataproc
jobs submit hadoop \ --region=us-centra
浏览 103
提问于2019-10-02
得票数 1
1
回答
如何使用
Sqoop
将
数据保存为
parquet
avro
文件
格式?
、
、
、
我需要将数据从关系数据库移动到HDFS,但我希望
将
数据保存为
文件
格式。看一下,我的选项似乎是--as-parquetfile
或
--as-
avrodatafile
,但不是两者的混合。根据我对下面这个/picture的理解,
parquet
-avro的工作方式是,它是一个嵌入了avro模式的镶嵌
文件
,以及一个转换和保存avro对象到镶嵌
文件
的转换器,反之亦然。我最初的假设是,如果我使用
sqoop
选项--as-parquetfile,那么保存到<em
浏览 21
提问于2017-03-14
得票数 0
3
回答
将
Avro转换为
Parquet
格式
、
、
、
、
我想从数据库中导出数据,并转换为Avro +
Parquet
格式。
Sqoop
支持Avro导出,但不支持拼图。我尝试使用Apache Pig,Apache Crunch等
将
Avro对象转换为
Parquet
,但都没有结果。Apache Crunch总是抛出:java.lang.ClassNotFoundException: Class Hadoop not found“,尽管我将它添加到了Hadoop lib路径
中
。
浏览 5
提问于2014-05-06
得票数 2
1
回答
Sqoop
1.4.7和Hadoop 2.7.3以Avro的形式导入数据
失败
、
、
、
、
我正在处理的问题是,我试图使用Apache
将
大量数据从前提下的PostgreSQL从副本
导入到
的Avro格式。导入默认格式的数据可以正常工作,但我的数据池需要将数据导入Avro格式,但是由于过去多次报告的原因,这一直
失败
,举个例子: 我试图按照上述问题中的指示使用参数-Dmapreduce.job.user.classpath.first: org.apache.avro.reflect.ReflectData.addLogicalTypeConversion(Lorg/apache/avro
浏览 0
提问于2019-01-31
得票数 2
回答已采纳
1
回答
Sqoop
: Avro与Gzip Codec
失败
、
、
当尝试使用
Sqoop
和-as-
avrodatafile
和GzipCodec
将
表
导入到
HDFS时,它在下面的异常
中
失败
,我运行的是CDH7 Cloudera快速启动对接程序映像。注意事项:Gzip
在
没有-as
avrodatafile
开关的情况下工作。at org.apache.avro.file.CodecFactory.fromString(CodecFactory.java:102) at org.apache.
sqoop<
浏览 1
提问于2018-03-04
得票数 1
回答已采纳
2
回答
创建
DataProc
集群
时出现问题:组件游标器未能激活后hdfs
、
、
我正在使用
Dataproc
集群
设置来测试所有特性。我已经创建了一个
集群
模板,几乎每天都在使用creation命令,但是本周它停止了工作。/solr2,
dataproc
:ranger.cloud-sql.instance.connection.name=gcp-project:us-central1:ranger-metadata,
dataproc
/
sqoop
/
sqoop
.sh \ --metadata livy-timeout-sess
浏览 10
提问于2022-03-03
得票数 2
1
回答
在
sqooping数据之后,配置单元抛出错误
、
、
、
、
我想将数据从数据库
导入到
HDFS
中
,然后填充hive表。我不能使用
sqoop
import --hive-import,因为
sqoop
会将数据从--target-dir移动到配置单元的metastore目录。因此,我必须创建hive模式
sqoop
create-hive-table,
将
hive表转换为
parquet
SET FILEFORMAT
parquet
,
将
hive表的位置更改为指向HDFS
中
合适的
文件
浏览 1
提问于2017-05-12
得票数 0
1
回答
如何
将
Avro作为数据
文件
使用
Sqoop
增量加载数据?
、
、
、
获取以下错误:gcloud
dataproc
jobs submit hadoop \ --cluster='
sqoop
-gcp-ingest-d3' \ --class=or
浏览 0
提问于2019-08-16
得票数 2
2
回答
表未使用
sqoop
导入-all创建。
、
、
我可以看到具有.avro扩展名的所有数据
文件
的正确目录结构,但是当我登录到HIVE &执行显示表时,
在
retail_avro.db模式下没有表。
sqoop
import-all-tables \--connect "jdbc:mysql://quickstart.cloudera:3306/retail_db" \--warehouse-dir=/user/hive/ware
浏览 5
提问于2016-12-31
得票数 1
回答已采纳
1
回答
在
AWS EMR
中
作为avro导入时
Sqoop
失败
、
、
我正在尝试
在
Amazon EMR(Hadoop2.8.5
sqoop
1.4.7)
中
执行
sqoop
import。当未指定avro选项(--as-
avrodatafile
)时,导入会进行得很好。但是一旦设置好,作业就会
失败
,因为 19/10/29 21:31:35 INFO mapreduce.Job: Task Id : attempt_1572305702067_0017_m_000000
在
本地(
在
我的机器
中
)运
浏览 27
提问于2019-10-30
得票数 0
1
回答
蜂巢导入与导入AVRO格式不兼容。
、
我有以下代码: --username root \ --compression-codec org.apache.org.io.compress.GzipCodec \ --as-
avrodatafile
蜂巢导入与
导入到
AVRO格
浏览 0
提问于2018-02-23
得票数 1
1
回答
Dataproc
Spark 3.1
中
的
Sqoop
和Avro依赖问题
、
、
、
我正在
将
GCP
Dataproc
中
的spark 2.4.7升级到spark 3.1。我正在执行
sqoop
import并将数据加载到
Parquet
文件
。该代码
在
Spark 2.4.7版本上运行良好,但在Spark 3.1
中
出现以下错误。(
Sqoop
.java:182)
浏览 21
提问于2021-01-29
得票数 1
回答已采纳
1
回答
使用导入Bigtable
中
的CSV数据
、
我试图使用
Dataproc
集群
的一个实例
将
大型CSV
文件
导入到
HDFS,然后将它们导出为格式,最后
将
最新版本
导入到
Bigtable,如下所述:我似乎无法让HBase shel
浏览 4
提问于2015-09-30
得票数 3
1
回答
Datalake环境下
Dataproc
元数据存储的功能
、
、
、
在
Google环境
中
,
Dataproc
Metastore服务用于什么?所以最近推出了
Dataproc
Metastore,所以这是一个高兼容的Metastore。它是基于高Metastore。因此,这将允许您注册数据,特别是结构化数据,以便您可以使用Spark、PRESTO
或
Hive查询数据。目前,我无法找到
将
数据目录
中
的条目同步到Metastore的方法(我知道从Metastore同步数据到数据目录是可能的)。更新1: 这是从GCS加载
Parquet</em
浏览 15
提问于2022-05-10
得票数 4
5
回答
无法导入表
、
、
我
在
sqoop
上运行命令。
sqoop
import --connect jdbc:mysql://localhost/hadoopguide --table widgets 我的
sqoop
版本:
Sqoop
1.4.4.2.0.6.1所有的路径,如HADOOP_HOME,HCAT_HOME,
SQOOP
_HOME都是正确设置的。通过
在
sqoop
中
运行list-database、list -table命令,我可
浏览 7
提问于2014-02-06
得票数 3
3
回答
Apache
Sqoop
和Spark
、
为了
将
大量SQL数据加载到Spark & ML
中
,下面哪个选项的性能更好。请建议以上哪一种方法可以很好地
将
大型SQL数据加载到Spark。
浏览 12
提问于2015-11-18
得票数 3
回答已采纳
3
回答
使用带有--as-
avrodatafile
选项的
Sqoop
时的日期字段问题
、
环境: Hadoop 2 (CDH5.1)数据库: oracle 11g 场景:我
将
事实表和维度表从数据库
中
sqooping到hdfs
中
。最初,我
在
处理空值(使用--null-string和--non-null-string处理)时遇到了挑战,根据建议将其设置为\N。我已经
在
avro数据上构建了hive表,并且我能够查询表。现在,我需要创建配置单元连接,并将所有字段转换为它们所需的类型,如日期为日期/时间戳,数字为int/bigint等。我不明白
sqoop
是如何处理空
浏览 1
提问于2014-08-27
得票数 2
1
回答
直接在GCP
dataproc
集群
上启动的交互式pyspark会话默认表单元的错误
、
、
、
、
在
GCP上,我有时会收到这样的消息从我所做的研究
中
,我了解到这与蜂箱表有关。我没有任何特殊的选择来启用蜂巢
或
定位蜂巢。我没有显式地使用hive,我只是在读取
parquet
文件
,而我的所有SQL都是通过pyspark接口来实现的,比如 df = spark.read.
parquet
('gs://path/to
浏览 0
提问于2019-01-23
得票数 1
1
回答
Sqoop
增量导入“无法
将
文件
追加到目标dir”
、
、
、
我
在
使用
Sqoop
将
数据从MySQL
导入到
Hive时遇到了问题。database.db/datatable \返回此错误:
文件
以这种方式位于/user/root/_
sqoop
浏览 0
提问于2015-01-14
得票数 1
1
回答
火花"basePath“选项设置
、
、
当我这么做时: 我是星火的新手。我相信我的数据源实际上是“
文件
夹”的集合(类似于base/to
浏览 4
提问于2016-11-15
得票数 8
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Sqoop是什么,与Flume有何不同?
利用sqoop将hive和mysql数据互导入
0487-CDH6.1的新功能
“读字节聊大数据”进入大数据领域的学习路线是什么?
Sqoop使用流程
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券