腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6161)
视频
沙龙
1
回答
使用
spark-streaming
将
avro
数据
集
加
载到
Teradata
时
出现问题
、
、
、
我尝试通过spark streaming (jdbc)
将
avro
文件的
数据
集
加
载到
Teradata
表中。配置设置正确,加载在一定程度上成功(我可以验证
数据
行是否已插入到表中),但中途开始出现异常,加载失败。堆栈跟踪如下所示。有什么可能导致这种情况的线索吗?ERROR executor.Executor: Exception in task 2.0 in stage 0.0 (TID 0) java.sql.BatchUpdateException: [
Terad
浏览 11
提问于2018-02-09
得票数 0
1
回答
大型bigquery加载作业的最可靠格式
我有一个100 GB的表,我正试图加
载到
google bigquery中。它在GCS上存储为一个100 GCS的
avro
文件。.; Unexpected abort triggered for我在考虑尝试一种不同的格式。我知道bigquery支持几种格式(
AVRO
、JSON、CSV、Parquet等),原则上可以加载这些格式中的任何格式的大型
数据
集
。然而,我想知道在座的任何人是否有经验,在加
载
浏览 0
提问于2019-04-02
得票数 3
1
回答
将
数据
行从
teradata
表加
载到
mysql表
、
在这种情况下,我们需要将
数据
行从
teradata
表加
载到
mysql表中,对于如何开始
使用
它有任何提示吗?可以出口(或其他任何实用工具)帮助? (预先谢谢:)
浏览 3
提问于2014-02-27
得票数 0
回答已采纳
2
回答
Python大容量插入到
Teradata
?默认太慢了
、
、
、
有人要求我
使用
Python脚本来读取文件,加
载到
dataframe中,并将其写入
Teradata
中的一个表中。它可以工作,但它需要3-4分钟来编写一个300行的表。对于
数据
仓库来说,这是一项很小的工作,我们的
Teradata
在处理大量
数据
集
时
工作得很好,但我发现要运行这个脚本需要3分钟的时间。我不认为这是一个系统问题。是否有更好的方法
将
中小型表加
载到
Teradata
中?如果我们在Server中执行此
浏览 8
提问于2020-09-17
得票数 1
回答已采纳
1
回答
使用
快速加载
将
SAS
数据
集
加
载到
Teradata
表中
、
我正在尝试
使用
FASTLOAD实用程序
将
SAS
数据
集
加
载到
teradata
表中。这在某些情况下工作得很好,但我希望分离错误表,并在
teradata
环境中的我自己的/其他
数据
库中创建它们。任何方法都可以
使用
proc sql command或proc append command。提前谢谢。
浏览 5
提问于2013-03-31
得票数 2
1
回答
如何
将
数据
从CSV加
载到
Hive外部表(
Avro
格式)?
、
、
、
、
我试图构建一个直线脚本,
将
存储在HDFS中的CSV文件加
载到
Hive中的外部表中。首先,我创建一个空的外部表:(column string)LOCATION '我已经用以下内容
将
CSV文件加
载到
HDFS中:现在,我想将这个CSV
数据
加载/插入到外部Hi
浏览 4
提问于2020-12-01
得票数 1
2
回答
从
Teradata
读取(甚至连接) Enterprise Guide中非常大(11亿行)的表
、
、
我在SAS企业指南中生活(好吧,工作),正在尝试对
Teradata
中的一个表执行简单的左连接。这个表非常大(700+列,11亿行),到目前为止,我一直通过程序顶部的LIBNAME语句进行连接,然后
使用
通常的PROC SQL来读取
数据
。 我遇到的问题是它的速度非常慢。我
使用
左表上的90行成功地执行了连接,花了3个小时才完成。我想
使用
的实际表大约有15,000行。值得一提的是,我可以在
Teradata
SQL Assistant中运行一个简单的select *查询,这只需要1分钟多一点的时间
浏览 2
提问于2016-07-12
得票数 0
1
回答
通过
Teradata
助手
将
大型CSV插入空表
时
出错
我有一个6G的csv,我正试图将它加
载到
Teradata
中。因此,我启动
Teradata
助手,创建了一个空表,然后打开Import模式,并尝试
使用
(?,?,?,?,?,?,?,?,?,?,?,?在记录614770处读取导入文件
时
出错:引发“System.OutOfMemoryException”类型的异常。我认为这是因为
Teradata
助手在尝试
将
数据
发送到
Teradata</e
浏览 1
提问于2014-12-03
得票数 0
1
回答
我可以在每次加载新
数据
时
在
Teradata
表中创建一个新分区吗
、
、
我有大约95个
数据
集成接口,用于从SAP ECC环境中提取和加载
数据
。每个
数据
集
在单个表中“登陆”到
Teradata
中,随后被处理到一个更具结构化和键值的表中,以供下行
使用
。如果落地
数据
集
无法向前处理,它将被截断,并且在下一个加
载到
来时,新的
数据
集
将
替换落地中的
数据
集
。这一切都不是我设计或开发的,但它造成了很多痛苦以及补救(bug)罚单。我想提出
浏览 3
提问于2013-12-05
得票数 0
2
回答
在Hortonworks中,Sqoop "create-hive-table“不为
Teradata
工作。
、
、
我们
使用
apache
将
数据
从
Teradata
卸
载到
Hortonworks平台中的Hive表,
使用
。 我们试图
使用
Sqoop命令“”从Sqoop创建
Teradata
表。如果
Teradata
中没有Interval/Period
数据
类型,但是如果表包含间隔/周期
数据
类型,则进程
将
正常工作(错误:不支持的
数据
类型)。我也尝试过
使用
“h
浏览 7
提问于2016-11-15
得票数 2
1
回答
如何
使用
informatica
将
字符串从平面文件加
载到
目标表(
Teradata
)中的日期?
、
、
、
我正在尝试
使用
informatica
将
字符串从平面文件加
载到
目标
teradata
表中的日期。但是在这样做的同时,我的工作流成功了,但是
数据
没有加
载到
表中。当我运行调试器
时
,
数据
正在通过,SQ,expression。当我调试目标实例
时
,获取日期字段的“无
数据
可用”。 你们谁能帮我知道如何
将
字符串从平面文件加
载到
teradata
目标表中的日期。
使用
的
浏览 10
提问于2018-07-23
得票数 0
1
回答
从
Teradata
导入SQOOP : Create table Ok,但没有
数据
、
、
、
、
我
使用
sqoop与我的TD
数据
库拨号。当我尝试这样做
时
,一切正常(我的表是在默认的配置单元
数据
库中创建的) -libjars $LIB_JARS \ --connection-manager org.apache.sqoop.
teradata
.TeradataConnManager \ --
浏览 3
提问于2013-07-23
得票数 0
回答已采纳
1
回答
Avro
历元日期时间到bq时间戳
、
我希望
将
存储在GCS中的
Avro
文件中的
数据
加
载到
大型查询表中。
avro
中的两个字段具有datetimc。 我有两个字段的
Avro
文件,其中一个字段具有长类型的Epoch时间值。对于该字段,我希望在
使用
命令行工具或控制台
将
Avro
文件
数据
加
载到
Bigquery表
时
,以“时间戳”格式加载值。例如:我有一个值为1614004223589的列,我希望
使用
命令行工具或控制
浏览 3
提问于2021-02-23
得票数 1
回答已采纳
4
回答
Avro
日期和时间与BigQuery的兼容性?
、
BigQuery通常在加载
Avro
数据
方面做得很好,但是"bq“在时间戳和其他
使用
Avro
logicalType属性的日期/时间字段方面遇到了很多问题。当BigQuery时间戳将其解释为微秒时间戳
时
,我
使用
Avro
类型的时间戳-millis的
数据
就会出现故障。 可以加
载到
时间戳中的时间戳-micros整数在BigQuery日期时间中无效。
Avro
" DATE“类型无法加
载
浏览 3
提问于2016-11-17
得票数 5
回答已采纳
1
回答
通过命令行将
Avro
数据
加
载到
BigQuery?
、
、
我已经创建了一个
avro
-hive表,并
使用
hive insert-overwrite命令
将
数据
从另一个表加
载到
avro
-table中。我可以看到
avro
-hive表中的
数据
,但当我尝试将其加
载到
bigQuery表中
时
,出现错误。我收到的错误:-Error while reading data, error message: The A
浏览 5
提问于2017-12-27
得票数 1
2
回答
SSIS TPT导入错误
、
、
、
、
当我尝试用ssis
将
数据
从excel源加
载到
teradata
,并通过attunity1.2
使用
MicrosoftConnectorforTeradata1.2
时
,我遗漏了什么?[
Teradata
目标值23]错误:启动阶段遇到的TPT导入错误。找不到消息目录操作程序SSIS.Pipeline错误:组件"
Teradata
“(23)失败了预执行阶段,并返回错误代码0x80004005。我的配置是:
Tera
浏览 0
提问于2014-12-11
得票数 0
回答已采纳
1
回答
无法可靠地从
teradata
的结果
集
写入
avro
、
、
我在java中的代码是
使用
结果
集
读取
teradata
,并且正在打印终端中的每一行,但是它没有正确地写入
avro
,也就是说,很少有行因为没有原因而被删除。不存在删除行的模式,我在插入
avro
文件
时
将
每个
数据
类型转换为String。我觉得阿夫罗在我的写作过程中有一个错误,但我想不出来。任何帮助都是非常感谢的。这是密码。
浏览 0
提问于2018-05-02
得票数 0
回答已采纳
2
回答
BigQuery表加载的
avro
模式推断
、
我正在
使用
java,试图
将
avro
文件中的
数据
加
载到
BigQuery中。创建外部表
时
,BigQuery会自动从.
avro
文件中检测架构。在为要加载的
数据
创建常规BigQuery表
时
,是否有一种方法在GCS中指定模式/
数据
文件? 先谢谢你
浏览 1
提问于2018-08-23
得票数 0
回答已采纳
1
回答
AVRO
文件上的Hive外部表只为所有列生成空
数据
、
、
、
、
我试图在一些
使用
Hive external table生成的
avro
文件的基础上创建一个spark-scala。我
使用
的是CDH 5.16,它有hive 1.1,spark 1.6。但是,当我查询
数据
时
,我
将
获得所有列的NULL。我对
avro
文件类型非常陌生。有人能帮我一下吗。下面是我的spark代码片段,我已经
将
文件保存为
avro<
浏览 1
提问于2019-07-17
得票数 2
回答已采纳
1
回答
具有Snappy压缩功能的Parquet格式的红移复制命令
、
、
、
、
我有HDFS格式的
数据
集
,它是以snappy作为压缩编解码器的拼接格式。据我所知,目前Redshift只接受纯文本,json,
avro
格式的gzip,lzo压缩编解码器。或者,我
将
拼图格式转换为纯文本,并
使用
Pig脚本
将
snappy编解码器更改为gzip。 目前有没有一种方法可以直接
将
数据
从地块文件加
载到
Redshift?
浏览 2
提问于2016-03-10
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何将kafka中的数据快速导入Hadoop?
你究竟知不知道大数据开发的工具有哪些?
数据湖和SQL并不矛盾
Apache Spark 2.4 内置的 Avro 数据源实战
深入理解Kafka Connect:转换器和序列化
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券