腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
如何控制
红
移
中
数据
量的增加?
、
、
、
我
在
AWS Redshift
中
维护了一个
数据
仓库。最近,
数据
量和速度都有所增加。一种选择是,以更高的成本,水平地继续扩展集群。我想知道是否有任何可用的归档选项,以便我可以像往常一样查询整个
数据
(可能会在查询时间上出现折中),但成本低或没有额外成本?一种选择是直接
从
S3
中
使用外部
表
和查询
数据
,但是用于实现这一目标的工具,比如雅典娜和Glue,也有自己的成本,这也是基于每次查询的。
浏览 2
提问于2018-06-19
得票数 0
回答已采纳
2
回答
将拼图
文件
加载
到Redshift
中
、
、
、
、
我
在
S3
上有一堆拼图
文件
,我想以最优的方式将它们
加载
到
红
移
中
。 将每个
文件
拆分为多个chunks......what是将
数据
从
S3
加载
到Redshift的最佳方式吗?另外,如何在Redshift
中
创建
目标
表
定义?有没有一种方法可以
从
Parquet
中
推断出模式并以编程方式<em
浏览 2
提问于2018-09-06
得票数 6
2
回答
如何将特定的列
加载
到
红
移
谱
中
?
、
、
我试图将特定的列
加载
到Redshift谱
中
,但
数据
似乎是按位置
加载
的,这意味着我为列名所放的内容并不重要。为了使这一点更加具体:create external table spectrum.Foo()LOCATION '
s3
://data/
浏览 3
提问于2017-07-07
得票数 1
回答已采纳
2
回答
将蜂巢
表
迁移到
红
移
、
、
让我稍微解释一下这个场景:我
在
S3
(ORC,
Parquet
)上存储了数百个蜂窝
表
,所以只需要澄清一下HDFS。现在,我有兴趣将其中一些迁移到Redshift来运行一些性能测试。我知道redshift不支持ORC,
Parquet
,所以我需要
创建
一些CSV/JSON来使用COPY命令。我正在考虑使用Hive本身
创建
临时CSV
表
,然后迁移到Redshift。我还在考虑使用Spark来移动这些
数据
。有过这种情况的人吗?
浏览 0
提问于2018-03-14
得票数 1
回答已采纳
2
回答
从
PostgreSQL到AWS
S3
的
数据
移动和RedShift频谱分析
、
、
、
、
我有大量不同模式的PostgreSQL
表
,以及其中的大量
数据
。 我现在无法进行
数据
分析,因为
数据
量相当大--一些TB的
数据
和PostgreSQL无法
在
合理的时间内处理查询。我正在考虑以下方法--我将使用Apache处理我的所有PostgreSQL
表
,
加载
DataFrames并将它们存储为AWS
S3
中
的
Parquet
文件
。然后,我将使用RedShift谱来查询存储在这些拼花
浏览 0
提问于2018-11-05
得票数 1
回答已采纳
2
回答
AWS Glue ETL作业失败,返回AnalysisException: U‘’Unable to推断拼花面板的架构。必须手动指定。;‘
、
、
、
我正在尝试
创建
AWS Glue ETL Job,将
数据
从
存储
在
S3
中
的拼图
文件
加载
到
红
移
表
中
。拼图
文件
是使用带有‘简单’
文件
模式选项的pandas编写到一个
S3
bucked
中
的多个
文件
夹
中
的。/
parquet
_table/01/
浏览 1
提问于2017-11-14
得票数 3
1
回答
AWS
数据
湖
、
、
、
、
还是允许胶水
在
您的
数据
湖
中
爬行
s3
桶以使用这些
数据
格式? 我已经浏览过"“文档,我不得不绞尽脑汁地想要把
数据
输入湖里。我有一个
数据
提供程序,它以excel和access
文件
的形式存储在他们的系统
中
。基于流程流,他们会将
数据
上载到提交
s3
桶
中
,这将引发一系列操作,但没有将
数据
转换为与其他工具一起工作的格式。使用这些
文件
是否需要对
在
浏览 4
提问于2017-09-21
得票数 2
回答已采纳
2
回答
是“插入选择”,不受
红
移
中
的竞赛条件影响。
、
、
、
我们有一个
数据
仓库系统,需要将
s3
上以csv格式显示的
数据
加载
到
红
移
表
中
。唯一的限制是只有唯一的记录被插入
红
移
。
创建
一个临时
表
。将
S3
文件
复制到TEMOPRARY
表
中
。开始交易 插入到{主
红
移
表</em
浏览 2
提问于2016-05-09
得票数 0
1
回答
将两个分区
文件
夹合并到一个
表
中
、
、
我使用拼图
文件
格式
从
2个
红
移
表
中导出
数据
。')credentials 'aws_access_key_id=xxx;aws_secret_access_key=xxxx'
PARQUET
PARTITION BY (senderid) include;
数据
是按senderid分区
浏览 27
提问于2020-12-15
得票数 0
回答已采纳
2
回答
红
移
谱显示所有行的空值。
当我
在
雅典娜查询编辑器
中
运行这个查询时,它可以正常工作。drop schema "athena_schema"; create external schema athena_schema from d
浏览 1
提问于2019-10-03
得票数 3
回答已采纳
2
回答
将日期为
S3
的.
parquet
文件
复制到Redshift
、
、
、
我正在尝试
从
S3
中
使用COPY命令将.
parquet
文件
加载
到我的
红
移
数据
库
中
。 该
文件
包含一个日期格式为2018-10-28的列。Redshift中表
中
的相关字段定义为date。源spark
数据
帧将字段显示为datetime64,并将其转换为pandas,因为它是时间戳。使用简单的COPY dates FROM
s3
://mybucket
浏览 4
提问于2019-08-30
得票数 0
1
回答
将拼花
文件
复制到具有逗号分隔
数据
的Redshift
中
的错误
、
、
、
我试图将位于
S3
中
的拼花
文件
复制到Redshift,但由于一列中有逗号分隔的
数据
,它失败了。有谁知道如何在地板
文件
中
处理这样的场景吗?
文件
中
的
Parquet
数据
示例"column_2" : "data2"COPY schema.tabl
浏览 10
提问于2022-11-29
得票数 0
1
回答
无效数字,值‘“,Pos 0,键入:
红
移
中
的十进制
、
、
、
、
在
尝试将
数据
从
AWS
S3
加载
到
红
移时,我面临十进制类型
红
移
表
中
任何列的问题。我能够
加载
非十进制数字
在
红
移
,但不能
加载
数据
类型,如数字(18,4)。
S3
中
的DF模式:整数,B字符串,C小数(18,4),D时间戳
红
移
表
模式
浏览 1
提问于2021-04-05
得票数 1
回答已采纳
1
回答
我可以强制Redshift不对特定的外部架构使用Lake权限吗?
、
'location '
s3
://mybucket/folder1/LATEST_redshift_external_location_manifest.json'
在
我的例子
中
,IAM角色ruben_redshift_external 具有完全访问
S3
、
浏览 4
提问于2021-08-12
得票数 1
1
回答
具有Snappy压缩功能的
Parquet
格式的
红
移
复制命令
、
、
、
、
我有HDFS格式的
数据
集,它是以snappy作为压缩编解码器的拼接格式。据我所知,目前Redshift只接受纯文本,json,avro格式的gzip,lzo压缩编解码器。或者,我将拼图格式转换为纯文本,
并
使用Pig脚本将snappy编解码器更改为gzip。 目前有没有一种方法可以直接将
数据
从
地块
文件
加载
到Redshift?
浏览 2
提问于2016-03-10
得票数 5
回答已采纳
3
回答
S3
到
红
移
复制命令
、
、
、
我正在尝试使用copy命令将一些
数据
从
S3
存储桶复制到
红
移
表
中
。该
文件
的格式为
PARQUET
。当我运行执行复制命令查询时,我得到InternalError_:频谱扫描错误。如果对此有解决方案,请帮助我。我
在
python中使用boto3。
浏览 3
提问于2020-03-30
得票数 5
回答已采纳
1
回答
红
移
频谱查询-
S3
查询层
中
内存不足的请求
、
、
、
数据
以按日分区的
S3
格式存储。
红
移
频谱查询
在
错误下面返回。我无法
在
aws中找到有关这方面的任何相关文档。
S3
查询层
中
的请求内存不足
浏览 2
提问于2018-10-18
得票数 0
回答已采纳
1
回答
我们是否可以使用copy命令使用访问密钥和密钥将
数据
从
S3
加载
到
红
移
表
中
(无需使用IAM角色)
、
、
我有一个需求,我需要将
数据
从
S3
加载
到
红
移
表
中
。
S3
中
的
文件
是拼图格式的。我没有IAM策略,但有
S3
访问密钥和密钥。注意事项: Redshift和
S3
在
两个不同的亚马逊网络服务账户
中
,然而这两个账户
在
同一个地区。我尝试过的: copy abc from '
s3
://
浏览 0
提问于2020-05-22
得票数 1
1
回答
如何在
红
移
光谱
中
创建
嵌套拼花类型的外部
表
、
、
我知道
红
移
和
红
移
光谱不支持嵌套类型,但我想知道有什么技巧可以绕过这个限制,用
红
移
光谱在
S3
中
查询我们的嵌套
数据
?在这个中,他展示了如何对JSON
文件
执行此操作,但对
Parquet
则不同。我们有没有其他技巧可以应用在拼图
文件
上?实际的Schema类似于:(由AWS-Glue爬虫提取)
浏览 8
提问于2018-02-06
得票数 0
1
回答
将csv
数据
加载
到Redshift
中
、
、
、
、
我正在使用Kinesis消防软管处理
数据
为
红
移
,我正在尝试Json和Csv格式。
从
'
s3
://foldername/‘凭据’products_json _iam_role=arn:aws::/‘json 'auto';
中
复制 命令放入记录
浏览 6
提问于2017-02-28
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券