有没有办法把一个Gzipped文件从亚马逊S3加载到Pentaho Data Integration (Spoon)?有一个“文本文件输入”,它有一个支持Gzip的压缩属性,但是这个模块不能作为源连接到S3。
有一个“Gzipped输入”模块,但是没有压缩属性,所以它不能将S3压缩的内容解压缩成表格形式。此外,也无法将数据从S3保存到本地文件。下载的内容只能“跳转”到另一个步骤,但没有一个步骤可以读
我在S3存储桶里放了一堆CSV压缩文件,我想把它们导入到BigQuery中。从文档中看,BQ可以从不同的来源导入gzipped数据。然而,当我配置数据传输作业时,它只允许CSV、JSON、AVRO、PARQUET、ORC文件格式。将传输作业配置为CSV文件格式并运行后,它会记录以下内容:
Moving data from Amazon S3 to Google Cloud complete: Moved 64 obj