腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
Python
-
CSV
文件
到
Dict
的
数据流
模板
、
、
、
、
我正在尝试使用Dataflow
模板
和
Python
将
CSV
文件
处理成字典。我所需要
的
就是能够提取这个文本/
csv
文件
的
第一行,然后我就可以在DictReader中使用这个数据作为字段名。如果我使用拆分行,它将在列表中
浏览 6
提问于2018-07-31
得票数 0
回答已采纳
1
回答
将大查询中
的
日期格式从DD-MM-YYYY转换为YYYY-MM-DD,使用'text files on cloud storage to big query‘
数据流
模板
GCP
、
我是GCP新手,需要一些帮助来解决我
的
问题。 我正在创建
CSV
文件
,json
文件
和java脚本
文件
,并上传到GCP存储桶中。创建“云存储上
的
文本
文件
到
大查询”
数据流
模板
以将数据填充到bigquery中。我需要一些帮助转换
的
日期格式从DD-MM-YYYY
到
YYYY-MM-DD在大查询中使用‘文本
文件
在云存储
到
大查询’
数据流
浏览 12
提问于2021-06-12
得票数 0
1
回答
触发云存储-
数据流
、
、
、
、
我现在开始工作,我需要一些帮助,我有一个自定义模型,我使用apache beam创建了一个管道,该管道从存储桶内
的
文件
夹中获取来自
csv
文件
的
数据,然后将数据抛到bigquery表中,这个表已经按照我
的
要求工作,但是由于它是一个批处理管道,它只在我运行
数据流
时运行,所以我想自动化这个函数,条件是当加载一个新
文件
时,这个作业自行运行,我怎么做呢?
模板
数据流
impo
浏览 7
提问于2022-04-28
得票数 1
1
回答
使用Terraform中
的
python
将
csv
数据加载到bigquery
、
、
读取
csv
文件
并通过
数据流
将其加载到bigquery -为此使用
python
编码,而不是
模板
-如何使用terraform(GCP)帮助执行此任务 我试着去做,但不知道我应该为它写什么地形脚本。
浏览 14
提问于2022-11-13
得票数 0
2
回答
发布/订阅
csv
数据
到
数据流
到BigQuery
、
、
、
、
我
的
渠道是IoTCore ->发布/订阅->
数据流
-> BigQuery。最初,我得到
的
数据是Json格式
的
,管道工作正常。现在我需要转到
csv
,问题是我使用
的
Google定义
的
数据流
模板
使用Json输入而不是
csv
。有没有一种简单
的
方法通过
数据流
将
csv
数据从发布/订阅传输到bigquery。
模板
可能可以更
浏览 27
提问于2021-01-03
得票数 0
回答已采纳
1
回答
将blob存储中
的
xslx
csv
文件
转换为ADLS
、
、
我需要一些帮助来转换xslx,
csv
,它们位于azure存储区(删除某些行,重命名某个列名),并保存在adls中。有人能给我一些关于如何完成这一任务
的
一些想法或步骤,这将是非常有帮助
的
。谢谢你
的
帮助,真的很感激 P.S :我是最近从开发到云
的
全新
的
,对adf,管道,活动,blob和一些基本
的
东西有一些基本
的
想法。
浏览 2
提问于2021-09-29
得票数 1
回答已采纳
1
回答
如何在蔚蓝数据工厂中合并两个
csv
文件
、
、
我想更新目标
csv
文件
(位于Azure中),每天更新增量记录(delta
文件
位于blob中)。如果已存在
的
记录已更新,那么我希望在目标
文件
中更新相同
的
记录,或者如果增量记录是新
的
记录,则希望将该记录附加到蔚蓝数据湖存储中
的
Target
文件
中。我想用Azure数据工厂来实现这一点,最好是使用ADF
数据流
。 我正在尝试使用Azure Data
数据流
任务来完成这个任务,但我注意
到
可以创建
浏览 2
提问于2019-07-26
得票数 3
回答已采纳
2
回答
遍历
CSV
内存泄漏
、
、
我有一个函数,它获取磁盘上
的
CSV
文件
,使用
csv
.DictReader对象打开它,删除三个键,从磁盘删除
文件
,然后返回数据:/usr/local/lib/
浏览 0
提问于2021-05-26
得票数 1
2
回答
如何在
python
代码中向
数据流
传递--autoscaling_algorithm=NONE标志?
、
、
、
、
我正在使用
python
dataflow.projects().templates().launch()函数启动
数据流
模板
,以启动从jdbc
到
bigquery
模板
的
数据流
作业。如何在这个
python
函数中传递"--autoscaling_algorithm=NONE“标志?
浏览 1
提问于2020-11-19
得票数 0
1
回答
GCP
数据流
自定义
模板
创建
、
、
、
、
我试图在
数据流
中创建一个自定义
模板
,这样我就可以使用composer
的
DAG在设定
的
频率上运行。我知道我需要先部署我
的
数据流
模板
,然后再部署DAG。我使用了这个例子- -
python
3 -m job.process_file \ --project project \ --staging_locationoutput_bucket gs://c
浏览 2
提问于2022-02-16
得票数 0
1
回答
动态创建
数据流
作业
、
、
、
我是新
的
谷歌云和
数据流
。我想要做
的
是创建一个工具来检测和恢复(大型)
csv
文件
中
的
错误。然而,在设计时,并不是每个应该处理
的
错误都已经知道。因此,我需要一种简单
的
方法来添加处理特定错误
的
新函数。该工具应该类似于基于用户选择自动创建
数据流
模板
的
框架。我已经想到了一个可以工作
的
工作流,但正如前面提到
的
,我对此完全陌生,所以请随意提出一个更好
浏览 7
提问于2020-10-27
得票数 1
1
回答
数据流
写入GCS存储桶,但
文件
名中
的
时间戳未更改
、
、
、
、
我有一个关于Apache光束
的
问题,特别是关于
数据流
的
问题。但是,当我部署
到
Dataflow时,通过Airflow触发它(我们有airflow作为调度程序),它生成
的
文件
名总是使用相同
的
时间戳。即使我多次运行,时间戳也是
浏览 3
提问于2020-08-19
得票数 0
2
回答
用
Python
替换
CSV
文件
中
的
分隔符
、
、
、
我有一个
文件
夹,里面有几个
CSV
文件
。这些
文件
都包含框绘图双垂直和水平作为分隔符。我正在尝试将所有这些
文件
导入
到
python
中,将分隔符更改为管道,然后将新
文件
保存到另一个位置。import osdirlist = os.listdir(directory)x= 0 for filen
浏览 68
提问于2019-02-28
得票数 1
1
回答
云
数据流
:如何在PubSub to BigQuery中使用谷歌提供
的
模板
、
、
然后使用GCP
数据流
将
数据流
式传输到BigQuery中。我正在使用Java进行
数据流
。目前,我正在将字符串格式
的
消息发送到PubSub (这里使用
Python
)。但是
数据流
中
的
模板
只接受JSON消息。
python
库不允许我发布JSON消息。有没有人能给我一个建议,把J
浏览 18
提问于2018-02-21
得票数 0
1
回答
将查询结果从Google Cloud Spanner导出到Google Sheets
、
、
、
、
我想将我
的
查询结果导出到Google Sheets。有没有什么方法可以直接做,或者使用谷歌工作表中
的
AppScript。
浏览 2
提问于2018-12-20
得票数 0
1
回答
大型bigquery加载作业
的
最可靠格式
我有一个100 GB
的
表,我正试图加载到google bigquery中。它在GCS上存储为一个100 GCS
的
avro
文件
。当前,我
的
bq load作业失败,并显示一条无用
的
错误消息:我在考虑尝试一种不同
的
格式。我知道bigquery支持几种格式(AVRO、JS
浏览 0
提问于2019-04-02
得票数 3
1
回答
使用
PYTHON
运行
模板
、
、
我想使用
PYTHON
执行
模板
。实际上,我一直在使用Dataflow REST API或Cloud Functions集成执行
数据流
模板
。这是我在邮递员中
的
数据流
模板
执行: "outputLo
浏览 0
提问于2018-09-18
得票数 2
回答已采纳
1
回答
Python
-如何将保存表模式
的
..txt/..
csv
文件
转换为.avsc
文件
、
、
需要将表模式(使用描述\列表列)提取到.txt或.
csv
文件
中,然后使用
python
将这些
文件
转换为.avsc(avro )
文件
。
浏览 4
提问于2018-10-16
得票数 0
回答已采纳
1
回答
从GCS导入
csv
文件
,并使用Dataflow进行转换,然后使用气流传感器将
csv
文件
导入BigQuery。
、
、
、
、
我是云作曲家
的
新手。我
的
用例是: GCS中有几个
文件
类型,如json、
csv
、txt、..但是我只想选择
csv
文件
,使用
Python
中
的
Dataflow来转换它们(例如重命名字段,.)当一个新
的
csv
文件
导入
到
GCS时,主要
的
要求是使用气流传感器来触发它们。有没有人知道如何使用 Composer气流传感器(这里没有云功能)编写它: GCS (只有
csv</
浏览 6
提问于2022-09-23
得票数 0
1
回答
SSIS
CSV
和DB表计数检查
我需要将
csv
文件
中
的
记录计数与DB表
的
计数进行比较,如果
csv
文件
的
记录更高,则只需插入记录。谢谢
浏览 0
提问于2015-10-07
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
更高效的Python CSV文件导出
python3.x操作csv文件的实战
使用Python处理.CSV格式文件的内容
CSV文件在Python中的几种处理方式
python如何读取CSV文件中的特定行数据
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券