腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
从
DataFlow
模板
中
提取
REST
API
参数
?
、
、
在Cloud Function
中
,我使用Python这样调用
API
: from googleapiclient.discovery import build 'environment':environment) response = request.execute() 这是我正在启动的数据流
模板
中
的管道beam.io.BigQuery
浏览 17
提问于2020-12-08
得票数 0
1
回答
Google上的ETL -(数据流与春季批处理) -> BigQuery
、
、
、
、
现在,我的数据在google (cloud和BigTable)
中
。我已经公开了
REST
以从这两个方面检索数据。现在,我想从这些
API
中
检索数据,执行ETL并将数据加载到BigQuery
中
。使用云
DataFlow
进行ETL 然后使用BigQuery批处理插入
API
(用于初始加载)和流插入
API
(用于源
中
可用的新数据时的增量加载)加载BigQuery非规范化模式。
浏览 2
提问于2017-08-11
得票数 1
回答已采纳
1
回答
使用Python SDK创建云数据流
模板
的步骤
、
我已经使用Apache Beam SDK在Python
中
创建了Pipeline,数据流作业可以很好地从命令行运行。但是我该
如何
使用Python SDK来实现呢?
浏览 4
提问于2017-04-13
得票数 8
2
回答
如何
在google
中
获取现有作业的"templateLocation“
参数
值
、
我有一个在google数据流
中
运行的现有作业的列表。我想列出最后x天运行的作业,并希望以编程方式回收这些作业。为此,我需要用于特定作业的
模板
的名称。我们可以在Job视图中
从
控制台轻松地获取此信息。但是,我想知道是否有任何方法可以
从
Gcloud命令或
API
获取这些信息。谢谢萨朗
浏览 2
提问于2022-09-27
得票数 0
2
回答
通过Google云部署管理器创建的google数据流
、
我正在尝试通过部署管理器创建一个
模板
Pub/Sub到BigQuery的数据流作业。
浏览 3
提问于2020-09-01
得票数 2
回答已采纳
2
回答
创建数据流经典
模板
,通过DataflowflowTemplatedJobOperator编排作业
、
、
、
=‘gs:/桶/最新/job1 1’,parameters={'inputFile':
API
端点,'output':GCS_OUTPUT},location='REGION', 我的理解是,首先我必须使用maven编译和部署
模板
,然后使用json类型将
参数
传递给
Dataflow
模板
化操作符。我不知道
如何
创建
参数
和
模板
。我已经手动创建了数据流jar文件,并在过
浏览 7
提问于2022-01-30
得票数 1
1
回答
Google
Dataflow
是否有java客户端可以
从
模板
启动作业?
、
我正在寻找
从
模板
开始谷歌数据流工作的方式。我找到了
rest
api
来执行此操作,并深入研究了
api
页面https://cloud.google.com/
dataflow
/docs/apis,但只找到了
rest
api
来执行此操作。我想知道是否有像我们在存储
中
可以做的那样的java客户端,例如 Storage storage = StorageOptions.newBuilder().s
浏览 16
提问于2019-05-31
得票数 0
回答已采纳
3
回答
基于
模板
法的数据流动态碎片
、
、
我有一个管道
从
BigQuery中
提取
数据,并使用Apache将数据写入文件。这里,Iam使用了一种数据流
模板
方法。如果我硬编码
模板
创建过程
中
编译时的碎片数,那么一切都很好。但是,我需要根据
从
BigQuery
提取
的行数来决定运行时碎片的数量。如果有超过100万条记录,那么就写到另一个文件
中
。在使用
模板
方法时,在
Dataflow
中
是否可以做到这一点。我知道,如果我们使用非
模板
方法,所有
浏览 4
提问于2020-10-11
得票数 0
1
回答
数据流作业在多次使用分阶段
模板
部署时使用相同的BigQuery作业ID?
、
、
、
我正在尝试部署一个
Dataflow
作业,该作业
从
BigQuery读取并按固定计划写入Cassandra。
模板
代码是用Java编写的,使用Apache和
Dataflow
库。我已经将
模板
放到上,并配置了一个Cloud实例以及用于触发
Dataflow
模板
的云函数。我正在使用最新版本的所有束和BigQuery依赖关系。但是,我发现当使用相同的阶段
模板
部署作业时,BigQuery
提取
作业似乎总是使用相同的作业ID,这会导致日志
中</em
浏览 2
提问于2020-06-30
得票数 1
回答已采纳
1
回答
使用
Dataflow
API
启动时将
参数
传递给
模板
、
、
、
、
在应用程序引擎数据流作业中使用
Dataflow
API
启动时,我必须向
模板
传递
参数
。com.google.
api
.services.
dataflow
.
Dataflow
.Projects.Locations.Templates.Launch request1 = LaunchTemplateResponse response1 =
浏览 8
提问于2017-11-15
得票数 0
1
回答
azure HDInsight脚本操作
、
、
我正在尝试将文件
从
可访问的数据湖复制到blob存储,同时启动群集。我正在使用Azure文档
中
的此命令现在,如果我试图自动化这一点而不是硬编码,我
如何
在脚本
浏览 1
提问于2017-04-03
得票数 0
2
回答
通过
Rest
API
或Automation
从
性能中心或负载运行器分析中
提取
稳态性能测试结果?
、
、
、
有没有一种方法可以自动
从
性能中心或负载运行器
提取
稳态性能测试结果? 我不能做太多的
模板
,如果有人成功了,请分享你的想法。用例:-我们有一个自动化管道,它通过性能中心上的
Rest
API
运行性能测试,完成后以HTML格式下载相应的测试结果。但是这个HTML报告是针对整个测试持续时间的,而我们只需要稳定状态部分。我们的PE工程师在本地机器上使用Load Runner Analysis (HP Analysis)
从
原始结果(另一种结果类型,可以通过
Rest
API</
浏览 3
提问于2017-06-02
得票数 0
1
回答
对数据流
模板
使用BlockingDataflowPipelineRunner和后处理代码。
我想在管道完成所有处理后运行一些代码,所以我使用BlockingDataflowPipelineRunner,并将代码放在pipeline.run()之后的main
中
。但是,当我尝试将作业作为
模板
运行时,它不起作用。我将作业部署为
模板
(使用TemplatingDataflowPipelineRunner),然后尝试在云函数
中
运行
模板
,如下所示:
dataflow
.projects.templates.create(我在pipeline.run()下的代码不会在每个作业运行时运行--只有在
浏览 1
提问于2017-06-05
得票数 2
回答已采纳
1
回答
下载pdf档案至资料厂的blob储存
、
、
如何
在数据管道中下载pdf文件(或任何类型的文件)?对于blob存储,该文件通过
api
进行搜索,但它们位于基64
中
。
浏览 2
提问于2021-05-20
得票数 0
回答已采纳
1
回答
用
Dataflow
API
执行Dataprep
模板
包含流配方中包含的时间戳。
、
、
、
我有一个云函数,它使用
dataflow
API
从
我使用DataPrep创建的
模板
创建一个新作业。我成功地
从
dataflow
API
运行了作业,数据正确地插入到bigquery表
中
,但是在时间戳字段
中
,时间戳的值总是相同的,它对应于我
从
其中获取
模板
的作业的执行时间(DataPrep
模板
)。当我
从
dataprep接口运行作业时,这个时间戳是正确插入的,但是当我使用云函
浏览 1
提问于2018-06-05
得票数 2
1
回答
使用PYTHON运行
模板
、
、
我想使用PYTHON执行
模板
。实际上,我一直在使用
Dataflow
REST
API
或Cloud Functions集成执行数据流
模板
。这是我在邮递员
中
的数据流
模板
执行: 网址: https://
dataflow
.googleapis.com/v1b3/projects/{{my-project-id}}/templates:launch
浏览 0
提问于2018-09-18
得票数 2
回答已采纳
2
回答
Google
Dataflow
能否连接到
API
数据源并将数据插入大查询
、
、
我们正在探索的用例
中
,我们可能不得不摄取SCADA/PIMS设备生成的数据。出于安全原因,我们不允许直接连接到OT设备或数据源。因此,该数据具有
REST
,可用于使用数据。请建议是否可以使用
Dataflow
或GCP的任何其他服务来捕获这些数据,并将其放入大型查询或任何其他相关目标服务
中
。如有可能,请分享关于此类要求的任何相关文件/链接。
浏览 2
提问于2022-04-22
得票数 1
1
回答
无法通过数据流控制台创建数据流作业:找到意外
参数
:['key‘(可能您指的是'region')]
、
我已经创建了一个数据流作业,它接受名为'key‘的
参数
作为输入。我已经使用以下命令创建了
模板
--staging_location=gs://mm_
dataflow
_bucket/staging --setup .", "name": "Market S
浏览 0
提问于2020-05-02
得票数 0
1
回答
数据流上的Apache总线不接受ValueProvider进行BigQuery查询
、
、
、
目标我传入的运行时
参数
的实际行为被忽略了,而是使用了在创建GCS
模板
时必须指定的
参数
。下面是我
如何
指定读取操作,以及
如何
定义和传递查询
参数
。Web
从
GCS中选择
模板
并进行部署。注意:当我在
Dataflow</
浏览 1
提问于2020-02-20
得票数 1
2
回答
来自堆栈驱动程序的数据流日志
、
、
堆栈驱动程序
中
dataflow
_step日志的
dataflow
_step字段指向全局,尽管指定的区域端点是Europe 2。 知道它到底指向了什么吗?
浏览 3
提问于2020-06-03
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
【WPS神技能】如何从Excel表格中快速提取不重复数据?
Google Cloud AI产品调研与分析
Java近期新闻:JDK 21 序列集合、JDK 20 向量API、Gen ZGC、Hilla 2.0
API开发者永不“REST”
推荐一款接口 API 设计神器!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券