腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
云
函数
启动
数据流
管道
时
出错
、
、
、
我正在尝试运行来自google
云
函数
的
管道
。不幸的是,我无法通过我找到的所有示例的第一行。= google.dataflow('v1b3');
从
我看到的所有示例来看,这应该足以提供一个
数据流
客户端。
浏览 9
提问于2018-02-28
得票数 0
回答已采纳
2
回答
对于谷歌
云
数据流
,是否可以
从
管道
启动
另一个
管道
。
、
我正在尝试设置一个谷歌
云
数据流
管道
(流模式),它读取pubsub主题消息,
从
发布的消息中提取信息(谷歌
云
存储中的对象名称),然后
启动
另一个
管道
(批处理模式)来处理存储在谷歌
云
存储中的对象。是否可以在
管道
内
启动
另一个
管道
?
浏览 0
提问于2017-01-09
得票数 2
2
回答
GCP DataFlow对CloudFunctions的小规模和更少的更新频率
、
、
另外,如果我需要做一些自动化的理智测试 我应该使用什么
数据流
或
云
功能。
浏览 11
提问于2022-05-10
得票数 2
2
回答
使用
云
函数
(
从
google
云
存储到bigquery )实现批处理自动化--缺少一些东西
、
、
、
、
我想要实现的:每次我上传一个文件到
云
存储,它将自动被写入BigQuery。但是他们不一起工作。如何让
云
函数
触发来激活
数据流
部分?这是一个脚本,还是只是一些设置,我错过了? 缺少一些东西把它们连接起来。
浏览 7
提问于2021-03-03
得票数 0
回答已采纳
1
回答
使用共享VPC的Google
云
数据流
/
函数
、
目前,我正在开发GCP中的一个项目,该项目使用多个子网连接到单个主机项目上,用于映射不同的环境(经典环境开发、阶段和生产),我正在尝试运行
数据流
管道
和
云
函数
,这些
管道
和
云
函数
需要连接到不同服务项目中驻留在到目前为止,我已经为属于特定环境的子网设置了具有网络用户角色的运行
数据流
和
云
功能的服务帐户,在
数据流
的情况下,我正在为主机项目上的
管道
指定子网络,但是
数据流
管道
和
浏览 0
提问于2018-12-03
得票数 1
2
回答
建议/指导- gcp的编写者/波束/
数据流
、
、
、
、
我正在尝试学习/尝试
云
编写器/束/
数据流
在gcp上。我编写了一些
函数
来对python中的数据进行一些基本的清理,并使用
云
编写器中的DAG运行此
函数
,
从
桶中下载文件,处理它,并以一定的频率将其上传到桶中。 我
浏览 13
提问于2022-02-13
得票数 1
回答已采纳
2
回答
谷歌
数据流
:
从
谷歌存储中的文件读取的AvroIO作为运行时参数传递
、
、
、
、
我想使用java SDK 2读取
数据流
中的Avro文件。 AvroIO.read(user.class)在运行
管道
时
如何读取为触发
云
函数
而上传的Avro文件,
云
函数
浏览 3
提问于2017-11-16
得票数 0
2
回答
在
云
数据流
中写入
云
存储作为一种副作用
、
我有一个
云
数据流
工作,它为一个应用程序做了大量的处理。在
管道
的某个阶段,我按特定的键进行分组,对于与该键匹配的每条记录,我希望将一个文件写入Cloud (使用该键作为文件名的一部分)。因此,这种使用模式不适合标准的
云
数据流
数据接收器模式(在该模式中,输出阶段的切分决定了#输出文件,而且我无法控制每个碎片的输出文件名)。我正在考虑将直接写入
云
存储作为ParDo
函数
中的一个副作用,但有以下查询: 写到
云
存储作为一种副作用是完全允许的吗?如果我是
浏览 2
提问于2015-06-07
得票数 3
1
回答
如何检查哪个用户已经停止了GCP中的
数据流
管道
?
、
、
我有一个运行在GCP上的
数据流
管道
,它从发布/订阅读取消息并写入GCS,bucket.My
数据流
管道
状态被某些用户取消了,,我想知道那个用户是谁?
浏览 2
提问于2019-10-22
得票数 0
1
回答
计算总
管道
延迟(
云
函数
->发布/订阅->
数据流
-> BQ)
、
、
、
、
我目前在GCP中有一个
管道
,它使用
云
函数
摄取数据,将其存入PubSub,在
数据流
中进行处理,最后将其插入到BigQuery中。我正在尝试计算平均消息
从
云
函数
摄取到BigQuery需要多长时间(包括插入时间)。哪些可用指标可以
浏览 2
提问于2019-11-21
得票数 0
1
回答
从
云
函数
触发
数据流
管道
时
,无法
从
主类执行多个
函数
、
、
、
因为我要在WriteToBigQuery操作之后执行一些任务,所以我编写了两个单独的
函数
,并在主类中执行它们,以便按顺序运行我的
数据流
管道
。我已经在
云
存储上创建了相同的模板,并试图
从
云
函数
触发这个自定义
管道
模板,但它直接执行第二个
函数
,而不是第一个
函数
。if __name__ == '__main__': print "Starting Dataflow Pipeline&quo
浏览 0
提问于2019-08-07
得票数 0
2
回答
如何在Java中
从
云
函数
触发
云
数据流
管道
作业?
、
、
、
、
我需要从Cloud
函数
触发Cloud
管道
。但是
云
函数
必须用Java编写。所以
云
函数
的触发器是的Function /Create事件,也就是说,当一个文件上传到GCS桶中
时
,
云
函数
必须触发
云
数据流
。当我创建
数据流
管道
(批处理)并执行该
管道
时
,它将创建一个dataflow
管道
模板并创建一个Dataflow
浏览 14
提问于2020-08-21
得票数 9
回答已采纳
2
回答
从
Cloud Function触发Cloud Dataflow
管道
-
函数
超时
、
、
、
、
我正在尝试
从
云
函数
触发
数据流
管道
,
云
函数
本身是在GCS存储桶中上传新文件
时
触发的。当我上传一个文件
时
,
云
函数
被正确触发,但在几秒钟后超时,没有任何
数据流
被触发。下面是我的
函数
代码:const google = require('googleapis'); const projectId = "iot-fitness-198120
浏览 0
提问于2018-03-20
得票数 1
2
回答
如何通过运行Google Compute Engine cron作业来调度
数据流
作业
、
、
、
、
在Dataflow FAQ中,列出了在计算引擎上运行自定义(cron)作业进程是调度
数据流
管道
的一种方法。我搞不懂到底该怎么做:如何在计算引擎上
启动
数据流
作业和
启动
cron作业。 谢谢!
浏览 29
提问于2020-08-19
得票数 1
回答已采纳
2
回答
紧跟在BigQueryIO.write()操作之后执行进程
、
我有一个BigQuery表作为接收器的
管道
。在将数据写入BigQuery之后,我需要执行一些步骤。这些步骤包括对该表执行查询,
从
该表中读取数据并将其写入到另一个表中。如果上述操作都不起作用,是否可以
从
正在运行的
管道
中调用另一个
数据流
作业(模板)。谢谢。
浏览 2
提问于2017-10-03
得票数 2
1
回答
如何在Google
函数
中运行子进程?
、
、
、
、
我想在我的
云
函数
中运行一个子进程来触发我的
数据流
管道
,它是写在一个外部文件中的。projects/my_project/subscriptions/sub1" ,"--output_topic", "projects/my_project/topics/topic2"]) Complet
浏览 1
提问于2019-10-29
得票数 0
回答已采纳
3
回答
无法写入bigquery -权限被拒绝: Google
、
、
、
我使用使用google
云
数据流
服务已经有一段时间了。
数据流
管道
apache_beam
浏览 0
提问于2018-05-07
得票数 4
1
回答
当云端
函数
触发
数据流
时
,如何在
数据流
中传递requirements.txt参数?
、
、
目标-I有一个
数据流
模板(用python编写),它依赖于熊猫和nltk,我还想从
云
函数
触发
数据流
作业。为此,我已经将代码上传到桶中,并准备在
云
函数
中指定模板位置。Problem-如何传递requirements_file参数,当您使用
从
云
函数
中发现google模块触发
数据流
作业
时
,通常会传递这个参数来安装任何第三方库?Prerequisites- --我知道,当您通过本地机器通过指定本地目录路径<e
浏览 1
提问于2020-04-06
得票数 3
回答已采纳
2
回答
从
beam
管道
连接google cloud sql postgres实例
、
、
、
我想连接谷歌
云
sql postgres实例
从
运行在谷歌
数据流
上的apache beam
管道
。我找不到与此相关的适当文档。在
云
SQL中如何指导我看不到任何关于
数据流
的文档。 有人能提供文档链接/github示例吗?
浏览 1
提问于2017-11-06
得票数 3
0
回答
Google Dataflow -调度
、
、
在谷歌
云
平台-
数据流
中,当流式传输未绑定的PCollection (比如使用PubSubIO的PubSub主题)
时
,有没有一种有效的方法来
启动
和停止
数据流
中的波束
管道
?(示例在一天开始时运行,在一天结束
时
结束)是让调度程序拥有Cron App engine服务并
启动
上面的
管道
作业然后停止该作业的唯一方法吗?只是看看有没有其他的选择。
浏览 8
提问于2018-07-14
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Linux系统编程之进程间通信方式:管道二
腾讯云 Serverless 衔接 Kafka 上下游数据流转实战
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
net中的数据流模式
一文学会Python协程
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券