腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3012)
视频
沙龙
1
回答
有办法定制
谷歌
提供
的
云
数据流
模板
吗?
、
、
、
我有一个要求,我需要创建一个
数据流
作业,该作业将通过过滤将作为json数据一部分
的
属性
的
消息,将数据从Google
PubSub
主题传输到
BigQuery
表。
使用
谷歌
提供
的
模板
,我可以
使用
谷歌
提供
的
"
PubSub
to
BigQuery
“
模板
,但这不允许对数据进行过滤。 有办法定制<
浏览 0
提问于2018-11-27
得票数 2
1
回答
如何通过
谷歌
提供
的
PubSub
to
BigQuery
数据流
模板
使用
现有的
PubSub
订阅
、
我正在尝试
使用
谷歌
提供
的
模板
PubSub
to
BigQuery
设置一个
数据流
作业。我看到一个用于指定
云
发布/订阅输入主题
的
选项,但我没有看到任何用于在GCP控制台UI中指定发布/订阅输入订阅
的
选项。 如果我
提供
了主题,job会自动创建一个订阅来读取所
提供
的
主题中
的
消息。这样做
的
问题是,在<
浏览 3
提问于2018-01-12
得票数 3
回答已采纳
1
回答
云
数据流
:如
何在
PubSub
to
BigQuery
中
使用
谷歌
提供
的
模板
、
、
我正在
使用
PubSub
来捕获实时数据。然后
使用
GCP
数据流
将
数据流
式传输到
BigQuery
中
。我正在
使用
Java进行
数据流
。目前,我正在将字符串格式
的
消息发送到
PubSub
(这里
浏览 18
提问于2018-02-21
得票数 0
2
回答
如何
使用
Google
提供
的
数据流
模板
更改默认网络
我正在尝试
使用
谷歌
提供
的
模板
PubSub
to
BigQuery
设置一个
数据流
作业。,我在启动时得到了这个错误:我认为
谷歌
提供
的
模板
是硬编码
的</em
浏览 12
提问于2018-02-01
得票数 1
回答已采纳
2
回答
公开Google
云
Pub/Sub主题?
、
我想玩和处理
中
的
消息。在Pub/Sub
中
是否有任何公共数据提要可供我开始
使用
?在Dataflow 示例
中
,输入是从,gs://dataflow-samples/shakespeare/kinglear.txt
中
的
文件
中
读取
的
。
浏览 0
提问于2016-08-09
得票数 5
回答已采纳
1
回答
在CREATE
中
为
Pubsub
源指定不支持
的
架构
、
、
、
、
继我在
谷歌
中找到
的
之后,我尝试做一个示例设置,在
pubsub
中发布消息,并
使用
dataflow sql将其加载到
bigquery
表
中
。但是,当我创建
数据流
作业时,会出现以下错误: 启动SQL作业
的
无效/不受支持
的
参数:数据目录
中
的
无效表规范:在为
Pubsub
主题创建TABLE.CREATE表
中
为
Pubsub
源指定
的
不
浏览 11
提问于2022-07-07
得票数 0
1
回答
从
数据流
插入
BigQuery
流-无结果
、
、
我有一个
数据流
管道,它从
PubSub
Lite读取消息,并将
数据流
式传输到
BigQuery
表
中
。该表按天进行分区。
使用
以下命令查询表时:
BigQuery
我
的
管道已经运行了整整一周,在过去
的
两天里我得到了同样
的
结果。然而,对于202
浏览 4
提问于2021-10-14
得票数 2
1
回答
如何获取单个PubsubMessage
的
MessageID以将其保存在
BigQuery
中
以用于PubsubToBigQuery事件
数据流
作业?
、
、
、
我
使用
谷歌
模板
为同一个创建了一个PubsubToBigQuery
数据流
,用于存储我
的
事件日志。如何实现这一目标?
浏览 0
提问于2019-06-12
得票数 0
2
回答
使用
云
函数(从google
云
存储到
bigquery
)实现批处理自动化--缺少一些东西
、
、
、
、
我想要实现
的
:每次我上传一个文件到
云
存储,它将自动被写入
BigQuery
。但是他们不一起工作。如何让
云
函数触发来激活
数据流
部分?这是一个脚本,还是只是一些设置,我错过了? 缺少一些东西把它们连接起来。我对此比较陌生,我一直在寻找这方面的教程,但我不知道我是否一直在搜索错误
的
关键字,我找不到任何相关<em
浏览 7
提问于2021-03-03
得票数 0
回答已采纳
1
回答
服务帐户执行批处理
数据流
作业
、
、
、
我需要
使用
服务帐户执行
数据流
作业,我遵循
的
是在同一平台中
提供
的
一个非常简单和基本
的
示例字数。根据这一点,GCP需要拥有
数据流
工作者权限
的
服务帐户才能执行我
的
作业。即使我已经设置了所需
的
权限,当错误仍然出现时,weir部分就会出现: 有人能解释这种奇怪
的
行为吗?非常感谢
浏览 2
提问于2020-02-02
得票数 0
1
回答
如何自定义GCP
数据流
模板
?
、
我打算在写入
云
存储之前,
使用
带有少量定制
的
Pub/Sub to Text Files on Cloud Storage
数据流
模板
,例如处理(消息)
PubSub
消息。它
使用
的
参数将与Pub/Sub to Text Files on Cloud Storage完全相同 从documentation我了解到,我可以
使用
谷歌
提供
的
模板
之一,也可以创建
浏览 37
提问于2020-09-28
得票数 1
回答已采纳
1
回答
计算总管道延迟(
云
函数->发布/订阅->
数据流
-> BQ)
、
、
、
、
我目前在GCP中有一个管道,它
使用
云
函数摄取数据,将其存入
PubSub
,在
数据流
中进行处理,最后将其插入到
BigQuery
中
。我正在尝试计算平均消息从
云
函数摄取到
BigQuery
需要多长时间(包括插入时间)。 我了解Stackdriver指标/仪表板以及GCP
的
API仪表板。我很想简单地将每个服务
的
所有延迟值相加,但我不确定它是否涵盖了我无法控制
的
延迟值(例如,插入到BQ,从
数据流
浏览 2
提问于2019-11-21
得票数 0
1
回答
从HTTP端点提取数据时与Cloud
的
利弊
、
、
、
、
这是一个设计方法问题,我们试图在Apache / Google和Cloud之间选择最佳选项,从HTTP (源)中提取数据,然后将它们向下放到Google
BigQuery
(接收器)。传统上,我们
使用
谷歌
数据流
( Google )实现类似的功能,其中
的
源是
谷歌
存储桶
中
的
文件或
谷歌
PubSub
中
的
消息,等等。在这些情况下,数据以“推”
的
方式到达,因此<em
浏览 5
提问于2022-11-10
得票数 0
1
回答
从Google cloud
数据流
收集应用程序指标
、
在
谷歌
云
数据流
/光束
中
,我们可以
使用
这个Metrics API收集应用程序指标,并且可以
使用
另一个API在应用程序
中
查询它。但我需要将这些指标持久化到
Bigquery
/Prometheus
中
,以实现实时监控和警报机制。请建议如
何在
谷歌
云
数据流
中
实现这一点。
浏览 33
提问于2020-01-14
得票数 0
回答已采纳
1
回答
如何
使用
部署管理器在GCP
中
启用
云
调度器API、
pubsub
、
bigquery
、桶API、
云
构建API和
云
功能?
、
、
、
我已经编写了一个部署管理器
模板
,它将在新项目中部署
云
调度器、
pubsub
、
bigquery
、桶、
云
构建、
云
功能。因此,当我们第一次部署时,它会出现一个错误,因为默认情况下,在新项目中,这些服务
的
API是禁用
的
。那么,我
的
问题是如何
使用
部署管理器在GCP
中
启用
云
调度器API、
pubsub
、
bigquery
、桶API、
云
构建API和
浏览 4
提问于2022-06-13
得票数 2
回答已采纳
1
回答
在
数据流
python
中
在运行时向“beam.io.BigQuerySource”
提供
“查询”参数
、
、
TLDR:我希望每个月
使用
dataflow API和
模板
使用
不同
的
查询运行beam.io.BigQuerySource。我想
使用
Dataflow API来自动化这个批处理管道
的
运行,
使用
云
函数、
pubsub
事件、
云
调度器。 我
的
query_bq函数在编译和创建
数据
浏览 1
提问于2020-06-29
得票数 1
回答已采纳
1
回答
如
何在
Google
数据流
模板
中
使用
正则表达式?
、
、
、
使用
数据流
模板
,即
云
存储文本到
BigQuery
(流)
模板
,过去可以将"inputFilePattern“(即:您想要处理
的
文本
的
云
存储位置)描述为正则表达式。例如,您可以输入gs://my-bucket/my- files /file-to-upload*作为参数,然后所有以"file-to-upload“开头
的
文件都将被流式传输。不幸
的
浏览 11
提问于2020-09-08
得票数 0
3
回答
是否可以将Kafka与
谷歌
云
数据流
结合
使用
?
、
、
我有两个问题 1)我想
使用
Kafka和Google
云
数据流
管道程序。在我
的
管道程序
中
,我想读取卡夫卡
的
数据,有可能吗?2)我创建了启用了
BigQuery
的
实例,现在我想启用
Pubsub
,我能做什么呢?
浏览 0
提问于2015-04-27
得票数 0
回答已采纳
1
回答
云
数据流
:
使用
谷歌
提供
的
带有多个json条目的
PubSub
to
BigQuery
模板
、
、
我
使用
谷歌
提供
的
模板
从
PubSub
转到
BigQuery
,没有进行任何定制。我尝试将多个条目(行)放入到队列
的
单个json有效负载
中
,然后让DataFlow
模板
将所有条目(行)插入到
BigQuery
表
中
。我已经尝试
提供
一个换行符分隔
的
json有效负载,就像通过控制台将数据加载到
BigQuery
中
时所需要
的
浏览 1
提问于2018-03-17
得票数 0
1
回答
未经许可
使用
气流到
bigquery
的
ETL / cloud
、
、
、
、
我已经用python完成了从MySql到
bigQuery
的
ETL,但是由于我没有连接/ cloud
的
权限,我必须在最后一个日期之前转储数据和分区,这样做很容易,但并不值得,因为花很多时间,我想
使用
从MySql/mongo到
bigQuery
的
气流,而不
使用
google存储/ cloud,这是可能
的
吗?
浏览 0
提问于2019-10-31
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
谷歌推出Bigtable联邦查询,实现零ETL数据分析
谷歌BigQuery ML正式上岗,只会用SQL也能玩转机器学习!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券