腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从发布/订阅流到
BigQuery
、
、
、
、
我正在尝试
使用
python
数据流将一些数据从google PubSub传输到
BigQuery
中
。beam.io.BigQueryDisposition.CREATE_IF_NEEDED,注意:我已经被谷歌列入了运行代码
的
白名单( alpha)工作流失败。原因:(f215df7c8fcdbb00):未知流<e
浏览 1
提问于2017-09-07
得票数 5
1
回答
在
python
中
使用
BigQuery
接收器
的
流水线
、
、
、
我正在构建一个apache波束流管道,它
的
源是Pubsub,目标是
BigQuery
。我收到了错误消息:这就是导致问题
的
原因,我说
的
对吗?或者,如果不是,它在任何情况下仍然不受支持?
浏览 11
提问于2018-08-01
得票数 1
回答已采纳
2
回答
使用
google-cloud-
python
库将堆栈驱动程序日志导出到
BigQuery
时
的
访问问题
、
、
、
我知道
使用
google-cloud-
python
库通过以下步骤将Stackdriver日志条目导出到
BigQuery
:所以我
的
问题是,有没有其他方法可以让堆栈驱动程序日志拥有对
BigQuery
的
写访问权限来创建
接收器
?
浏览 2
提问于2019-07-09
得票数 0
1
回答
如何从日志资源管理器中去复制GCP日志?
、
我正在
使用
GCP日志资源管理器存储来自管道
的
日志消息。我需要通过查看来自特定事件
的
日志来调试问题。除了末尾
的
事件ID外,此错误
的
消息是相同
的
。因此,例如,错误消息是我知道我可以
使用
以下语法来构造一个查询,该查询将返回具有此特定消息结构
的
日志s
浏览 8
提问于2022-04-28
得票数 1
回答已采纳
1
回答
是否遇到从数据流管道到
BigQuery
的
低速流式写入?
、
、
在
使用
流式插入和
Python
SDK2.23写入
BigQuery
时,我遇到了意外
的
性能问题。
在
没有写入步骤
的
情况下,
流水线
在
一个工作线程上运行,占用大约20-30%
的
CPU。添加
BigQuery
步骤,
流水线
可以扩展到6个工作进程,所有工作进程都占用70-90%
的
CPU。我对数据流和波束很陌生,可能这种行为很正常,或者我做错了什么,但在我看来,
使用</em
浏览 0
提问于2020-09-09
得票数 4
1
回答
数据流是否未显示流管道
的
输出集合计数?
、
、
我有一个从Pubsub读取数据
的
流水线
。我
使用
的
是apache beam
python
sdk 2.10。 我
的
管道包含不同
的
阶段。当我们
使用
ReadFromPubsub从pubsub读取数据时,我能够看到第一阶段
的
输入和输出集合计数。但在第二阶段
中
,仅显示输入采集计数,输出采集计数为空。
在
我
的
最后阶段,我正在给
BigQuery
写信。 ? ? ?
浏览 20
提问于2019-03-06
得票数 2
2
回答
我们能安排StackDriver日志记录到导出日志吗?
、
、
在
同一页
中
也提到过,日志条目的大小限制为100 to。
在
StackDriver
中
是否有任何方法来安排类似于任务或Cron作业
的
任务或任务,以便在固定
的
时间间隔后将日志自动导出到Google存储
中
?大于100 to
的
日志条目发生了什么。我猜它们会被
浏览 1
提问于2019-03-09
得票数 2
回答已采纳
1
回答
如何在写入apache
中
的
自定义
接收器
之前缓冲记录
、
、
我对Flink相当陌生,
在
技术用例方面需要一些帮助。我有一个
在
GKE上运行
的
flink应用程序,并
使用
自定义
接收器
将记录(从Kafka源)写入
BigQuery
。我可以将记录写入
BigQuery
,而不会出现任何问题。目前,记录被一个接一个地写入
接收器
中
,因此每个kafka消息都会得到自己对
BigQuery
的
插入api调用,这并不理想,因为我们需要执行批量插入,并且单独插入每个记录将非常昂
浏览 5
提问于2022-10-18
得票数 2
回答已采纳
2
回答
谷歌数据:每天加载多个小表
我想每天从SQL Server加载大约100个小表(最少5条记录,最多10000条记录)到谷歌
BigQuery
。我们已经创建了100个数据
流水线
,每个源表一个
流水线
。当我们启动一条
流水线
时,大约需要7分钟来执行。当然,它会启动DataProc,连接到SQL server,并将数据导入Google
BigQuery
。当我们必须按顺序运行时,需要700分钟吗?当我们尝试
在
流水线
中
并行运行时,我们受到网络范围
的
限制,可能是256/
浏览 42
提问于2020-07-01
得票数 1
2
回答
每小时高效地将数据从数据存储区导入到
BigQuery
-
Python
、
、
、
目前,我正在
使用
谷歌
的
两步法来备份数据存储,然后将其导入
BigQuery
。我还
使用
流水线
检查了代码。这两种方法都效率不高,而且成本很高,因为每次都会导入所有数据。我只需要添加从上次导入添加
的
记录。什么才是正确
的
方法呢?有没有关于如何在
python
中
做到这一点
的
工作示例?
浏览 0
提问于2014-11-04
得票数 1
1
回答
将userId映射到其关联
的
电子邮件
当我
在
控制台中运行以下命令时,它将返回一个标题为"userId“
的
列(这是一个字段)。如何将此userId映射到其电子邮件地址或用户名?project-id)$ bq show \ projects/<XXX>/locations/europe/transferConfigs/<XXX> userID
的
返回值是一个19个字符
的
整数。这个问题
的
原因是,我们有大量
的
预
浏览 0
提问于2019-12-05
得票数 0
1
回答
Google Cloud - creating sink
、
、
我正在尝试
使用
云shell
中
的
接收器
将日志导出到
bigquery
中
。我做了以下步骤: bq mk数据集 gcloud beta日志
接收器
创建my-bq- my_dataset \
bigquery
.googleapis.com/projects/my-project/datasets/\ my_dataset --log-filter='resource.type="gce_instance&
浏览 12
提问于2020-05-21
得票数 0
2
回答
BigQuery
自动检测模式和创建表,
在
apache_beam中发生流作业时
、
、
、
我有一个信息流进来,想要将它们记录在
BigQuery
中
,但问题是用户可以
在
启动apache_beam作业之前定义一个新
的
表名。此外,流
中
的
架构可以更改超时。我想知道是否有人
使用
Python
实现了流apache_beam作业
的
自动表创建和模式更改。
浏览 12
提问于2022-09-27
得票数 0
1
回答
监控WriteToBigQuery
、
、
、
在
我
的
管道
中
,我
使用
WriteToBigQuery,如下所示: 'thijs:thijsset.thijstable', beam.io.WriteToBigQuery PTransform返回一个字典,其BigQueryWriteFn.FAILED_ROWS条目包含所有未写入
的
行
的
当我完成管道并将结果存储
在
变量<
浏览 0
提问于2019-11-29
得票数 4
回答已采纳
1
回答
使用
自定义目标
接收器
将日志导出到
BigQuery
(表分区)
、
、
我想创建一个“
接收器
”(日志记录服务)来将日志导出到
BigQuery
(分区表)。但是,我无法做到这一点,默认情况下,它正在创建一个碎片表。我
使用
的
是“自定义目的地”,我
在
“
接收器
目的地”选项中
使用
的
代码是:
bigquery
.googleapis.com/projects/miproyecto/datasets/dataset_organizationPD:我
使用
“自定义目标
浏览 0
提问于2020-03-25
得票数 1
1
回答
不显示
BigQuery
源/
接收器
的
数据流管道详细信息
、
、
根据Google团队
的
这个,如果我们
使用
1.6SDK,我们应该能够
在
控制台中看到
BigQuery
源和
接收器
的
详细信息。但是,虽然新
的
“管道选项”确实会显示出来,但是
BigQuery
源/
接收器
的
细节不会显示。我们
的
管道正在批处理模式下运行。供参考
的
工作id是:2016-06-23_04_38_00-7749718775594891108 如何显示
BigQuery</
浏览 4
提问于2016-06-24
得票数 0
回答已采纳
1
回答
Google Cloud数据流
中
的
自动缩放
、
通常,一个工作进程足以处理传入
的
数据,但如果有积压,我们希望自动增加工作进程
的
数量。 我们
的
流水线
从Pubsub读取数据,并每3分钟
使用
加载作业将批处理写入
BigQuery
。我们从一个worker开始运行此管道,向pubsub发布
的
数据是一个worker消耗
的
数据
的
两倍。2小时后,自动伸缩仍然没有生效,因此积压
的
数据大约是1小时
的
数据。这似乎相当糟糕,因为自动伸缩
的
目标是将积压保持
浏览 0
提问于2018-06-29
得票数 7
2
回答
如何用
BigQuery
测试数据流
流水线
我想测试一下我
的
管道。我
的
管道从
BigQuery
中提取数据,然后将数据存储到GCS和S3
中
。虽然这里有一些关于
流水线
测试
的
信息,,但它没有包括从
BigQuery
中提取数据
的
数据模型。有没有好
的
文档来测试我
的
流水线
?
浏览 15
提问于2017-01-25
得票数 1
回答已采纳
1
回答
日志
接收器
到
bigquery
的
分区不起作用
、
、
我
在
文件夹级别创建了一个日志
接收器
,因此它可以将所有日志整齐地流式传输到
Bigquery
。
在
日志
接收器
配置
中
,我指定了以下选项,以便让日志
接收器
流到(每日)分区: "bigqueryOptions": { "usesTimestampColumnPartitioning": true # output only } 根据
bigquery
浏览 19
提问于2020-04-28
得票数 0
2
回答
GCP日志记录库不导出
、
、
、
问题:我已经
在
GCP日志记录
中
创建了一个
BigQuery
接收器
,但是没有数据被导出到
BigQuery
表
中
。 我可以
在
GCP日志记录
中
的
“Logging”选项卡中看到创建
的
接收器
。此外,我可以
在
BigQuery
中看到相应
的
数据集和表。我还检查了相应
的
服务帐户是否有足够
的
权限。它具有"
BigQue
浏览 9
提问于2020-09-01
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券