腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
当
数据
从
谷歌
数据
存储
流向
BigQuery
时
,
多次
更新
一行
、
、
、
我们正在尝试将
数据
存储
实体
更新
作为流输入推送到
BigQuery
,以提供实时
数据
分析。
数据
存储
中的每个实体将在一天内
多次
更新
。当我们推送实体
时
,我需要确保
bigquery
记录中只有最新的
数据
。
浏览 3
提问于2018-07-23
得票数 2
2
回答
在
BigQuery
中,google源表
更新
的日志看起来如何?
、
、
、
、
我在
BigQuery
中有几个表,它们都来自Google表。
当
Google表被
更新
时
,
BigQuery
中的表也会自动
更新
。我正在试图了解此事件的日志在操作日志中的样子。
浏览 3
提问于2021-12-19
得票数 0
1
回答
从
谷歌
云
数据
存储
到
BigQuery
的增量
数据
传输
、
我们正在尝试每天使用计算引擎VM实例将
数据
从
谷歌
云DataStore复制到
BigQuery
,但它对我来说太昂贵了,将整个
数据
集复制到
BigQuery
,基本上我们只需要
更新
的
数据
(只更改了记录),我们不想使用外壳脚本将整个表
从
数据
存储
复制到
bigquery
。
浏览 29
提问于2020-02-10
得票数 0
2
回答
BigQuery
上
谷歌
分析
数据
集的时间
更新
、
、
我们的网站设置了每天
从
谷歌
分析到
BigQuery
的
数据
传输。但是,BQ中的每日
数据
集通常在上午7:30到10:30 (GMT+1)左右可用。有没有办法更快(一大早)进行
更新
?我们的网站位于荷兰,但
BigQuery
中的
谷歌
分析
数据
集
存储
在美国。
浏览 4
提问于2018-11-13
得票数 0
2
回答
通过Apps脚本的大查询API --我在一个较大的表上得到一个错误,但是在一个较小的表上工作。通过应用程序脚本有大小限制吗?
、
、
我正在使用Apps脚本向
BigQuery
发送查询var request = { 'FROM bigquerytest-282720.testDataSet.smallTableGoogleJsonResponseException: API对<em
浏览 1
提问于2020-07-09
得票数 0
1
回答
将SQL
数据
库转到
Bigquery
,或将SQL
数据
库转到GCS到
BigQuery
。
、
在always的“用Google平台进行
数据
工程”一书中,为了将
数据
从
sql
数据
库加载到
BigQuery
,作者总是先将
数据
从
sql加载到,然后将其作为暂存环境使用,然后才将
数据
加载到
BigQuery
通过GCS步骤而不是直接进入
BigQuery
有什么好处?在何种情况下,您将直接将
数据
从
SQL加载到
BigQuery
?
浏览 8
提问于2022-08-16
得票数 0
回答已采纳
1
回答
谷歌
BigQuery
和
谷歌
云
存储
之间是否共享文件?
、
我已经通过从
谷歌
云
存储
加载CSV文件创建了一个
BigQuery
表。 在这种情况下,
BigQuery
表是引用云
存储
中的CSV文件,还是将
数据
复制到自己的
存储
中?
浏览 7
提问于2016-07-26
得票数 2
回答已采纳
1
回答
Google云平台体系结构
、
、
一个简单的问题: 通过Google处理的
数据
是否
存储
在上,并且只是为了GBQ目的而被分割?或者Google拥有自己的
存储
机制。
浏览 3
提问于2017-08-10
得票数 0
回答已采纳
2
回答
具有GCS
数据
源的
Bigquery
表不影响更改为gcs的
数据
、
、
、
我是
bigquery
的新手。我
从
gcp控制台创建了
bigquery
表,其中使用GCS CSV文件作为
数据
源。我认为当我删除任何行时,也应该将其
从
GCS文件中删除。但实际上,这种情况并没有发生。
浏览 22
提问于2020-06-22
得票数 0
1
回答
在
bigquery
表被
更新
时
,是否有一种方法/钩子可以得到通知?
、
我正在寻找某种方式,在
更新
bigquery
表
时
,需要通知计算引擎上的代码?类似于
谷歌
云
存储
上的对象更改通知?如果没有工作的话?我的
bigquery
表使用
数据
传输服务进行
更新
。
浏览 1
提问于2017-06-22
得票数 0
回答已采纳
1
回答
使用Javascript将传感器生成的
数据
推送到Google Cloud Function
、
、
、
、
这个设备有自己的接口来读取生成的
数据
,我有它用来做这件事的代码。我需要帮助使用代码获取生成的
数据
,并将其发送到云上。我是一个初学者,我不知道如何去解决这个问题,所以任何类型的方向都将非常感谢。下面是用于获取
数据
并将其打印到HTML表上的代码。
浏览 1
提问于2021-02-22
得票数 0
1
回答
使用google
数据
流读取保存在google
存储
中的vis普通文本文件的压缩文件
时
,性能相对较差。
、
我使用
从
云
存储
中读取一个11.57GB的文件,并将它们写入
谷歌
BigQuery
。花费了大约12分钟和30名工人。然后,我压缩了相同的文件(大小现在变为1.06GB),然后再使用google
从
谷歌
存储
中读取它们,并将它们写入
BigQuery
。现在用了大约31分钟和同样的30名工人。除了第一个
数据
流作业中的输入文件被解压缩外,两个
数据
流作业都有相同的管道选项,但是输入文件在第二个
数据
流作业中被压缩。 <
浏览 3
提问于2016-08-06
得票数 0
回答已采纳
1
回答
需要帮助为非DBA设计
数据
库
、
我正在使用
谷歌
的云
存储
&
BigQuery
。我不是一个DBA,我是一个程序员。我希望这个问题足够一般性,以帮助其他人。我们的
数据
分析要求每个记录都有一个时间戳。但是,在将源
数据
文件添加到云
存储
(4+ GB的文本
数据
/文件)之前,我们的源
数据
文件
浏览 1
提问于2013-11-23
得票数 0
回答已采纳
1
回答
当
数据
存储
更新
时
更新
BigQuery
表
、
、
、
、
我有一个Google应用程序连接到Google后端,使用Datastore
存储
我所有的
数据
。 我遵循本教程:将我的
数据
从
数据
存储
发送到
BigQuery
。我在想,当我的
数据
存储
更新
时
,是否存在
更新
BigQuery
表的问题?
浏览 3
提问于2016-03-15
得票数 1
回答已采纳
1
回答
BigQuery
流插入是如何计费的?
当
使用流插入将
数据
加载到
BigQuery
时
,
数据
大小是由JSON大小计算还是由
BigQuery
存储
中的
数据
大小计算? 我这样问是因为JSON可能比里面的实际
数据
大3倍。我已经阅读了所有的
谷歌
文档,我没有找到一个明确的答案。
浏览 1
提问于2017-12-11
得票数 1
回答已采纳
1
回答
当
数据
实际包含多个空格
时
,
BigQuery
图形用户界面仅显示1个空格
、
在处理Google Analytics Premium
数据
的过程中,将正则表达式应用于
数据
流中的
数据
,我遇到了以下问题:我仔细检查了
数据
流代码和
BigQuery
数据
,但无法立即找到问题所在。
浏览 2
提问于2017-07-28
得票数 2
0
回答
将Azure SQL Server
数据
导入
BigQuery
、
、
、
、
我的
数据
存储
在Azure SQL Server中(不是我的选择),我想使用
谷歌
BigQuery
中的
数据
。我希望
从
SQL Server定期
更新
BigQuery
中的
数据
(例如,每小时
更新
一次或每隔几个小时
更新
一次)。我发现了许多
从
SQL Server中提取
数据
的方法,以及将
数据
加载到
BigQuery
中的方法。SQL Server中的
浏览 5
提问于2016-07-20
得票数 1
0
回答
Google云
存储
/大查询成本估算
、
、
、
我的程序所做的是将输入文件
从
亚马逊S3服务器加载到
谷歌
的云
存储
平台。然后,它使用这些导入的
数据
在Google中创建一个表,然后以
BigQuery
格式将创建的表导出回Cloud Storage。我的程序会将这个50 GB的
数据
文件导入到云
存储
中,将其加载到
BigQuery
中的一个表中,最后将其导出回云
存储
。我已经把‘
存储</
浏览 5
提问于2017-06-14
得票数 2
回答已采纳
2
回答
有没有一种方法可以连续地将
数据
从
Azure Blob输送到
BigQuery
?
、
、
、
我在Azure Blob
存储
中有一堆文件,而且它不断地获得新的文件。我想知道是否有一种方法可以让我首先将我在Blob中的所有
数据
转移到
BigQuery
,然后继续运行一个脚本或一些作业,以便将其中的所有新
数据
发送给
BigQuery
?
浏览 10
提问于2017-06-28
得票数 0
回答已采纳
1
回答
在加载到
BigQuery
之前,在上进行
数据
暂存是否(仍然)有优势?
、
我有一个
数据
集作为本地文件
存储
(~100 GB未压缩的JSON,仍然可以被压缩),我想将其
存储
到
BigQuery
中(即
存储
在那里)。某些指南(例如,)建议先将这些
数据
上传到Google,然后再从那里加载到
BigQuery
中。 这样做有什么好处,只需将其直接
从
本地源加载到
BigQuery
(在本地文件上使用bq load )?例如,根据其文档,
BigQuery
支持可恢复上传以提高可靠性(),尽管我不知道在使用bq lo
浏览 1
提问于2020-06-18
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券