腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(891)
视频
沙龙
1
回答
BigQuery
+
谷歌
分析
数据
:
根据
模式
,
为什么
totals.TransactionRevenue
乘以
10
^
6...
?
我正在BQ上检查Google Analytics schema,似乎
totals.TransactionRevenue
值自动
乘以
10
^6。这样做有什么好处?谢谢。
浏览 31
提问于2020-09-12
得票数 0
回答已采纳
2
回答
如何在Google
BigQuery
中存储图片?
我想将产品图像存储在google
bigquery
数据
库中,这样我就可以在我的报告中显示这些图像。 有没有办法做到这一点?
浏览 0
提问于2014-01-30
得票数 1
1
回答
如果遗留
数据
在2019年
10
月之后将不可用,那么链接到Google Analytics中的Firebase项目有什么好处?
、
如果遗留
数据
在2019年
10
月之后不可用,那么链接到
谷歌
分析
中的Firebase项目有什么好处呢?解释道。
根据
谷歌
的沟通,似乎应该由开发人员确保他们已经备份了遗留
分析
数据
,那么本文中解释的集成过程有何帮助,或者
为什么
需要它?Padmanabhan
浏览 0
提问于2019-06-03
得票数 1
2
回答
BigQuery
与GraphQL
、
、
、
是否可以使用GraphQL进行
BigQuery
查询?我还没找到办法。我不知道使用GraphQL查询
BigQuery
是否是正确的方法。
浏览 2
提问于2020-01-30
得票数 2
回答已采纳
5
回答
使用
BigQuery
进行实时
分析
有没有办法用
BigQuery
运行实时
分析
?我使用了CSV upload选项,该选项启动一个作业并以脱机
模式
加载
数据
,加载完成后可以对其进行
分析
。但在关于
BigQuery
的公告中,提到了使用
BigQuery
进行实时
分析
。如何才能做到这一点?我们可以将
数据
从Google Cloud
数据
库追加(无更新)到
BigQuery
中,以进行实时
分析
吗?顺便提一下,我注意到
BigQuery<
浏览 0
提问于2012-05-02
得票数 3
回答已采纳
3
回答
BigQuery
中的
谷歌
广告印象计数与
谷歌
广告报告中的不同
我正在使用
谷歌
广告的
BigQuery
数据
传输服务,在通过查询来验证传输的
数据
时,我注意到我在
谷歌
广告报告中看到的
数据
与传输到
BigQuery
的
数据
之间存在差异。虽然点击量和费用
数据
还可以,但印象
数据
却有很大的不同。有没有办法让
BigQuery
中的印象
数据
接近
谷歌
广告报告中的印象
数据
?出现差异的原因可能是什么?我在
BigQuery
浏览 35
提问于2020-11-16
得票数 1
1
回答
HubSpot
分析
中未显示
谷歌
分析
窗口
、
、
我一直在试图弄清楚
为什么
我们的
谷歌
分析
数据
与我们的HubSpot
分析
数据
不匹配。
根据
GA的
数据
,我们的流量在
10
月31日明显下降(比平时多得多)。从那时起,
根据
GA的说法,我们的网站流量一直没有恢复。然而,
根据
HubSpot的说法,我们的流量
数据
是正常的,没有显示任何下降。 我已经联系了HubSpot支持,我们的GA跟踪代码已经正确安装在所有页面上。谁能告诉我
为什么</em
浏览 28
提问于2019-11-27
得票数 1
0
回答
为什么
我的Python
BigQuery
数据
流接收器不能在
数据
库中插入记录?
、
、
、
、
我正在使用Python2.7并在
谷歌
的DataFlow环境中工作,不用说,
谷歌
还没有完全清除所有内容,文档也还不够充分。但是,在中记录了从
数据
流写入
BigQuery
的部分。
根据
文档,为了指定
模式
,您需要输入一个字符串: schema = 'field_1:STRING, field_2:STRING, field_3:STRING, created_at:TIMESTAMP
为什么
它不能插入?我没有看到任何错误,但是没有任何东西插入到
BigQuery</
浏览 0
提问于2017-01-05
得票数 1
回答已采纳
2
回答
从
bigquery
获取与火基
分析
相关的人口统计信息
、
我将Firebase
数据
导出到
BigQuery
,并且在人口学查询方面有一些问题。有人知道我该怎么做吗? 提前谢谢!
浏览 5
提问于2017-04-05
得票数 3
回答已采纳
3
回答
如何提高表扫描的
BigQuery
性能?
我有一张有八千万份金融交易记录的桌子。我想找到每笔超过1亿美元的交易。这个查询大约需要3秒,这对于我的BI工具来说是行不通的。时间结果如下:0.10s system 2.899 total我应该在此指出,随后的查询可能有所不同。我可能也想搜索所
浏览 7
提问于2016-07-07
得票数 2
回答已采纳
1
回答
将时间戳转换为特定时区,然后在
bigquery
中转换时间戳时出现的问题
、
、
、
我只是简单地将时间戳列值转换为特定的时区,然后从其中获取
数据
,以便
根据
查询的输出创建
分析
图表。select "2021-05-27 18:
10
:
10
" as timestampvalue , Date(Timestamp("2021-05-27 18:
10
:
10
" ,"-
浏览 3
提问于2021-07-13
得票数 0
回答已采纳
1
回答
Google
BigQuery
查询超过资源限制
、
、
、
我正在为我的公司建立一个粗糙的
数据
仓库,我已经成功地将我们的CRM中的联系人、公司、交易和关联
数据
连接到
bigquery
中,但是当我将这些
数据
合并到一个主表中通过我们的BI平台进行
分析
时,我不断地得到错误
浏览 2
提问于2021-09-15
得票数 0
3
回答
如何从oracle
数据
库中提取
数据
并保存到Google云平台
、
需要从oracle
数据
库中提取
数据
并存储在Google云平台中。
数据
大小约为
10
TB。有没有可能通过Spark?
数据
必须每月传输一次。在GCP中存储和处理的
数据
如下: Oracle
数据
库到云存储(不必做CSV导出),然后它将是干净的,并准备在Dataprep中,这将通过
数据
流进一步处理,最后它将被存储在Big Query下(从大查询
数据
科学家将使用
数据
来创建他们的模型我正在考虑从spark中提取
数据</em
浏览 2
提问于2019-11-17
得票数 0
3
回答
为以下内容设计
模式
的最佳方式是什么?
、
、
根据
以下要求设计
模式
的最佳方式是什么?区域也可以进一步划分,就像分组人员一样。地区和地区,每个地区都有不同的元
数据
集,不同的国家、州和县也不同。 报告将是与人相关的
数据
,类似于
谷歌
分析
,从国家到地区和部门都是如此。注意:区域可以有
10
个人,1个部门,4个人,其余6个人不绑定到任何部门。
浏览 1
提问于2009-09-28
得票数 2
回答已采纳
5
回答
无法从
BigQuery
作业连接到
、
、
谷歌
最近宣布了这款 for
BigQuery
的测试版。 我使用文档中描述的EXTERNAL_QUERY语句,但无法连接到Cloud实例。我遵循了页面上的说明,并启用了
BigQuery
连接API。有些文档对EXTERNAL_QUERY (“或”或“”)使用不同的引号,但所有的变体都以相同的结果结尾。
浏览 0
提问于2019-09-02
得票数 5
回答已采纳
1
回答
将JSON导入Google
BigQuery
时重复对象的问题
、
、
我一直试图手动将JSON上传到
BigQuery
中,但是我得到了以下错误消息。| jq .custom_fields[].value"Basics of information security\n"问题似乎是custom_fields.value有不同的
数据
类型如何“统一”这些
数据
类型?或者你有其他的解决方案。,我宁愿呆在javascript里。
浏览 4
提问于2021-03-24
得票数 2
回答已采纳
1
回答
Apache德鲁伊统计
模式
的计算
、
、
、
、
我们使用Apache对
数据
集进行基于时间序列的
分析
,并试图对其中一个
分析
进行计算
模式
。
数据
集:Pid1 January
10
-20Product ID Sale Bucket Pid1
10</e
浏览 2
提问于2020-03-29
得票数 0
3
回答
google analytics API配额限制
、
我正在开发一个应用程序,使用
谷歌
分析
应用程序接口v3访问用户
谷歌
分析
帐户的
数据
,并生成不同的报告。该应用程序将使用cron脚本为每个用户每天生成大约30个API调用,并更新我们的
数据
库。问题是我们在Core Reporting API上对每个配置文件每天
10
,000个请求的配额限制。有了这个限制,我们不能超过10000/30ie。333个用户。这是决定项目可行性的关键因素。
浏览 1
提问于2012-08-30
得票数 4
2
回答
Bigquery
未能将输入字符串解析为时间戳。
、
、
我试图使用
模式
自动检测将csv从加载到
Bigquery
中。from google.cloud import
bigquery
creds = service_account.Credentials
浏览 4
提问于2021-07-08
得票数 3
回答已采纳
3
回答
Bigquery
:分区
数据
超过2000年限制(更新:现在4000限制)
来自分区表上的
BigQuery
页面: 我们计划白天对
数据
进行分区。我们的大部分查询都是基于日期的,但我们有大约5年的历史
数据
,并计划从现在起每天收集更多的
数据
。只有2000分区: 2000/365为我们提供了大约5.5年的
数据
。
浏览 3
提问于2017-05-22
得票数 6
回答已采纳
点击加载更多
相关
资讯
谷歌融合SQL、Python和Spark推进Colab Enterprise发展
谷歌BigQuery ML正式上岗,只会用SQL也能玩转机器学习!
谷歌把以太坊大数据搬上了谷歌云
谷歌将以太坊区块链数据集添加到其大数据分析平台
Google研发区块链搜寻引擎,并计划开发专利技术
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券