腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(5766)
视频
沙龙
1
回答
谷歌
BigQuery
ML
会
自动
使
时间
序列
数据
固定
吗
?
、
、
、
、
所以我是一个
谷歌
BigQuery
ML
的新手,我想知道auto.arima是否
会
自动
使
我的
时间
序列
数据
固定
?假设我有一个不稳定的
数据
,如果我使用
谷歌
BigQuery
ML
将
数据
原样提供给
自动
arima模型,它会在将
数据
作为输入之前首先
使
数据
固定</e
浏览 21
提问于2020-07-14
得票数 0
2
回答
从gcloud
ml
-engine作业到大型查询的访问
、
、
、
我有一个python
ML
进程,它使用环境变量GOOGLE_APPLICATION_CREDENTIALS指向的本地json文件连接到
BigQuery
(该文件包含由
谷歌
提供的密钥,请参阅authentication我现在希望通过Google's
Ml
engine部署我的模型,特别是使用外壳命令gcloud
ml
-engine jobs submit training。然而,在我运行我的进程并查看了console.cloud.google.com/logs/viewer中的
浏览 24
提问于2019-01-07
得票数 3
回答已采纳
1
回答
将计费
数据
导出到
BigQuery
不起作用
为了跟踪BQ的使用情况,我们创建了一个新的
数据
集,并在账单导出中对其进行了配置。但是在等待了一天之后,
数据
集似乎也是空的,因为没有创建新的表。 是否需要进行其他设置才能使其正常工作。
浏览 0
提问于2018-09-26
得票数 0
1
回答
数据
流用例(小型SQL查询)
、
、
、
我们使用云函数来转换
BigQuery
中的
数据
:--所有的
数据
都在
BigQuery
中--为了转换
数据
,我们只在
BigQuery
中使用SQL查询--每个查询每天运行一次--我们最大的SQL查询运行大约2到3分钟,但大多数查询的运行
时间
不到30秒--我们每天执行大约50个查询,而且这个数目还在增加。我们一开始尝试用Dataflow做同样的事情(
BigQuery
中的SQL查询),但是:-启动
数据
流只需10到15分钟--这比我们的云函数要复杂得
浏览 5
提问于2020-06-19
得票数 1
回答已采纳
1
回答
谷歌
BigTable的模式设计
、
、
在我的项目中,我使用的是
谷歌
BigQuery
,它保存了大量的
数据
。
BigQuery
列是: account_id,session_id,transaction_id,用户名,事件,
时间
戳。在我的仪表板中,我根据
时间
戳(最后30天)获取整个
数据
。因为我有非常大的
数据
,所以性能非常慢(获取最后30天的
数据
需要13秒)。最近,我试图查看Google BigTable,我发现他们可以根据
时间
获取
数据
。在我的测
浏览 3
提问于2022-05-25
得票数 0
1
回答
保持事件汇总计数的最佳方法Google
BigQuery
、
、
我将当前存储在Google Firestore中的页面视图事件
数据
自动
加载到
BigQuery
数据
集中。我使用这些
数据
来显示总页数和“趋势”页数(过去48小时内的总浏览量)。我需要将总页数和趋势页数(按页面分组)馈送到一个
数据
库中使用在前端网站。我已经编写了
BigQuery
SQL来查询总计数,但我担心随着
时间
的推移,这些查询
会
变得效率低下。像这样聚合
时间
序列
数据
的最有效方法是什么?
浏览 16
提问于2020-12-22
得票数 0
回答已采纳
3
回答
以高效的方式从
BigQuery
读取到Spark?
、
、
、
当使用从
BigQuery
读取
数据
时,我发现它首先将所有
数据
复制到Google Cloud Storage。然后将这些
数据
并行读取到Spark中,但当读取大表时,复制
数据
阶段需要很长
时间
。那么有没有更有效的方法将
数据
从
BigQuery
读取到Spark中呢? 另一个问题:从
BigQuery
阅读由2个阶段组成(复制到GCS,从GCS并行阅读)。复制阶段是否受Spark簇大小的影响,还是需要
固定
的
时间
?
浏览 6
提问于2017-01-04
得票数 7
回答已采纳
1
回答
Google
Bigquery
适合从IoT设备插入
数据
吗
?
、
、
这些设备将连接到我们托管在
谷歌
云中的服务器,并将每1秒发送一次
数据
,我的服务器将其作为
时间
序列
存储在
数据
库中。假设我们连接了1000台设备,所有设备都在每秒发送
数据
,是否适合使用google
bigquery
每秒将这些
数据
插入表中,将这些
数据
插入到设备所有者的相应表中?由于我的
数据
是
时间
序列
的形式,我正在考虑对每个用户(我的设备的所有者)使用分区表,但由于官方文档中列出的限制和配额
浏览 36
提问于2018-05-31
得票数 0
1
回答
XGBoost,处理贷款
数据
集的连续和
固定
数据
、
、
、
背景:考虑到我的
数据
是随着
时间
的变化而变化的,而且一些
数据
将在整个
时间
内保持不变,比如房产的批次大小和面积,那么XGBoost能区分
固定
数据
和可变
浏览 0
提问于2019-02-19
得票数 0
回答已采纳
1
回答
Google图表散点图关闭
自动
缩放
、
数据
值的范围从0到100,并且
会
及时到达。我正在绘制
数据
点到达时的
时间
序列
。我想
固定
y值的范围,这样y轴就不会
自动
缩放。现在,最大和最小y的值一直在随
时间
变化,这对用户来说非常令人困惑。有人知道我是如何做到这一点的
吗
?致以敬意, Ranga
浏览 2
提问于2014-11-08
得票数 0
1
回答
循环查询的“错误评估辅助查询错误”突然达到峰值
我们正在运行数百个
固定
的SQL查询,这些查询在滑动的
时间
窗口上查询
数据
(例如,SQL的结构保持不变)。昨天大约21:09 - 21:13,出现了几百个
BigQuery
引发错误的案例:{u‘’reason‘:u’‘invalidQuery’,u‘’message‘:u’评估子公司查询时出错‘,u’‘locationbbbb,\‘TABLE_QUERY _id in ("delivered_201607","delivered_201608")\’ 尽管如前所述,这些查询是“罐头”的,因
浏览 0
提问于2016-08-06
得票数 0
回答已采纳
2
回答
JFreeChart在动态图表中丢失
数据
、
我有一个用于测量CPU性能的动态图表,我需要我的Java程序在很长一段
时间
内(例如:24小时)生成图表。问题是,随着新
数据
的到来,旧的
数据
会
从图表中消失。我不想丢失这些
数据
。我能以某种方式
使
x轴
固定
吗
?有没有可能实现
自动
滚动图表或压缩图表? 谢谢。:)
浏览 1
提问于2012-12-05
得票数 1
回答已采纳
1
回答
TensorFlow lstm为测试
数据
集中的每个不同示例预测相同的类概率。
、
、
我正在使用tensorflow进行
时间
序列
分类。我正在向lstm单元提供
固定
窗口
时间
序列
,并且我试图对属于A类或b类的
时间
序列
进行分类。经过一些培训后,我正在测试新的
时间
序列
模型,这些
时间
序列
从未被训练过。问题是,该模型对测试
数据
集中的每个不同
时间
序列
预测相同的概率。它的行为就像不同的
时间
序列
是相同的。你知道为
浏览 3
提问于2016-06-01
得票数 0
回答已采纳
2
回答
将没有外部ip的虚拟机实例的
数据
加载到大查询
、
、
、
、
我的目标是从vm实例连接和加载
数据
到大查询(这个实例安装了maria db服务器)。我可以在我的终端上使用以下命令使用tcp ip转发访问
数据
库(出于安全原因,没有外部ip的实例):然后我打开mysql工作台输入用户root和密码,然后
数据
库显示,做查询,保存到csv,最后是上传csv到大查询。有什么建议可以
自动
化这个过程
吗
?
浏览 28
提问于2020-12-17
得票数 0
2
回答
我们能安排StackDriver日志记录到导出日志
吗
?
、
、
我是的新手,根据这个,StackDriver将
数据
访问审计日志存储30天。在同一页中也提到过,日志条目的大小限制为100 to。我有两个与输出日志有关的问题,即: 在StackDriver中是否有任何方法来安排类似于任务或Cron作业的任务或任务,以便在
固定
的
时间
间隔后将日志
自动
导出到Google存储中?我的假设正确
吗
?如果是,是否有任何方法可以导出/查看完整的日志条目(这完全不是截断的)日志条目?
浏览 1
提问于2019-03-09
得票数 2
回答已采纳
1
回答
安装管道来分析存储在web app DB中的
数据
、
、
、
、
我只知道如何在本地运行这些算法,比如一个Numpy数组,它适合内存,并且假设训练
数据
是
固定
的。设置管道来运行生产
数据
上的算法有什么好的方法?如果在适合内存的
数据
样本上本地完成,那么找到正确的模型可能是最简单的。一旦找到一个好的候选人,我们就可以用我们所有的
数据
对它进行再培训。我们是否也应该在本地做第二步呢?或者您通常应该尝试设置一个完整的生产管道,允许您在此阶段处理更多的
浏览 0
提问于2019-05-31
得票数 2
回答已采纳
1
回答
蛋白质相互作用预测-如何输入此
数据
结构
、
、
、
📷 我了解机器学习的基础知识,并且对
时间
序列
数据
或表格格式的
数据
有很好的体验。但是在图片中,
数据
被排列成一个图形。是否有办法将图形输入到
ML
工具中,如人工神经网络或其他任何工具?我不知道是否有处理这种
数据
结构的理论。任务是在训练后从
ML
算法的输出中重新创建图形。因此,无论我得到什么输入,输出都应该和输入相同--非常类似于一个
自动
联想内存。有人能帮忙
吗
?
浏览 0
提问于2019-01-22
得票数 0
回答已采纳
1
回答
Google
BigQuery
分析价格
、
我想使用Google
BigQuery
分析大约50 to的
数据
(不断增长的
数据
)。但是我想知道关于
bigquery
定价和分析的两件事。我的
数据
内容(每行)USER_ID ->唯一的用户ID (例如zc5zta5h7a6sr)TOTAL_CURRENCY ->美元(例如500美元)1-)每天将向
BigQuery
表添加1GB的新
数据
。我想要为每个新
数据</em
浏览 8
提问于2022-06-11
得票数 0
回答已采纳
2
回答
如何使用
BigQuery
插槽
最近,我想在
bigquery
中运行一个查询,在某些表(表名适合xxx_mst_yyyymmdd)上使用"group“,.The行将超过1000万行。我用我的查询语言做了一些改进,随着
数据
的增加,这个time.But可能不会发生错误,这个错误也会出现在我检查了最新版本的
Bigquery
的future.So中,也许有两种解决方法: 1.在2016/01/01年度之后,
Bigquery
将更改查询定价层,以满足“高计算层”的要求,从而不再发生"resourcesExceeded错误“。2.<
浏览 2
提问于2015-11-03
得票数 1
4
回答
从s3加载
数据
的经济高效的
BigQuery
、
、
我每天都需要加载到
BigQuery
的分区表中,在s3中创建了(2 TB)大小为20k的文件。文件每5分钟滚动一次。 将
数据
传输到
BigQuery
的最经济高效的方法是什么?我正在寻找在亚马逊网络服务s3到GCP网络出口和实际
数据
加载的成本优化。
浏览 1
提问于2019-12-19
得票数 0
点击加载更多
相关
资讯
谷歌BigQuery ML正式上岗,只会用SQL也能玩转机器学习!
谷歌推出Bigtable联邦查询,实现零ETL数据分析
今天是阿兹海默症日,这和谷歌街景有什么关系?
谷歌融合SQL、Python和Spark推进Colab Enterprise发展
诺基亚发布自主网络架构平台
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券