我们使用GCP日志,这些日志使用日志接收器导出到BigQuery中。我们没有大量的日志,但每条记录似乎都相当大。
使用BigQuery运行一个简单的查询似乎要花费很多时间。我们想知道这是正常的还是我们做错了什么。我们能不能做点什么让它分析起来更实用一点…
例如,查询
SELECT
FORMAT_DATETIME("%Y-%m-%d %H:%M:%S", DATETIME(timestamp, "Australia/Melbourne")) as Melb_time,
jsonPayload.lg.a,
jsonPayload.lg.p
FROM `XXX.webapp_usg_logs.webapp_*`
ORDER BY timestamp DESC
LIMIT 100
takes
Query complete (44.2 sec elapsed, 35.2 MB processed)
谢谢!
发布于 2019-12-03 07:47:24
尝试将此添加到您的查询中:
WHERE _TABLE_SUFFIX > FORMAT_DATE('%Y%m%d', DATE_SUB(CURRENT_DATE(), INTERVAL 3 DAY))
它将过滤以获取最近3天内的TABLE_SUFFIX
表-而不是让BigQuery查看可能许多年的历史中的每个表。
https://stackoverflow.com/questions/59133177
复制相似问题