我有一个谷歌云数据流作业(使用apachebeampython sdk)计划每6分钟后,内部读取一个大查询表,做一些转换,并写入到另一个大查询表。此作业已开始间歇性失败( 10次中约4次),错误跟踪如下。/apache_beam/io/gcp/bigquery.py", line 851, in _execute_query F
我将事件日志加载到elasticsearch引擎中,并使用Kibana将其可视化。我的事件日志实际上存储在Google Big Query表中。目前,我正在将json文件转储到Google存储桶中,并将其下载到本地驱动器。然后使用logstash将json文件从本地驱动器移动到elastic搜索引擎。