我正在使用云数据流将数据从发布/订阅消息导入到BigQuery表中。我使用DynamicDestinations,因为这些消息可以放入不同的表中。我最近注意到,该进程开始消耗所有资源,并显示以下消息:
Processing stuck in step Write Avros to BigQuery Table/StreamingInserts/StreamingWriteTables$DatasetServiceImpl.insertAll(BigQueryServicesImpl.java:
我正在使用GCP处理和存储从模拟IoT设备发送的数据。数据(应该)在以下路径中流动: 带有mqtt客户端的模拟IoT设备-> IoT核心设备-> IoT核心注册表->发布/订阅主题->发布/订阅订阅->云数据流发布/订阅订阅BigQuery模板-> BigQuery表 我所在的公司有一些GCP配置(它在VPC上),这需要我指定一个subnet for DataFlow to even run。它显然没有意识到数据正被发送到