腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1391)
视频
沙龙
1
回答
如何
使用
Dataflow
跳过
apache
beam
中
io
级
别的
错误
元素
?
、
、
、
我正在对GCP
中
存储的to记录进行一些分析,但是文件
中
的一些to记录已经损坏,所以当我运行我的流水线并得到四个以上的
错误
时,我的流水线由于而中断。下面是我的处理脚本import
apache
_
beam
as
beam
from
apache
_
beam
.met
浏览 16
提问于2020-02-25
得票数 1
回答已采纳
1
回答
从BigTable到模式问题?
、
、
、
、
我正在尝试
使用
Dataflow
模板1将一个Avro文件(
使用
Spark3.0生成)摄取到BigTable
中
,并获得以下
错误
。知道吗?
错误
(完全)at org.<e
浏览 6
提问于2020-12-22
得票数 1
回答已采纳
1
回答
数据流管道上的
Apache
梁StatusRuntimeException
、
、
、
、
我正在
使用
apache
_
beam
==2.24.0编写一个用python2.7编写的数据流管道。该管道的工作是
使用
beam
的ReadFromPubSub批量
使用
订阅
中
的pubsub消息,对消息进行一些处理,然后将结果数据持久化到两个不同的bigquery表
中
。有很多我正在消费的数据。在运行管道之后,一切正常,但几个小时后,我开始得到异常: 已取消的org.
apache
.
beam
.vendor.grpc.v1p13p1.
浏览 1
提问于2021-03-31
得票数 0
1
回答
可拆分的DoFn导致混乱密钥太大的问题
、
、
我设法
使用
DirectRunner在本地运行了一个单元测试,
使用
了5000个
元素
,同时在
DataFlow
中
运行了相同的单元测试,但失败了,
错误
如下。: java.
io
.IOException: INVALID_ARGUMENT: Shuffle key too large:3749653 > 1572864 at org.
apache
.
beam
.runners.
dataflow
.worker.GroupAlso
浏览 1
提问于2019-10-21
得票数 0
1
回答
Apache
的BigQuery授权视图
、
、
、
我试图
使用
Apache
在BigQuery
中
查询一个视图。java.lang.RuntimeException: java.
io
.IOException: Unable to get table: testat org.
apache
.
beam
.sdk.
io</e
浏览 2
提问于2020-08-12
得票数 2
回答已采纳
1
回答
由: java.lang.UnsupportedOperationException: BigQuery源文件必须拆分后才能读取
、
、
我正在尝试
使用
Java BigqueryIO.read方法从bigquery
中
读取数据。但是得到了低于
错误
。$BoundedToUnboundedSourceAdapter@77f0db34 org.
apache
.
beam
.runners.
dataflow
.worker.WorkerCustomSources(ReadOperation.java:194) org.
apache
.
beam
.runners.
dataflow
.worker
浏览 0
提问于2020-06-09
得票数 0
2
回答
如何
使用
在同一管道
中
读取BigQuery和文件系统
中
的数据?
、
、
我正在尝试
使用
下面的代码读取Bigquery
中
的一些数据和文件系统
中
的一些数据。() preprocess_rows =p=
beam
.
io
.ReadFromText(file_path,coder=UnicodeCoder()) 文件)) "/etl/
dataflow
/venv3/lib/python3.7/site-packages/
浏览 4
提问于2020-03-01
得票数 1
1
回答
数据流:从Pubsub RuntimeException导出到Bigquery
、
、
、
我正在
使用
pubsub
中
的“”特性,通过数据流将一个常规的JSON传递给bigquery。 java.lang.RuntimeException: java.
io
.IOException:插入失败:[{“
错误
”:{“debugInfo”:“”、“位置”:“_comments”、“消息”:“没有这样的字段”、“原因”:“无效”},“索引”:0}] org.
apache
.
be
浏览 1
提问于2018-03-27
得票数 1
回答已采纳
1
回答
数据流模板"Pub/Sub Avro to Bigquery“解码失败
、
、
、
、
Pub/Sub
中
的数据是AVRO格式的,来自Kafka主题。我从模式注册表
中
获得的相应模式文件。,我在数据流
中
收到以下
错误
: 2021-01-22 10:31:28.231 MEZError message from worker: java.lang.RuntimeException: Could:101) org.
apache
.
beam
.sdk.util.CoderUtils.decodeFromByteArray(CoderUtils.java:92) org.
a
浏览 32
提问于2021-01-22
得票数 0
1
回答
Apache
升级问题
、
、
最近,我将项目的
Apache
<
beam
.version>从2.19升
级
到2.34。...:420) at org.
apache
.
beam
.runners.
dataflow
.worker.BatchDataflowWorker.doWork(BatchDataflowWorker.java:(WorkerCustomSources.java:201) org.
apache
.
beam
.ru
浏览 11
提问于2021-12-16
得票数 0
1
回答
数据流管道在从发布/订阅读取时停滞
、
、
、
(ReadOperation.java:201) at org.
apache
.
beam
.runners.
dataflow
.worker.StreamingDataflowWorker.process$1000(StreamingDataflowWorker
浏览 9
提问于2019-04-22
得票数 1
1
回答
Apache
束流管道和毒丸
、
、
、
、
我正在
使用
GCP数据流运行
Apache
Beam
管道,并从worker那里获得了以下
错误
: Error message from worker: java.lang.RuntimeException:在管道
中
,当将PubSub消息转换为TableRow时,我
使用
的是FailsafeElement<PubsubMessage, String>,并且在BigQuery
中
也有死信表,这样我就可以在转换后的消息
中
写入失败的消息但是,从我所读到的关于
浏览 8
提问于2022-09-15
得票数 0
1
回答
Beam
.
io
.WriteToPubSub抛出
错误
“给定的pcoll PDone[WriteToPubSub/Write/NativeWrite.None]不是一个字典,一个迭代器或一个PCollection
、
、
每当我
使用
"WriteToPubSub“时,我都会收到一个
错误
。下面的代码是我尝试调试这个问题的代码。我的实际代码是尝试从WriteToBigQuery的失败
中
获取数据,以便将其推送到死信发布订阅主题。但是当我尝试这样做的时候,我总是遇到下面的
错误
。import InteractiveRunnerfrom
apache
_<em
浏览 1
提问于2021-01-19
得票数 0
1
回答
数据流作业
中
的EOFException正在写入扳手
、
、
所有读取都已完成,但由于某些原因,在开始向扳手写入时,它始终出现EOFException
错误
,并且它位于类MutationGroupEncoder
中
。我们
使用
的是Google Cloud
Apache
Beam
SDK的2.5.0版本。 at org.
apache
.
beam
.sdk.util.UserCodeException.wrap
浏览 3
提问于2018-07-26
得票数 2
1
回答
使用
Apache
Beam
编写通用记录时Avro“不打开”异常
、
、
我
使用
AvroIO.<MyCustomType>writeCustomTypeToGenericRecords()将通用记录写入流数据流作业
中
的GCS。在前几分钟,一切似乎都正常,但是,大约10分钟后,作业开始抛出以下
错误
: org.
apache
.
beam</em
浏览 1
提问于2018-11-16
得票数 0
回答已采纳
1
回答
'_UnwindowedValues‘类型的对象没有len()意味着什么?
、
我正在
使用
Dataflow
0.5.5 Python。在非常简单的代码
中
遇到以下
错误
:row_list是一个列表。as
beam
from
apache
_
beam
.utils.options import(options=pipeline_options) |
浏览 0
提问于2017-02-16
得票数 10
回答已采纳
1
回答
Apache
:初始化分区“Top-1”时超时。Kafka客户端可能无法连接到服务器。
、
、
、
、
当我的
Apache
应用程序连接到启用ACL的Kafka集群时,我得到了这个
错误
。请帮我解决这个问题。org.
apache
.
beam
.sdk.
io
.kafka.KafkaUnboundedReader.start(KafkaUnboundedReader.java:128)
浏览 0
提问于2019-03-08
得票数 1
回答已采纳
1
回答
我在
Apache
中
使用
ReadFromSpanner超过了504个截止日期
、
、
我正在用
Apache
和Python构建一个运行在Google
DataFlow
中
的应用程序。我在
apache
_
beam
.
io
.gcp.experimental.spannerio中
使用
了
apache
_
beam
.
io
.gcp.experimental.spannerio方法。_OutputProcessor.process_outputs File "/usr/local/l
浏览 17
提问于2021-03-09
得票数 1
回答已采纳
2
回答
将pubsub主题作为arugument提供时出现数据流
错误
、
问题出现在
beam
.
io
.gcp.pubsub.WriteToPubSub()
中
,我试图从ValueProvider提供主题名称,根据谷歌文档,在创建模板时需要
使用
该名称: https://cloud.google.com(user_options.topic) File "C:\github\pipeline-
dataflow
-jobs\
dataflow
\lib\site-packages\
apache
_
beam
\F
浏览 20
提问于2020-05-02
得票数 1
2
回答
如何
通知
DataFlow
作业何时完成
、
| 'write to bigquery' >>
beam
.
io
.WriteToBigQuery(...| 'write to bigquery' >>
beam
.
io
.WriteToBigQuery(...)但是,上述两种代码都会产生以下
错
浏览 0
提问于2018-06-28
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
大数据平台架构方法论、模型与实践深度观察
Elixir和Rust 是一个很好的组合
过去一年,Spotify最大一次数据流优化实践
开源软件20载,开源企业有何新进展?
为什么你需要开源分布式流存储Pravega?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券