腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
从
Spark
Streaming
中
的
字符串
创建
StructType
、
、
、
在
Spark
structured
Streaming
中
,我想从STRING
创建
一个
StructType
。在下面的示例
中
,
spark
read方法只接受schema
的
"Struct Type“,我如何
从
字符串
创建
StructType
。我想要将employeeSchema
字符串
转换为
StructType
。EmployeeSchemaLoa
浏览 15
提问于2017-08-31
得票数 1
1
回答
如何使用
Spark
流和Python使用Kafka
的
JSON记录?
、
、
、
我
创建
了一个带有JSON格式记录
的
Kafka主题。.from-beginning \ --consumer.config /root/client.properties 我如何使用Python
中
的
Spark
流来实现这一点?
浏览 5
提问于2017-05-24
得票数 1
回答已采纳
1
回答
Spark
2 Kafka结构流Java不知道from_json函数
、
、
、
我有一个关于Kafka流上
的
Spark
结构化流媒体
的
问题。我有一个模式,类型是: .add("field1", StringType)这是我
的
导入:import org.apache.
spark
.sql.Row; import org.apache.<e
浏览 10
提问于2018-09-24
得票数 0
2
回答
Spark
Structured
Streaming
中
的
提交消息
、
、
我使用
的
是
spark
sturctured (2.3)和kafka 2.4版本。import org.apache.
spark
.sql.catalyst.encoders.RowEncoder; import org.ap
浏览 0
提问于2020-03-20
得票数 0
1
回答
对于
spark
结构化流式处理Json记录,架构是否为必填项
、
、
我正在浏览下面的博客
中
的
spark
structured。 .add("Records", ArrayType(new
StructType
() .add("additionalEventData例如,在
spark
batch
streaming
中
,我们在下面的代码行
中<
浏览 3
提问于2018-03-23
得票数 1
2
回答
如何在PySpark中将df列[JSON_Format]转换为多个列?
、
、
、
、
我
从
Kafka那里得到了JSON格式
的
数据,并在PySpark
中
以DataFrame
的
形式读取了这些数据。在我
从
Kafka获得数据后,它显示为DataFrame格式: DataFrame[value: string] 但是,该值包含JSON / DICT格式。
浏览 24
提问于2020-01-13
得票数 0
2
回答
Spark
流实时处理
、
我需要一个应用程序,使工人之间
的
通信。假设worker 1正在处理job 1,它将生成其他works所依赖
的
数据输出。此外,这个过程应该重复多次,这意味着每当worker 1生成新
的
数据集时,其他worker都应该开始输入该数据集并完成自己
的
工作。
spark
能做到吗?到目前为止,我已经看到了
spark
流实时处理,但流通信似乎没有发生在工人之间?任何方向或建议都将不胜感激。
浏览 1
提问于2015-07-06
得票数 0
1
回答
从
kafkaDirectStream到Postgresql
的
火花
、
、
、
我正在尝试使用pyspark插入kafka流
中
的
数据 cols = ['id','name'] #
spark
contextpara_seconds) brokers = 'localhost:9092' # get <
浏览 1
提问于2021-06-30
得票数 0
1
回答
Spark
Streaming
:使用带有列修剪
的
MicroBatchReader
的
模式不匹配
、
、
、
我正在写一个自定义
的
Spark
流媒体源码。我想支持列修剪。{ schema = requiredSchema我正在使用模式
创建
批处理行:我已经检查过,在我返回
的<
浏览 2
提问于2018-06-29
得票数 2
1
回答
无法解析符号JavaSparkSessionSingleton
、
、
、
、
我是星火流
的
新手。我试图实现
的
是
从
kafka读取json
字符串
数据,将其存储在DStream
中
,并将其转换为Dataset,以便将其加载到Elasticsearch
中
。我正在使用这个
的
部分代码。; import org.apache.
spark
.sql.types.
StructType<
浏览 1
提问于2017-05-05
得票数 0
回答已采纳
1
回答
Spark
Streaming
2.3.1类型转换:将
字符串
转换为时间戳
、
、
、
我使用
的
是apsche
spark
streaming
2.3.1,其中我接收到一个流,其中包含"HH:mm:ss.xxxxxxxxx“格式
的
时间戳值(13:09:05.761237147)作为
字符串
。我需要将此
字符串
转换为timestamp数据类型。
spark
= SparkSession \ .appName("abc") \ schema =
Str
浏览 0
提问于2018-09-04
得票数 2
3
回答
控制文件
的
Spark
流
、
、
我使用
Spark
从
文件夹
中
读取文本文件,并将它们加载到hive
中
。我如何控制火花流,以限制程序读取
的
文件数量?目前我
的
程序正在读取过去1分钟内生成
的
所有文件。但我想控制它正在读取
的
文件数量。 我使用
的
是textFileStream接口。
浏览 4
提问于2017-02-28
得票数 0
1
回答
Spark
read avro
、
val df =
spark
.read.avro(file)尝试手动
创建
架构,但现在遇到以下问题: val df =
spark
.read$I
浏览 0
提问于2018-06-15
得票数 1
1
回答
在_
spark
_metadata
中
什么也没有发现
、
、
我试图从一个特定
的
文件夹
中
读取CSV文件,并将相同
的
内容写入到本地pc上不同位置
的
其他CSV文件
中
,以供学习。我可以读取文件并在控制台上显示内容。我在这里一步一步地粘贴整个代码:
spark
= SparkSession \.appName('csv01') \
spark
.conf.set(&qu
浏览 3
提问于2018-06-09
得票数 0
回答已采纳
1
回答
使用
spark
.readStream .format("s3- SQS ")仅获取空值以获取SQS消息
、
、
、
、
我正在尝试
从
Amazon SQS队列
中
读取消息。权限正在工作,我可以看到记录计数-但所有记录都为空。我不知道为什么我会得到空值。我可以看到SQS队列
中
的
消息,也可以
从
本地Python实例
中
获取它们,它们实际上是反映模式
的
JSON记录(尽管不能百分之百确定我是否正确地实现了模式)。import org.
浏览 3
提问于2018-05-03
得票数 0
2
回答
如何为
Spark
新
的
结构化流媒体编写集成测试?
、
、
我遵循了
的
通用
Spark
测试问题,我最接近
的
尝试是[],看起来像这样:import org.scalatest.FunSpec{StringType, IntegerType, DoubleType,
StructType
, DateType} it("Rea
浏览 1
提问于2018-03-28
得票数 6
1
回答
如何在运行时在DStream中找到值
的
模式?
、
、
、
我使用
的
是
Spark
1.6和Kafka 0.8.2.1。 我正在尝试使用
Spark
Streaming
从
Kafka获取一些数据,并对这些数据进行一些操作。为此,我应该知道获取
的
数据
的
模式,有什么方法可以做到这一点,或者我们可以通过使用字段名
从
流
中
获取值吗?
浏览 0
提问于2017-05-29
得票数 1
2
回答
星火卡夫卡任务不可连载
、
当我试图将星星之火应用程序分解成类并使用Try时,我遇到了一个无法串行化
的
任务。我试过用这门课而不是用这门课..。但在这两种情况下,我得到了一个与闭包相关
的
serz错误。我猜是有东西被牵扯进来了。这个错误一直困扰着我..。四处走动真是太痛苦了。如果有人能对我如何避免这个问题有所了解,那就太棒了。这些Java类似乎存在比有时更多
的
问题。{col, from_json} import org.apache.
spark</
浏览 1
提问于2018-07-30
得票数 1
回答已采纳
3
回答
带有备选方案
的
重载方法foreachBatch
、
我有一个错误: org.apache.
spark
.api.java.function.VoidFunction2[org.apache.
spark
.sql.Datasetorg.apache.
spark
.sql.Row,java.lang.Long])org.apache.
spark
.sql.
streaming
.DataStreamWriterorg.apache.
spark
.sql.
streaming
.DataStreamWriterorg.apache.
sp
浏览 5
提问于2020-07-28
得票数 6
2
回答
火花流写问题
、
、
我试图
从
文本文件
中
的
JSON记录
中
创建
一个动态模式,因为每个记录都有不同
的
模式。下面是我
的
代码。import org.apache.
spark
.sql.SparkSessionimport org.apache.
spark
.sql
浏览 5
提问于2020-03-10
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
flink和spark Streaming中的Back Pressure
Spark Streaming 中管理 Kafka Offsets 的几种方式
Spark SQL DataFrame与RDD交互
Spark Streaming+Kafka+Hbase项目实战
Python中的字符串,创建很简单,有6种特殊用法
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券