腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8836)
视频
沙龙
1
回答
将
pyspark
dataframe
写入
kafka
、
我有
pyspark
数据帧,我想写到卡夫卡主题。: string (nullable = true) 我尝试过的代码 df.selectExpr("to_json(struct(*)) AS value") \.format("
kafka
") \.option("topic", "test") \ .sa
浏览 96
提问于2020-06-17
得票数 2
1
回答
将
Dataframe
激发到StringType
、
、
、
在
PySpark
中,如何
将
Dataframe
转换为普通字符串?我
将
PySpark
与
Kafka
一起使用,而不是硬编码代理名称,而是在
PySpark
中参数化了
Kafka
broker名称。这些变量为带有字符串的
Dataframe
类型。错误: 只能将字符串(不是
Dataf
浏览 0
提问于2021-03-05
得票数 0
1
回答
Pyspark
结构化流处理
、
、
我正在尝试用spark做一个结构化的流媒体应用程序,主要思想是从
kafka
源读取,处理输入,写回另一个主题。我已经成功地让spark读写了
kafka
,但是我的问题出在处理部分。我尝试过foreach函数来捕获每一行并在写回
kafka
之前对其进行处理,但是它总是只做foreach部分,而不会写回
kafka
。但是,如果我从writestream中删除foreach部分,它将继续
写入
,但现在我丢失了处理。.ap
浏览 37
提问于2019-07-17
得票数 0
回答已采纳
1
回答
如果Maven坐标必须是'groupId:artifactId:version‘
PySpark
和
Kafka
格式的
、
、
当
将
Kafka
消息转换为
dataframe
时,在
将
包作为参数传递时会出现错误。from
pyspark
.sql import SparkSession, Rowfrom
kafka
importKafkaConsumer os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--packages o
浏览 1
提问于2020-06-12
得票数 2
回答已采纳
1
回答
PySpark
:
将
Spark
Dataframe
写入
Kafka
主题
、
、
我正在尝试
将
数据帧加载到
Kafka
主题。我在选择键和值时遇到错误。任何建议都会很有帮助。下面是我的代码, data = spark.sql('select * from job') .writeStream.outputMode(outputMode='Append').format('
ka
浏览 77
提问于2020-06-14
得票数 0
1
回答
基于dashbord可见性的
PySpark
结构化流查询
、
、
我编写了一些连接到
kafka
broker的示例代码,从主题读取数据并将其放入snappydata表。from
pyspark
.conf import SparkConffrom
pyspark
.sql import SQLContext, Row, SparkSessionfrom
pyspark
.rdd im
浏览 1
提问于2020-11-30
得票数 0
回答已采纳
1
回答
CDH星火消费者kerberos
kafka
、
、
、
、
有没有人尝试使用spark-steaming(
pyspark
)作为CDH中kerberos
KAFKA
的消费者?是不是CDH不支持?
浏览 2
提问于2018-02-08
得票数 1
2
回答
PySpark
Kafka
py4j.protocol.Py4JJavaError:调用o28.load时发生错误
、
、
当
将
Kafka
消息转换为
dataframe
时,在
将
包作为参数传递时会出现错误。from
pyspark
.sql import SparkSession, Rowfrom
kafka
importKafkaConsumer os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--jars spark
浏览 5
提问于2020-06-12
得票数 1
2
回答
如何使用
pyspark
读取hdfs
kafka
数据?
、
、
、
、
我正在尝试读取通过
Kafka
和SparkStreaming获取的HDFS存储的数据。我使用的是一个Java应用程序,它使用JavaRDD.saveAsTextFile方法
将
一些任意数据保存到Hadoop。然后,在
pyspark
应用程序中,我尝试使用sparkContext.textFile读取数据。 问题是我读取的数据(使用python或localhost:50070中的“手工”)也包含元数据。
浏览 0
提问于2018-01-22
得票数 0
回答已采纳
1
回答
PySpark
:关于调用df.foreach方法的PicklingError
、
、
、
我有一个代码(
kafka
_producer.py),从csv >>中读取,创建Pandas
dataframe
>>,
将
熊猫的数据转换为星星之火>>调用>>方法,
将
消息发送给
kafka
。代码如下: kafkaBrokers='
kafka
.broker:9093' caRootLocation='/path&
浏览 37
提问于2022-05-27
得票数 0
回答已采纳
4
回答
如何在结构化流式传输中将数据帧转换为rdds?
、
我使用
pyspark
流从
kafka
获取数据,结果是一个
dataframe
,当我
将
dataframe
转换为rdd时,它出错了: Traceback (most recent call last):File "/home/softs/spark-2.4.3-bin-hadoop2.6/py
浏览 56
提问于2020-01-06
得票数 3
1
回答
writeStream:在一个单独的json文件中的每个数据帧行
、
、
我正在使用
pyspark
将
Kafka
主题中的数据作为流数据读取,如下所示: .appName("Spark Structured Streamingfrom
Kafka
") \ .readStream \ .option("
kafka
.bootstrap.ser
浏览 2
提问于2020-03-12
得票数 0
回答已采纳
1
回答
Couchbase Spark Connector支持
PySpark
吗?
、
、
、
、
我们有10个节点的AWS EMR集群,emr 5.5.0版本,Spark 2.1.0我们希望将此摘要数据(
PySpark
DataFrame
)
写入
couchbase数据库。Couchbase Spark Connector支持
PySpark
吗?如果是,请分享一下如何使用
浏览 16
提问于2017-08-05
得票数 0
1
回答
由于文件格式不匹配,
PySpark
数据不能保存在Hive中
、
、
、
我想把流数据从
kafka
topic写到hive table。 global table data.select(col("key"),col("value&q
浏览 10
提问于2022-03-23
得票数 0
回答已采纳
2
回答
pyspark
streaming DStreams to
kafka
主题
、
、
、
简单地说,有没有可能将DStream流式传输到
Kafka
主题? 我有火花流作业,它做了所有的数据处理,现在我想把数据推送到卡夫卡主题。在
pyspark
中可以做到这一点吗?
浏览 1
提问于2018-06-08
得票数 0
1
回答
spark流式传输到
pyspark
json文件中的数据帧
、
、
、
我正在从
kafka
流式传输json数据,我需要转换为
pyspark
中的
Dataframe
。为了流媒体,我使用了下面的代码。from
pyspark
.streaming import StreamingContextfrom
pyspark
.sql,rdd): nf.toDF().show() # C
浏览 3
提问于2017-07-30
得票数 0
1
回答
将
星火流
PySpark
数据格式
写入
Cassandra覆盖表而不是追加
、
、
、
、
从一个简单的Python脚本中,我每5秒
将
一些虚拟数据流到
Kafka
主题中。然后,使用Spark结构化流,我
将
这个数据流(每次一行)读入
PySpark
DataFrame
中,其中包含startingOffset = latest。最后,我试图
将
这一行附加到已经存在的Cassandra表中。有一行数据正在成功地
写入
Cassandra表中,但我的问题是,每次覆盖时,都会被覆盖,而不是
将
追加到表的末尾。/bin/
浏览 1
提问于2020-10-21
得票数 0
回答已采纳
1
回答
在火花流/结构化流中阅读
Kafka
的avro消息
、
、
、
、
火花版本: 2.3.0卡夫卡版本: 2.2.0 我有一个卡夫卡生产者,它以avro格式发送嵌套数据,我正在尝试用火花流/结构化流写代码,这将反序列化从
kafka
到
dataframe
的avro,做转换,把它以拼花格式写成我能够在spark/scala中找到avro转换器,但是还没有增加对
pyspark
的支持。如何在火花放电中转换相同的内容。谢谢。
浏览 3
提问于2019-05-02
得票数 3
回答已采纳
1
回答
使用
Pyspark
编写
DataFrame
到
Kafka
主题
、
、
我有下面的
DataFrame
,它有模式和data.Now,我只是
将
这些数据
写入
Kafka
主题,这是vehicleData。vehicleData") \ Fi
浏览 1
提问于2020-03-11
得票数 0
1
回答
数据帧如何与窗口函数获得相同分组
、
、
我正在使用
PySpark
的
DataFrame
部分来分析来自Apache
Kafka
的数据。我遇到一些麻烦,需要一些帮助。from
pyspark
.sql import functions # selected_df is
dataframe
come from
kafka
use spark.readStream.format("
kafka
")...windowed_group_1 = selected_df.withWatermark(&
浏览 21
提问于2019-03-14
得票数 1
点击加载更多
相关
资讯
《从0到1学习Flink》——Flink 写入数据到 Kafka
PySpark,一个大数据处理利器的Python库!
如何在Kerberos环境使用Flume采集Kafka数据并写入HDFS
将工作表数据写入VBA数组
PySaprk之DataFrame
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券