腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
无法
使用
pyspark
从
kafka
读取
数据
、
、
、
我在我的
kafka
主题中有一个流
数据
。我需要
使用
pyspark
以
pyspark
dataframe的形式
从
topic中
读取
这些
数据
。但是当我调用readStream函数时,我不断地收到错误。我的代码如下: os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--packages org.apache.spark:spark-streaming-
kafka
-0-8_2
浏览 15
提问于2018-01-12
得票数 2
2
回答
如何
使用
pyspark
读取
hdfs
kafka
数据
?
、
、
、
、
我正在尝试
读取
通过
Kafka
和SparkStreaming获取的HDFS存储的
数据
。我
使用
的是一个Java应用程序,它
使用
JavaRDD.saveAsTextFile方法将一些任意
数据
保存到Hadoop。
数据
保存在本地主机:50070的默认hadoop浏览器中。 然后,在
pyspark
应用程序中,我尝试
使用
sparkContext.textFile
读取
数据
。问题是我
读取
的
数
浏览 0
提问于2018-01-22
得票数 0
回答已采纳
2
回答
pyspark
是否支持spark-streaming-
kafka
-0-10 lib?
、
、
我的
kafka
集群版本是0.10.0.0,我想
使用
pyspark
流来
读取
kafka
数据
。但是在Spark Streaming +
Kafka
集成指南中,没有python代码示例。那么
pyspark
可以
使用
spark-streaming
kafka
-0-10来集成
kafka
吗? 提前感谢您的帮助!
浏览 11
提问于2017-08-05
得票数 0
1
回答
面对来自守护进程-Windows的错误响应
、
、
、
我正试图
使用
docker在windows上运行apache,我的docker-compose.yml代码如下所示:services: image:jupyter/
pyspark
-notebook - "9092:9092" volumes:: image: 'bitnami/
kafka
:la
浏览 14
提问于2022-09-07
得票数 0
2
回答
使用
pyspark
批处理作业
读取
Kafka
的最新记录
、
我正在
pyspark
中执行一个批处理作业,其中spark将每5分钟
读取
一次
kafka
主题中的
数据
。df = spark \ .format("
kafka
") \ ..option("startingOffsets", "earliest") \ .op
浏览 2
提问于2020-03-04
得票数 0
3
回答
如何在星火流应用程序中
使用
Kafka
主题?
、
、
、
当我
从
Kafka
主题创建一个流并打印它的内容时 os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--packages org.apache.spark:spark-streaming-
kafka
-0-8_2.11:2.0.2
pyspark
-shell' from
pyspark
.stre
浏览 2
提问于2019-12-08
得票数 1
回答已采纳
1
回答
使用
python将
数据
从
kafka
发送到s3
、
、
对于我的当前项目,我正在
使用
Kafka
(python),并想知道是否有任何方法可以将流式
Kafka
数据
发送到AWS S3桶(而不
使用
汇流)。我
从
Reddit API获得我的源
数据
。我甚至想知道
Kafka
+s3是否是一个很好的组合,用于存储
数据
,这些
数据
将
使用
pyspark
进行处理,或者我应该跳过s3步骤,直接
从
Kafka
读取
<
浏览 5
提问于2022-08-28
得票数 0
1
回答
基于dashbord可见性的
PySpark
结构化流查询
、
、
我编写了一些连接到
kafka
broker的示例代码,
从
主题
读取
数据
并将其放入snappydata表。from
pyspark
.conf import SparkConffrom
pyspark
.sql import SQLContextspark-submit --master spark://10.0.0.4:1527 /path_to/fil
浏览 1
提问于2020-11-30
得票数 0
回答已采纳
1
回答
火花流+
Kafka
集成
、
、
、
、
我试图整合星火和卡夫卡在木星笔记本
使用
。这是我的工作环境。火花版本:星星之火2.2.1卡夫卡版本:
Kafka
_2.11-0.8.2.2火花流卡夫卡jar: spark-streaming-
kafka
-0-8-assembly_2.11-2.2.1.jar 这是我的密码。from
pyspark
import SparkConte
浏览 1
提问于2018-08-08
得票数 0
1
回答
无法
使用
spark streaming
从
kafka
主题
读取
数据
、
、
、
我正在尝试
使用
spark streaming来
读取
kafka
主题中的
数据
。我可以将消息生成
kafka
主题,但当
使用
spark streaming
读取
主题中的
数据
时,我收到错误消息,如下所示: ERROR ReceiverTracker: Deregistered receiverreceiver 0 - java.lang.ClassCastException: java.util.HashMap cannot be cast to java.lang
浏览 0
提问于2019-05-27
得票数 1
1
回答
使用
kafka
作为外接程序的Heroku postgresql的火花流
、
、
、
、
我正在尝试
使用
数据
库中的
pyspark
从
Heroku postgres
数据
库流,
使用
kafka
作为插件。下面有这样的代码,但是它连续运行,没有返回任何内容,也没有错误。我尝试在代码中添加触发器,但不知道要
使用
什么导入,因为我没有在网上找到它的包。.等待
数据
。{“消息”:“初始化源”,“isDataAvailable”:False,“isTriggerActive”:False} 我
使用
了
kafka
浏览 14
提问于2022-10-16
得票数 0
1
回答
如何以编程方式将
Kafka
主题加载和流到
PySpark
数据
、
、
、
卡夫卡有许多读/写火花
数据
的方法。我试着阅读来自卡夫卡主题的信息,并从中创建一个
数据
框架。可以
从
主题中提取消息,但
无法
将其转换为
数据
文件。任何建议都会有帮助。import
pyspark
from
pyspark
.context import SparkContextdf = spark \ .format(
浏览 1
提问于2020-06-12
得票数 1
1
回答
如何
使用
卡夫卡readStream,每5秒读一次电火花?
、
、
、
我想每隔5秒阅读一个主题;对于较早版本的
pyspark
,我可以
使用
kafka
-utils和window方法,但目前我不能
使用
它。现在,我用下面的代码
从
kafka
用spark加载
数据
.format("
kafka
") \ .option("
kafka
.bootstrap.servers", 'localhost:9092')
浏览 3
提问于2022-01-16
得票数 1
回答已采纳
2
回答
如何在
pyspark
中
从
kafka
中以字符串格式
从
Confluent Schema Registry获取Avro
数据
?
、
、
、
、
我正在从spark (结构化
数据
流)中
读取
Kafka
中的
数据
,但在spark中
从
kafka
中获取的
数据
不是字符串格式。火花: 2.3.4{"Patient_ID":316,"Name":"Richa","MobileNo":{"long":7049123177},"BDate":{"
浏览 1
提问于2019-12-27
得票数 0
1
回答
我可以
使用
Pyspark
更新远程Mysql DB中的表中的值吗?
、
、
、
、
我正在
使用
kafka
从
远程mysql
数据
库
读取
数据
,并将其传递到
Pyspark
streaming以应用情感分析,然后用该值更新mysql
数据
库中的列。这是最好的情况,还是有比这更有效的架构?
浏览 1
提问于2019-11-20
得票数 0
1
回答
在
pyspark
中将
Kafka
的结果写入csv
、
、
我已经设置了一个
Kafka
代理,并且我设法用
pyspark
读取
记录。import osimport
pyspark
from
pyspark
import SparkConf, SparkContext, SQLContext, Rowfrom
pyspark
.
浏览 12
提问于2020-05-20
得票数 0
1
回答
使用
pyspark
- stucked将
数据
从
kafka
写入hive
、
、
我对spark非常陌生,并从
pyspark
开始,我正在学习
使用
pyspark
将
数据
从
kafka
推送到hive。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql.functionsimport * from
pyspark
.streaming.
kafka
imp
浏览 2
提问于2020-02-17
得票数 0
1
回答
TypeError:'JavaPackage‘对象不可调用&在类路径中找不到Spark Streaming的
Kafka
库
、
、
、
我
使用
pyspark
流来
读取
kafka
数据
,但它出错了:from
pyspark
.streaming.
kafka
import KafkaUtilssc = SparkContext(appName="t
浏览 0
提问于2020-01-05
得票数 0
1
回答
如何正确
使用
pyspark
向
kafka
broker发送
数据
?
、
、
、
我正在尝试编写一个简单的
pyspark
作业,它将从
kafka
broker主题接收
数据
,对这些
数据
进行一些转换,并将转换后的
数据
放在不同的
kafka
broker主题上。我有以下代码,它从
kafka
主题
读取
数据
,但在运行sendkafka函数时没有任何效果:import sys
浏览 4
提问于2016-05-20
得票数 8
回答已采纳
1
回答
pyspark
kafka
流偏移量
、
、
、
、
我从下面的链接中获得了关于
kafka
主题偏移流的
pyspark
。from
pyspark
.streaming import StreamingContextfrom
pyspark
.streaming.
kafka
topicPartion = TopicAndPartition(topic, 0) fromOffset = {topicPartion: long(PUT NUM
浏览 0
提问于2018-10-06
得票数 0
点击加载更多
相关
资讯
ArcMap中无法读取NetCDF数据
Python大数据处理库PySpark实战——使用PySpark处理文本多分类问题
PySpark算子处理空间数据全解析(5):如何在PySpark里面使用空间运算接口
使用Pandas读取复杂的Excel数据
Pandas从MySQL中读取和保存数据
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券