腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
JavaPairDStream
中
添加
tuple2
值
、
、
我有一个带有
值
的
JavaPairDStream
<String,
Tuple2
<Double, Double>>, (ADBE,(1.1,1.2))(MSFT,(4.4)) 如何在Java Spark streaming
中
实现这一点?
浏览 12
提问于2019-02-16
得票数 0
1
回答
用多键Java减少火花流
、
、
、
让我简单地描述一下情况,(B, 33.3%)据我所知,结果将由reduceByKeyAndWindow()函数提供,例如,根据申请的相反流程,我的问题是, 如何在
JavaPairDStream
上定义具有多个
值
浏览 1
提问于2016-11-21
得票数 1
回答已采纳
1
回答
在
JavaSparkStreamingContext
中
执行查询
、
、
、
我了解到,
在
使用DStreams作为print()时,只承认了一些输出操作。这是一段代码
JavaPairDStream
<String<String, Integer> lines = messages.mapToPair((x)->(new
Tuple2
<String, Integer>(x._2, 1))).reduceByKey(sumFunc);
浏览 6
提问于2017-06-16
得票数 2
回答已采纳
1
回答
多接收机火花流并行处理
、
、
在
我的应用程序
中
,我正在为多个定制接收器(为不同的UDP数据套接字使用2个接收器,为HTTP数据使用1个接收器)使用Spark流。接收器的转换没有任何共同的资源。reduce.foreachRDD(rdd -> DebugUtil.saveTestDataToDisk(rdd, "reduce" + "-" + suff));
JavaPairDStream
<String, NginxRaw> uidRaw
浏览 1
提问于2017-12-29
得票数 4
1
回答
无法持久化DStream以便在下一批中使用
、
、
<String,ArrayList<String>> history = history_dstream.mapToPair(r -> {然后按下面的方式进行连接,然后过滤掉那些没有连接键的记录,并通过与Data_1联合使用,将它们保存在历史记录
中
,以便在下一批中使用。Data_1 = Data_1.union(history);
JavaPairDS
浏览 2
提问于2017-06-08
得票数 1
回答已采纳
1
回答
使用转换将JavaPairRDD连接到
JavaPairDStream
时出现不兼容类型错误
、
、
我尝试使用transform将JavaPairRDD连接到
JavaPairDStream
中
的RDD,但得到以下错误: flumeEvent -> { LogType
浏览 0
提问于2016-03-02
得票数 0
1
回答
如何在火花流
中
映射paralell
中
的键/
值
分区
、
、
我有一个
在
本地模式下运行的Spark流程序,在这个模式
中
,我从一个TCP套接字连接接收JSON消息,每个批处理间隔几个。这些消息
中
的每一条都有一个ID,用于创建一个键/
值
JavaPairDStream
,因此
在
我的JavaDStream
中
的每个RDD分区
中
,都有一个键/
值
对,每个分区只有一个消息。StorageLevels.MEMORY_AND_DISK_SER); JavaDStream<String>
浏览 2
提问于2016-06-19
得票数 2
回答已采纳
1
回答
输入流数据在任务之间分布不均匀
、
、
、
= null); .mapToPair(s -> new
Tuple2
<String, CDR>(s
JavaPairDStream
<String,
Tuple2
<CDR, List<<String,
Tuple2
<CDR,List&
浏览 1
提问于2016-03-30
得票数 0
1
回答
用星火中几个逗号分隔的字段映射RDD
、
、
String> call(String s) { return Arrays.asList(s.split(",")); } });
JavaPairDStream
<String, Integer> pairs = words.map( public
Tuple2
浏览 2
提问于2015-12-09
得票数 0
回答已采纳
3
回答
Apache Spark Lambda表达式-序列化问题
、
、
、
我曾尝试
在
spark任务中使用lambda表达式,但它抛出了"java.lang.IllegalArgumentException: Invalid lambda反序列化“异常。
JavaPairDStream
<String,Integer> aggregate = pairRDD.reduceByKey((x,y)->x+y);
JavaPairDStream</
浏览 0
提问于2015-07-29
得票数 7
1
回答
火花流: PairDStream.print返回的不同平均值
、
、
、
、
我编写了一个用于接收来自textSocketStream的数据的星火程序,我正在计算一个温度
值
的平均值。当我停止
在
~1 min之后将数据发送到我的Spark集群时,窗口的时间(即1h )的平均值不应该改变,所以有关于59 min over的内容,在那里什么都不应该改变!现在我发现了一个问题:对我来说,这个数据量是正确的:窗口DStream
中
的100个条目,但是
值
的计算和(以及通过avg = sum / count计算的平均值)
在
几个不同的平均值之间波动。在这里,控制台输出片段(
在</em
浏览 1
提问于2016-09-02
得票数 1
1
回答
如何根据星火中的分区对键值进行分组?
、
、
使用这个ID作为密钥,我可以执行一个MapPartitionsToPair,从而创建一个
JavaPairDStream
,其中包含一个键/
值
对的RDD,每个分区一个键值对(因此,如果我收到5个JSON消息,就会得到一个具有5个分区的RDD,每个分区都以消息的ID作为键,JSON消息本身作为
值
)。我现在要做的是,将所有具有相同键的
值
分组到同一个分区
中
。ssc.socketTextStream(args[0], Integer.parseInt(args[1]), Storag
浏览 3
提问于2016-06-19
得票数 4
回答已采纳
1
回答
偏移量JavaPairInputDstream流
、
、
、
JavaInputDstream API有一个从特定偏移量开始的选项,但是我需要它,因为JavaPairInputDstream是解决方法,我们可以使用它来获取JavaPairInputDstream,因为
在
API
中
它是不可用的。
浏览 3
提问于2017-11-29
得票数 0
1
回答
NoSuchElementException: MapPartitionsToPair
中
的空迭代器
、
、
我试图
在
星火流
中
执行一个MapPartitionsToPair,但是它总是返回错误: NoSuchElementException: next on空迭代器。这是我的代码: @Override pub
浏览 3
提问于2016-06-17
得票数 0
回答已采纳
1
回答
如何让spark partition变得粘性,即跟node在一起?
、
在
某种程度上,我将流数据按键分组,然后对它们进行一些操作。...
JavaPairDStream
<Integer, Iterable<Integer>> grouped = mapped.groupByKey(); @Override public
Tuple2
<Integer, Integer>
浏览 0
提问于2015-01-22
得票数 2
1
回答
调用updateStateByKey时出现编译错误
、
编译错误:
在
一个简单的字数统计示例
中
,将
浏览 3
提问于2015-08-03
得票数 1
1
回答
Spark将JavaDStream<String>方法转换为
JavaPairDStream
<String,String>方法
、
、
、
我
在
Spark Streaming代码中有这个函数,它可以将推文分成单独的单词 .flatMap
JavaPairDStream
<String, String> wordTweets = statuses.flatMapToPair( public Iterabl
浏览 0
提问于2015-04-23
得票数 0
0
回答
排序JavaDStream - Spark流
、
、
、
JavaPairDStream
<String, Integer> wordCounts = words.mapToPair( @Override returnnew
Tuple2
<>(s, 1); }).reduce
浏览 2
提问于2017-06-10
得票数 2
回答已采纳
2
回答
kafka将引发java api流问题
、
createStream(jssc, "localhost:2181", "kafkasparkconsumer",下面的代码给出了一个错误: new PairFunction<String, String, Integer>() { @Override public
Tuple2
<String
浏览 6
提问于2015-02-05
得票数 3
1
回答
为什么当我发送两个输入流时,火花流停止工作?
、
、
、
我正在开发一个Spark流应用程序,在这个应用程序
中
,我需要使用Python
中
的两个服务器的输入流,每个服务器每秒向Spark上下文发送一个JSON消息。String> streamData2 = ssc.socketTextStream("localhost", 9995,StorageLevels.MEMORY_AND_DISK_SER);
浏览 6
提问于2016-05-09
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在图形中添加文字
SparkStreaming&Kafka——Direct方式
在word文档中怎么添加编号?
怎样在pdf中批量添加版权水印?
在mixv中添加贴纸的具体步骤
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券