腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(515)
视频
沙龙
1
回答
Flink
Streaming
Python
API
-
reduce
()
生成
增量
结果
,
而
不是
最
终值
、
、
我正在尝试使用
Python
API
for
streaming
在
Flink
上实现Kmeans Cluctering算法。我正在根据第0个索引执行key_by,然后尝试对每个组执行
reduce
(),以获得某种计数聚合。(CentroidAccumulator()) (2, <tuple>, count) (3
浏览 30
提问于2019-05-13
得票数 1
回答已采纳
1
回答
请确认这是使用
Flink
将数据流到Hadoop的正确方式。
、
我为
Flink
流找到的大多数示例都会将
结果
发送给std-out。实际上我想把数据保存到Hadoop。我读过,理论上,你可以和
Flink
一起流到任何你喜欢的地方。;import org.apache.
flink
.
streaming
.
api
.datastream.DataStream; import org.apache.
浏览 8
提问于2015-12-28
得票数 4
1
回答
基于自动
增量
id在数据库中插入散列id (快速搜索所需的?)
、
、
、
、
我希望像这个/
api
/resource/hSkR3V9aS一样在URL中看到散列id,
而
不仅仅是简单的自动
增量
id /
api
/resource/34。我的第一个想法是使用,只需从自动
增量
id
生成
hash_id,并将两个值存储在数据库中,但问题是我必须首先使用INSERT新行数据,即GET id,然后再UPDATE UPDATE hash_id字段。第二个尝试是
生成
hash_id (例如,sha1),
不是
浏览 2
提问于2017-10-02
得票数 0
回答已采纳
5
回答
Hadoop
API
与.Hadoop流
、
、
使用Streamer jar运行hadoop程序和使用程序的jar文件运行hadoop程序有什么不同?
浏览 0
提问于2011-12-20
得票数 4
1
回答
Flink
StateFun高可用性例外:"java.lang.IllegalStateException:状态没有运算符.“
、
、
1-我尝试了动物园管理员和Kubernetes HA设置,
结果
是一样的(下面的日志来自动物园管理员HA )。以下是不成功的例子:2021-12-11 21:55:14,001 DEBUG org.apache.
flink
.
streaming
.
api
.graph.StreamGraphHasherV2my-ingress-1-in)-5' {id: 5, parallelism: 1, user function: } 2021-12-11 21:55:14,001 DEBUG org.apache.<e
浏览 54
提问于2021-12-11
得票数 0
回答已采纳
2
回答
需要有关以每通道10分钟批对齐的方式存储时间序列数据的建议
、
期望的最终
结果
是数据以10分钟的批次打包,在10分钟内对齐(即00:00 <t <= 00:10,00:10 <t <= 00:20,...,23: 50 <t <= 00:00)。第二个任务侦听这个“边界主题”,对于每个接收到的10分钟边界,从Cassandra中提取数据,执行min、max、mean、stddev等计算,并将数据和这些
结果
打包到定义的输出目录中。
浏览 1
提问于2018-07-16
得票数 0
2
回答
如果我们在
Python
中使用耗尽的
生成
器来执行循环,会发生什么?
、
、
、
我正在
python
3中创建一个
生成
器,它可能产生一个或更多的值。我的问题与产生单个值的
生成
器有关。:只打印0,<
浏览 9
提问于2022-06-20
得票数 0
回答已采纳
1
回答
加入
Flink
SQL时不可预见的Tombstone消息
、
、
我们有一个SQL作业(表
API
),它将从Kafka主题(8个分区)中提供的内容作为源读取,并在与其他数据源进行一些聚合之后,将其汇回另一个Kafka主题,以计算
最
便宜的数据源,并在该
结果
之上聚合额外的数据,但经过一段时间后,每当数据源中发生某些事件时,它们都会意外地导致墓碑(但有时是正确设置的)
结果
,在检查它们之后,我们注意到不应该这样做,主要是因为对该项有实际
最
便宜的报价,相关的联接行确实存在。数据槽 这是同一项的data,我们可以看到,由于数据源的更新,最近的更新是同时
生成
的
浏览 12
提问于2022-09-22
得票数 1
回答已采纳
1
回答
弗林克卡夫卡消费者没有收到卡夫卡的信息
、
、
我正在运行卡夫卡和
Flink
作为码头集装箱在我的mac。package com.p81.datapipeline.swg; import org.apache.
flink
.
streaming<
浏览 2
提问于2021-11-24
得票数 0
回答已采纳
3
回答
Apache在Spark/
Flink
上对批处理有什么好处?
、
、
支持多个运行程序后端,包括Apache和
Flink
。我很熟悉Spark/
Flink
,我正试图看到Beam批量处理的利弊。从的角度来看,它觉得它非常类似于本机Spark/
Flink
的等价物,可能有一个稍微冗长一些的语法。 是否有更好的例子突出梁模型的其他利弊?是否有任何关于失控如何
浏览 4
提问于2017-04-24
得票数 108
回答已采纳
3
回答
CouchDB:根据时间戳返回最新类型的文档
、
、
现在,这些文档是按时间间隔
生成
的,大约每小时
生成
一次。]; }}问题是它太慢了,需要我在CouchDB配置中使用
reduce
_limit=false。 感觉必须有一种更有效的方式来做这件事。更新相同的文档
不是
一个选项--历史记录很重
浏览 0
提问于2012-05-01
得票数 2
回答已采纳
4
回答
Python
:如何在不首先创建整个列表的情况下计算列表的和?
、
、
、
通常我们必须(1)声明一个列表(2),用sum()计算这个列表的和[1,5,9,13,17,21,25,29,33,37,…](2)如何快速得到该列表中第101元素到第200元素的和?
浏览 3
提问于2017-02-06
得票数 4
回答已采纳
2
回答
根据Tensorflow中的分段长度计算tf.math.segment_sum中所需的分段ids
、
、
、
,
而
l存储原始序列的长度。
api
的)等价物digitize,名为bucketize,正如Tensorflow中的digitize的this search中提到的那样。但是似乎引用的hidden_ops.txt已经从Tensorflow中删除了,我不清楚
python
api
中是否仍然支持(也将支持) tensorflow::ops::Bucketize函数。但是这个尝试失败了,因为 seq_ids = tf.train.piecewise_constant(tf.range(tf.math.
reduce
_s
浏览 36
提问于2019-02-20
得票数 2
1
回答
数组中元素和索引的和
、
、
、
如果我有像1,2,3,4,5这样的号码.我想用第一个元素和第一个索引来计算一个方程,然后添加到下一个带索引的元素,等等。我怎么能这么做?B = [0.183324722, 0.209108771, 0.142648498, 0.012475611, -0.075291522, 0.076201285,
浏览 3
提问于2016-04-02
得票数 1
回答已采纳
2
回答
为什么使用filter()
而
不是
“常用”的def函数?
您能帮助我理解为什么在
Python
中使用filter()
而
不是
def-function吗?只是它的可读性更好。 谢谢。
浏览 1
提问于2015-12-29
得票数 1
9
回答
reduce
函数是如何工作的?
、
据我所知,
reduce
函数接受一个列表l和一个函数f。然后,它对列表的前两个元素调用函数f,然后使用下一个列表元素和前一个
结果
重复调用函数f。下面的函数计算阶乘。def fact(n): return 1 return fact(x) * fact(y) print
reduce
(
re
浏览 2
提问于2012-02-02
得票数 42
回答已采纳
1
回答
带有Spark的通用“reduceBy”或“groupBy+聚合”功能
、
、
下面是用
Python
3.5.1和Spark1.5.2编写的代码: """ """ A copy of the rough code from
Python
2's
reduce
Why did
Python</e
浏览 0
提问于2015-12-26
得票数 15
回答已采纳
1
回答
Dataproc Hadoop MapReduce -无法使其工作
、
、
、
我想使用
Python
作为映射器和还原器,因为我
最
熟悉这种语言,而且它是我的同行
最
熟悉的语言。我觉得
最
简单的方法是通过Google DataProc实例来设置它,所以我也在运行它。Mapper和reducer代码来自,修改后可以使用
Python
3。#!版本:
Python
3.7.3 (default, Mar 27 2019, 22:11:17) [GCC 7.3.0] :: Anacon
浏览 4
提问于2019-11-12
得票数 2
回答已采纳
1
回答
csv文件中的xgettext
、
我有一个包含所有要转换的值的csv……我想读取csv文件并
生成
一个值文件,但当我加载并尝试调用.pot _( .pot )时,没有
生成
任何值。不确定为什么不能从csv
生成
包含动态内容的.pot文件。下面是我的代码片段:import gettext
浏览 2
提问于2013-01-08
得票数 0
回答已采纳
9
回答
有没有办法在
Python
(3)中对循环进行条件运算?
、
、
主要来自于Java的编码,并想知道
Python
是否可以使用条件和在它的for循环(如Java和C)中进行不同类型的
增量
。抱歉,如果这看起来是个简单的问题。
浏览 14
提问于2020-07-01
得票数 15
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
大数据第二篇-计算引擎
从Storm到Flink:大数据处理的开源系统及编程模型
Apache Flink不止于计算,数仓架构或兴起新一轮变革
新老手都值得看的Flink关键技术解析与优化实战
深度解读:Flink 1.11 SQL流批一体的增强与完善
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券