在不影响程序最终结果的情况下使用combiner可以更好的提高效率,在reduceByKey中无论如何都会进行一次combiner(用于提高效率)。...在spark中foldByKey()和reduceBykey()亦是如此。...除了使用combineByKey可以使用reduceByKey的方式实现类似的功能,对比combineByKey还更简单一点。...)
}
结果:
List((数学,(69,3)), (英语,(162,3)), (语文,(100,4)))
其实reduceByKey底层就是使用的是combineByKey
combineByKey...(self), func)
}
在往reduceByKey(defaultPartitioner(self), func)中点击
def reduceByKey(partitioner: Partitioner