想请教大佬们,单机上用pyspark跑任务,CPU利用率只有不到一半,是什么原因呢。似乎一开始一小段时间有达到近百分百利用率,之后就降下来了,程序没用到shuffle算子,应该不是数据倾斜问题。
针对高并发播放、高并发推流、超低延迟等不同直播场景,提供极速、稳定、专业的一站式云端直播处理服务
相似问题
领取专属 10元无门槛券
AI混元助手 在线答疑
洞察 腾讯核心技术
剖析业界实践案例