DLC默认JDK版本1.8,我的spark任务使用JDK17,之前在运行EMR上,在各节点安装JDK17,并通过spark submit指定单个程序的JDK 路径即可运行,配置参数如下:spark.yarn.appMasterEnv.JAVA_HOME 与 spark.executorEnv.JAVA_HOME。
而DLC上可以配置参数,但是无法分发JDK包。请问如何让这个程序运行在DLC上?
发布于 2024-04-11 07:07:28
您好,没办法指定, 数据引擎集群是全托管的, 只支持jdk11
相似问题