我想要远程星火开发环境。此外,我有另一台机器已经安装了闭锁(火花上的纱线)。String jar = "C:\\Users\\default.DESKTOP-0BP338U\\Desktop\\workspace\\workspace_study\\spark-start-on-yarn我添加了环境变量这是我的密码 .setAppName(new
org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1301)at org.apache.hadoop.yarn.util.FSDownload.access$000(FSDownload.java:63)
at org.apache.hadoop.yarn.util.FSDownloa
我在使用CDH5.4的CentOS上有4个服务器,我想要做的是在所有这四个节点上连接spark on yarn。我的问题是我不知道如何将HADOOP_CONF_DIR设置为指定的。我应该在哪里为这个变量设置什么值?然后,我是否需要在所有四个节点上都设置这个变量,或者只有主节点就足够了?文档中说“确保HADOOP_CONF_DIR或YARN_CONF_DIR指向包含Hadoop集群的(客户端)配置文件的目录”。在这里提