我有以下代码来测试flink和hive集成。我通过flink run -m yarn-cluster ....提交申请。hiveConfDir是一个本地目录,驻留在我提交应用程序的机器上,我想问一下,当主类在集群中运行时,flink如何能够读取这个本地目录?谢谢!package org.example.app
import o
我有一个用Flink (Scala)编写的示例流式WordCount示例。在它中,我想使用外部化的检查点在失败的情况下进行恢复。但它并没有像预期的那样工作。我的代码如下: object WordCount { // set up the execution environmentkafkaConsumerProperties.setProperty("zookeep
我正在尝试构建一个apache作业,它必须通过HDFS访问文件。它在本地运行良好,但当我将作业提交给flink集群时,会得到以下错误:
Hadoop is not in the classpath/dependencies.我正在使用Maven阴影插件来构建我的job.jar。Flink集群没有Hadoop jars,所以我必须将它们全部添加到作业本身。在本地,我必须在IDE设置中添加选项