我正在使用flink从Azure数据湖中读取数据。但flink无法找到Azure数据湖文件系统。我已经实现了spark来读取Azure Data Lake文件系统文件。因此,我尝试从flink中触发火花,从Azure数据湖中读取数据,并执行一些逻辑操作,然后将列表返回给flink。所以flink可以使用这些数据?
是否可以从flink触发spark作业?或者如何配置flink来理解Azure数据<e
我正在尝试设置网络活动以将数据从Azure data Lake Gen 1发布到REST API服务,遵循了在此link中执行的类似设置,但由于错误“丢失文件”而无法成功。--location --request POST 'https://xxxx/files' \--form 'file=xxxxx' 数据集设置