TabA TabB 我的需求是为rach规则构建查询动态查询,并使用spark动态运行它。 #没有更多的规则我已经给出了很少的规则来理解问题陈述。#每个规则将具有不同的公式查询将如下所示: select 'A‘作为rule_nm,sum(am1)作为val from tabB where item1 in('1','2','3')和item2 not
我的一个输入文件是csv (用逗号分隔)。其中一个字段是地址,其中包含换行符。因此,当我使用spark读取它时,这会给我带来相当大的麻烦,在spark中,一个输入记录被分成多个记录。有没有人能找到解决方案来解决这个问题。目前的解决方法是在读取spark之前在源端删除数据中的换行符。
我想在spark中创建一个通用的解决方案。我使用scala dataframe a
我想删除Spark web ui返回的服务器版本。我开箱即用了Spark,所以我在其他地方找到的解决方案(指使用after指令(https://github.com/perwendel/spark/issues/331#issuecomment-144521580)或编程解决方案(Remove the HTTP Server header in Jetty 9))在这种情况下不起作用。