我们正在使用ApacheSpark2.1.1生成一些每日报告。这些报告是从一些日常数据中生成的,我们坚持这些数据,然后分别对每个单元进行报告,并将它们合并在一起。以下是我们所做工作的简化版本:val date: Date = ... // Date to run the report
val dailyData: DataFrame = someDailyData.persist()
我的分区是:#2 Mac OS X#4 boot (my /boot-partition for linux)分区5是我的加密分区,它包含lvm卷组,其中包含3个分区(根分区、主分区和交换分区)。在/boot/efi/加载程序/entries/arch-crypted.conf中,我编辑了该文件,因此选项"<