数据帧生成脚本: val preferredOutputDF =spark.sql("select 'abcd*1234efgh' as test_column")
目标:我正在尝试构建一个RegEx搜索,在replace的输出位置,它只会在找到的字符串中插入一个字符regexp_replace(test_column,'[d][0-9
我有一个数据框,我想在其中为数据集中的组添加唯一in id | zip | name | quot 2 | 30000 | abc | 10 4 | 50000 | res | 20 6 | 60000 | dei | 20
7 | 60000 | dei | 20 我想为数据集中的每个压缩文件生成一个通用的UUID,这样它看起来就像 id | zip | name