等等,因为工作需要使用spark,所以理所应当的开始学习pyspark;
之后一方面团队其他成员基本都是用scala,同时在Spark API更新上,pyspark也要慢于scala的,而且对于集群维护的同事来说...类似支持的数据类型比较多,比如单、双精度浮点型都支持,不像Python只有双精度;
区分Char和String,意味着单引号、双引号不能随便混用;
Unit类型用于函数没有返回值时;
Null表示空值;...,类似java的增强for
// 可以看到数组中元素可以不同类型
for (arr <- Array('n',1,3.45,true,"nemo"))
print(arr+"\t")
println...{Map=>MMap}
val mmap = MMap((1,1),(2,2))
// map1(1) = 1 报错,Map不可变指的是其长度、元素都不能变
mmap(1)=mmap(1)+1
// map1...、元素内容都不能变;
如果用var来定义一个不可变Map,那么看似可变,实际上是创建了一个新的Map对象;
元组
val tuple = (1,1.2,"abc")
println(tuple._1,tuple