当我们使用 spark-shell 的时候, spark 会自动的创建一个叫做spark的SparkSession, 就像我们以前可以自动获取到一个sc来表示SparkContext
?
二....DataFrame的转换从本质上来说更具有关系, 而 DataSet API 提供了更加函数式的 API
2.1 创建 DataFrame
With a SparkSession, applications...{IntegerType, StringType, StructField, StructType}
import org.apache.spark.sql....._2))
// 创建 StructType 类型
val types = StructType(Array(StructField("name", StringType...res0: Array[org.apache.spark.sql.Row] = Array([null,Michael], [30,Andy], [19,Justin])
说明:
得到的RDD中存储的数据类型是