Spark Core和Spark SQL的关系
我们可以用一句话描述这个关系: Spark SQL正是在Spark Core的执行引擎基础上针对结构化数据处理进行优化和改进。...而Spark SQL正是基于如此强大的Spark Core底层能力,形成一套独立的优化引擎系统。
简单的说,Spark SQL的计算任务通过SQL的形式最终转换成了RDD的计算。...(Seq(
Row("小明", 18, java.sql.Date.valueOf("1990-01-01")),
Row("小芳", 20, java.sql.Date.valueOf...import spark.implicits._
val df = Seq(
("小明", 18, java.sql.Date.valueOf("1990-01-01")),
("小芳"..., 20, java.sql.Date.valueOf("1999-02-01"))
).toDF("name", "age", "birthday")
df.show()
打印出来的结果为