使用Scala和Spark读取文本文件中的键值对,可以按照以下步骤进行操作:
import org.apache.spark.sql.SparkSession
val spark = SparkSession.builder()
.appName("KeyValuePairs")
.master("local")
.getOrCreate()
val keyValuePairsRDD = spark.sparkContext.textFile("path/to/textfile.txt")
.map(line => {
val keyValue = line.split(":")
(keyValue(0), keyValue(1))
})
import spark.implicits._
val keyValuePairsDF = keyValuePairsRDD.toDF("Key", "Value")
keyValuePairsDF.show()
完整的代码示例:
import org.apache.spark.sql.SparkSession
val spark = SparkSession.builder()
.appName("KeyValuePairs")
.master("local")
.getOrCreate()
val keyValuePairsRDD = spark.sparkContext.textFile("path/to/textfile.txt")
.map(line => {
val keyValue = line.split(":")
(keyValue(0), keyValue(1))
})
import spark.implicits._
val keyValuePairsDF = keyValuePairsRDD.toDF("Key", "Value")
keyValuePairsDF.show()
这段代码使用Spark读取文本文件中的键值对,并将其转换为DataFrame,其中键作为列名,值作为行。你可以将"path/to/textfile.txt"替换为实际的文本文件路径。
领取专属 10元无门槛券
手把手带您无忧上云