,可以通过以下步骤完成:
import org.apache.spark.sql.functions._
import org.apache.spark.sql.DataFrame
def calculateRowSum(df: DataFrame): DataFrame = {
df.withColumn("rowsum", df.columns.map(col).reduce(_ + _))
}
val newDF = calculateRowSum(originalDF)
这样就可以在原始的Spark Dataframe中添加了一列名为rowsum的新列,该列存储了每行的总和。
相关链接:
领取专属 10元无门槛券
手把手带您无忧上云