API with caution;
在Spark3.0中,默认情况下不允许使用org.apache.spark.sql.functions.udf在SparkVersion2.4和更低版本中,如果org.apache.spark.sql.functions.udf(AnyRef,DataType)获得带有基元类型参数的Scala闭包,则如果输入值为但是,在S
我需要一个UDF2,它接受两个参数作为输入,对应于两个类型为String和mllib.linalg.Vector的Dataframe列,并返回一个Tuple2。这可行吗?如果是,我如何注册这个udf()?hiveContext.udf().register("getItemData", get_item_data, WHAT GOES HERE FOR RETURN TYPE?);UDF2<String,