这是我的密码:import org.apache.hadoop.io.LongWritable: Unable to execute method public org.apache.hadoop.io.LongWritable com.vm.hive.udf.Factorial.evaluate(long) on object com.vm.<
我正在尝试在scala spark中注册一个udf,就像在hive create temporary function udf_parallax as 'com.abc.edw.hww.etl.udf.parallax.ParallaxHiveHash' USING JAR 's3://bx-analytics-softwares/gdpr_hive_udfs/gdpr-hive-udfs-hadoop.jar
在应用程序中,创建了一个日志文件来写入日志信息和日志错误信息,但在日志文件中,写入了一些不需要的配置单元信息日志INFO Hive:234 - Registering function rankcom citi oprisk andes udf Rank 将Spark 2 3 1与hive和java 8配合使用INFO Hive:234 - Registering function rank com
pyspark.sql.utils.AnalysisException: No handler for UDF/UDAF/UDTF 'org.apache.hadoop.hive.ql.udf.generic.GenericUDAFHistogramNumeric': java.lang.NoSuchMethodException: org.apache.hadoop.hive.ql.udf.generic.SimpleGenericUDAFParameterInf
TL;DR:我如何更新蜂巢中自定义UDF的jar?CREATE FUNCTION myfunc AS 'io.company.hive.udf.myfunc' USING JAR 'hdfs:///myudfsINFO : converting to local hdfs:///hive-udf-wp