我正试图将基于代码的jar打包到databricks笔记本中。下面一行在databricks中工作,但在scala代码中抛出了一个错误:
val spark(rdd: org.apache.spark.api.java.JavaRDD[_],beanClass: Class[_])org.apache.spark.sql.<
我正在尝试将一个类型化的rdd转换为行rdd,然后从它创建dataframe。它在我执行代码时抛出异常。代码:JavaRDD<Row> rowRDD = rdd.map((Function<Counter,Row>) RowFactory::create);
//I am using some schema her
根据新的火花文档,使用星火的DataFrame should be preferred over using JdbcRDD。第一次触摸非常愉快,直到我遇到了第一个问题-- DataFrame没有flatMapToPair()方法。第一个想法是把它转换成JavaRDD,我就这样做了。一切都很好,我用这种方法编写了我的代码,并注意到这样的代码:
JavaRDD<