腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1194)
视频
沙龙
0
回答
Spark
Java
API
:
如何将
JavaRDD
转
换为
RDD
类型
、
、
、
我正在尝试将使用Dataframe编写的代码转
换为
DataSet应用程序接口。问题是我将
JavaRDD
创建为:但是sqlContext类的createDataset方法需要
RDD
<T>
类型
,而不是
JavaRDD
<T>
类型
。我想知道如何从'
浏览 4
提问于2018-07-14
得票数 2
回答已采纳
2
回答
Java
中Scala方法的重写
、
、
、
我想在
java
子类中重写这个方法。我不确定这个方法在
Java
中的等效语法是什么。 def createRecord(
rdd
:
RDD
[(String, Array[(String, Int)])])
浏览 4
提问于2017-05-17
得票数 2
回答已采纳
1
回答
在将多个文件读入多个数据集时触发
Java
DataFrame - ClassCastException
、
、
、
我试图将独立文件中的数据读取到独立的RDDs中,然后将其转
换为
DataFrames (使用
Java
api
)。: TestMain$PageView cannot be cast to TestMain$BlacklistedPage at org.apache.
spark
浏览 0
提问于2018-03-17
得票数 0
2
回答
不可序列化的任务-
Java
1.8和
Spark
2.1.1
、
(
RDD
.scala:362)at org.apache.
spark
.
api
.
java
.
JavaRDD
.filter(
JavaRDD
.scala:78)at FileReader.main(FileRead
浏览 0
提问于2018-08-18
得票数 2
回答已采纳
1
回答
无法打开到Cassandra的thrift连接
、
、
import org.apache.commons.lang3.StringUtils;import org.apache.
spark
.
api
.
java
.JavaSparkContext; import org.apache.
spark
.
api
.
java
浏览 1
提问于2014-11-25
得票数 2
3
回答
T没有可用的ClassTag
import org.apache.
spark
.
api
.
java
.
JavaRDD
import scala.reflect.ClassTagclass TestRDD[T: ClassTag](
rdd
:
RDD
[T]) extends
JavaRDD
(
rdd
)No ClassTag
浏览 3
提问于2016-01-21
得票数 8
回答已采纳
1
回答
序列化
RDD
、
、
JavaRDD
<String>
rdd
= sc.textFile(logFile, 4); at org.apache.
spark
.
rdd
.
RDD
.take(
RDD</e
浏览 3
提问于2015-04-10
得票数 4
回答已采纳
1
回答
将包含BigInt的
RDD
转
换为
Spark
数据帧
、
、
、
、
嗨,我在
spark
1.6.3中工作。我有一个
rdd
,里面有一些BigInt scala
类型
。我
如何将
其转
换为
spark
数据帧?是否可以在创建数据帧之前转换
类型
?[_],beanClass: Class[_])org.apache.
spark
.sql.DataFrame <and> (
rdd
: org.apache.
spark
.
api
.
java
.
JavaRD
浏览 0
提问于2017-10-12
得票数 1
5
回答
星星之火:
JavaRDD
<Tuple2>到JavaPairRDD<>
、
、
我有一个
JavaRDD
<Tuple2<String, String>>,需要将它转
换为
JavaPairRDD<String, String>。目前,我只是简单地编写映射函数,然后按原样返回输入元组。
浏览 11
提问于2014-11-19
得票数 12
回答已采纳
2
回答
如何在使用卡夫卡时从星火中获取偏移id,并将其保存在卡桑德拉并重新启动卡夫卡?
、
、
、
我的程序是用
Java
编写的。我正在使用
spark
-streaming-kafka_2.10:1.6.2库来完成这个任务。._2();}); javaFunctions(
rdd
).writerBuilder("test", "event_log",
浏览 1
提问于2016-08-26
得票数 11
回答已采纳
2
回答
如何将
JavaPairInputDStream转
换为
Spark
中的数据集/数据框架
、
、
、
、
现在,我需要分析这些数据,而不需要将其存储到任何database.So中,我想将这个database.So转
换为
DataSet或DataFrame。;import org.apache.
spark
.
api
.
java
.JavaSparkContext;import org.apache.
spark
.streaming.
api
.
浏览 2
提问于2016-12-02
得票数 8
回答已采纳
2
回答
org.apache.
spark
.SparkException:不可序列化的任务-传递
RDD
、
:108) at org.apache.
spark
.
rdd
.
RDD
.withScope(
RDD
.scala:286) at org.apache.
spark
.
rdd
.
RDD
.map .
RDD
$$anonfun$map$1.apply(
RDD
.scala:294)org.apache.
spark
.
api
.
java
.JavaRDDLike$class.map(JavaRDDLike.s
浏览 3
提问于2015-11-06
得票数 1
1
回答
为什么KMeansModel.predict错误从
Spark
1.0.1开始出现?
、
、
、
、
| } (points: org.apache.
spark
.
api
.
java
.
JavaRDD
[org.apache.
spark
.mllib.linalg.Vector])org.apache.
spark
.
api
.
java
.
JavaRDD
[Integer] <and>
浏览 2
提问于2014-07-25
得票数 0
回答已采纳
1
回答
从clojure.lang.LazySeq转
换为
org.apache.
spark
.
api
.
java
.
JavaRDD
类型
、
、
、
、
(:require [flambo.
api
:as f]) [
rdd
input ]我犯了这个错误这是预期的,因为结果是clojure.lang.Lazy
浏览 6
提问于2015-08-25
得票数 1
回答已采纳
1
回答
从scala.collection.immutable.Iterable[org.apache.
spark
.sql.Row]到DataFrame?
、
、
、
、
我有一些sql.Row对象,我希望在
Spark
1.6.x中将它们转
换为
DataFrameevents: scala.collection.immutable.Iterable[org.apache.
spark
.sql.Row[_],beanClass: Class[_])org.apache.
spark
.sql.DataFrame <and> (
rdd
: org.apache.
spark
.
api
.
java
.
J
浏览 0
提问于2017-10-12
得票数 0
2
回答
RDD
到Dataframe
Spark
Couchbase
、
、
、
我已经从NOSQL数据库创建了
RDD
,我想将
RDD
转
换为
数据帧。我已经尝试了许多选项,但都会导致错误。将
RDD
转
换为
Dataframe的最佳方法是什么?[_],beanClass: Class[_])org.apache.
spark
.sql.DataFrame <and> (
rdd
: org.apache.
spark
.
api
.
java
.
JavaRDD
: org.apache.
浏览 1
提问于2016-11-28
得票数 0
1
回答
无法运行读取元组
RDD
并返回元组
RDD
的
spark
map函数
、
我需要从另一个成对的
RDD
生成成对的
RDD
。基本上,我正在尝试编写一个执行以下操作的map函数。
RDD
[Polygon,HashSet[Point]] =>
RDD
[Polygon,Integer]Scala函数,遍历HashSet并将"Point“对象的值相加。outCountPerCell(t))found : ((com.vividsolutions.jts.geom.Polygon, <e
浏览 6
提问于2017-07-11
得票数 0
回答已采纳
1
回答
我们如何看待同一个函数的不同实现
、
def createDataFrame(
rdd
: org.apache.
spark
.
api
.
java
.
JavaRDD
[_],beanClass: Class[_]): org.apache.
spark
.sql.DataFramedef createDataFrame(rowRDD: org.apache.
spark
.
api
.
java
.
JavaRDD
[org.apache.
spark
.sql.Row]
浏览 0
提问于2020-07-19
得票数 0
回答已采纳
2
回答
Spark
中的并发作业执行
、
、
、
保存为文本文件:import
java
.util.ArrayList;;import org.apache.
spark
.
api
.
java
.JavaPairRDD; import org.apache.
spark
.
api
.
jav
浏览 1
提问于2015-06-16
得票数 6
1
回答
Spark
与DataSet性能比较
、
我将接收到的输入转
换为
JavaDSStream的输入事件,然后在inputEvents上执行reducebykeyandWindow并执行
spark
。, time) -> {
JavaRDD
<EventData> rowRDD =
rdd
.map
浏览 0
提问于2017-04-10
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券