腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
spark
java
API
中
从
map
创建
数据
帧
、
、
我正在尝试
在
java
API
中使用
spark
sql,下面这些简单的东西(
从
官方指南:https://
spark
.apache.org/docs/latest/rdd-programming-guide.html它抱怨ClassTag的事情,我不知道如何
创建
它或让它自动导入或其他什么。
浏览 14
提问于2020-09-13
得票数 0
1
回答
有没有办法
在
spark
中
静态连接到redshift
数据
库?
、
、
我使用的是
spark
API
spark
.read.jdbc(String url,String table,
java
.util.Properties properties)。它使用
从
数据
库表返回的模式
创建
数据
帧
。 每次我调用上述
API
时,它都会
创建
一个到DB集群的连接请求。有没有办法在上面的
API
中
传递或
创建
单例类的东西?
浏览 15
提问于2020-04-27
得票数 0
2
回答
AttributeError:“”DataFrame“”对象没有属性“”
map
“”
、
、
、
、
我想使用以下代码将
spark
数据
帧
转换为要添加的内容:
spark
_df = sqlContext.createDataFrame(pandas_df)model = KMeans.train= sqlContext.createDataFrame(pan
浏览 1
提问于2016-09-16
得票数 44
回答已采纳
2
回答
RDD到Dataframe
Spark
Couchbase
、
、
、
我已经
从
NOSQL
数据
库
创建
了RDD,我想将RDD转换为
数据
帧
。我已经尝试了许多选项,但都会导致错误。[_],beanClass: Class[_])org.apache.
spark
.sql.DataFrame <and> (rdd: org.apache.
spark
.
api
.
java
.JavaRDD: Class[_])org.apache.
spark
.sql.DataFrame <and&g
浏览 1
提问于2016-11-28
得票数 0
5
回答
SparkContext、JavaSparkContext、SQLContext和SparkSession之间的区别是什么?
、
、
、
、
中
的所有函数SQLContext,SparkContext,以及JavaSparkContext也
在
SparkSession?一些函数,比如parallelize
在
中有不同的行为SparkContext和JavaSparkContext。它们
在
如何使用SparkSession?我如何使用 a
创建
以下内容SparkSession?
浏览 216
提问于2017-05-05
得票数 39
回答已采纳
1
回答
将循环的输出写入
数据
帧
、
、
、
我编写了这个scala代码,以便为星火DataFrame
中
的每一行做一些事情。基本上,这就是我所做的步骤2.这是
在
第二步,我有问题,当我运行一百万记录。我还能提高表演水平吗。FYI只将
数据
转换为数组,因为AFAIK
spark
数据
only不能被迭代。def getRows (ca : org.apache.
spark
.sql.DataFrame ) = val allca = List()
浏览 1
提问于2017-11-02
得票数 1
回答已采纳
1
回答
Spark
-SQL
数据
帧
外部
数据
源效率低
、
当我试图
在
Spark
-SQL外部
数据
源上做一些测试时,会发生这个问题。为了更清楚地表达这个问题,我编写了一段代码:
在
我的外部Datasource
API
基准代码
中
,它实现了一个
浏览 2
提问于2016-01-09
得票数 1
1
回答
如何将
数据
推送到phoenix is块
、
、
、
我正在尝试将
数据
从
spark
推送到phoenix。
数据
的大小超过100万。
spark
作业
在
10万条记录的情况下运行良好,但当记录数超过100万条时就会卡住。我正在从hive加载
数据
val hive_data =
spark
.sql(query) 把它推向凤凰城 hive_data.write.format("org.apache.phoenix.
spark
").mode(SaveMode.Overwrite).o
浏览 26
提问于2021-06-26
得票数 0
3
回答
如何使用createDataFrame
创建
pyspark
数据
帧
?
我知道这可能是一个愚蠢的问题。我有以下代码:rows = [1,2,3]df.printSchema()但是我得到了一个错误:我不明白为什么会发生这种情况,因为我已经提供了'data',也就是变量row。
浏览 1
提问于2018-03-12
得票数 2
回答已采纳
2
回答
Spark
saveAsTable抛出NoSuchTableException
、
、
、
some_column") \ .saveAsTable("test_table", mode="overwrite")at py4j.reflection.MethodInvoker.invoke(MethodInvoker.
java
:244) at py4j.reflection.ReflectionEn
浏览 1
提问于2019-10-10
得票数 0
1
回答
spark
-cassandra-connector -
从
Dataframe
创建
表格- StructType?
、
、
我正试着
从
Spark
数据
帧
中
写给Cassandra。当我有一个简单的
数据
帧
模式时,如示例中所示,它可以工作: |-- id: string (nullable = true)但是,当我尝试编写包含StructTypes的
数据
帧
时,其模式如下: |-- crawl: struct (nullable = true) | |-- id:
浏览 4
提问于2016-06-27
得票数 1
1
回答
insertIntoJDBC的
Spark
问题
、
、
我正在尝试使用新的Dataframe
API
进行开发,但是我得到了一个错误。import
java
.io.Serializable; import org.apache.
浏览 1
提问于2015-05-14
得票数 0
2
回答
调用
map
后的EOFError
、
、
我是
spark
& pyspark的新手。df = sqlContext.read.format('com.databricks.
spark
.csv').optionstmp/sm.csv') df = df.withColumn('verified', F.when(df['verified
浏览 2
提问于2016-04-13
得票数 23
1
回答
是否有办法
在
EMR作业完成后自动删除检查点文件夹?
、
、
我
在
我的pyspark代码
中
创建
和使用检查点。由于我使用的是非常大的
数据
帧
,因此随着时间的推移,它们的大小往往会膨胀。有没有办法
在
作业完成后删除检查点文件夹?例如,如下伪代码所示:
spark
= SparkSession.builder.getOrCreate() sc =
spark
.sparkContext
spark
.sparkContext.setChe
浏览 2
提问于2021-05-02
得票数 1
1
回答
Spark
在
IDE
中
创建
数据
帧
(使用databricks-connect)
、
、
、
、
我正在尝试使用databrick connect
在
IDE
中
运行我的databricks笔记本
中
的一些代码。我似乎想不出如何
创建
一个简单的
数据
帧
。尝试从头开始
创建
数据
帧
: var dataRow = Seq((cdpos_df.count(),I_count,D_count,U_count)) var schemaRow = List([_],beanClass: Class[_])org.apache.
spark</
浏览 69
提问于2021-09-14
得票数 0
1
回答
在
Python语言中
从
Spark
DataFrame
创建
labeledPoints
、
、
、
、
我应该使用python
中
的哪个.
map
()函数
从
spark
数据
帧
创建
一组labeledPoints?如果标签/结果不是第一列,但我可以引用它的列名'status‘,那么表示法是什么?我使用这个.
map
()函数
创建
Python dataframe: listmp = list(line.split('\t')) dataframein d
浏览 3
提问于2015-09-14
得票数 14
回答已采纳
1
回答
如何将
spark
贴图与.net一起用于
spark
、
、
如何将
spark
贴图与.net一起用于
spark
?就像python
中
的: nums=sc.parallelize([1,2,3,4])val res=input.
map
(x=>x*x) 但是.net
数据
帧
没有名为
map
的函数 此文档(https:/
浏览 4
提问于2020-07-06
得票数 0
回答已采纳
2
回答
如何
从
字符串
在
spark
中
创建
TimestampType列
、
我有一些
数据
包含在字符串数组
中
,如下所示(仅作为示例):我想将我的列表映射到一个时间戳数组,以便
创建
一个RDD (myRdd),然后
创建
一个
数据
帧
,如下所示 val df = createdataframe(myRdd, StructType(StructField("myTy
浏览 3
提问于2017-07-17
得票数 4
回答已采纳
2
回答
从
Spark
数据
帧
构造
Java
哈希图
、
、
、
我
在
我的项目中使用了带有
Java
8的
spark
-sql-2.4.1v。我需要从给定的
数据
帧
构造一个循环哈希图,如下所示: List ll = Arrays.asList( ("aaa", 12), ("a", 14) Dataset<Row> codeValudeDf = ll.toDF( "
浏览 11
提问于2020-07-17
得票数 0
回答已采纳
3
回答
pySpark将mapPartitions的结果转换为
spark
DataFrame
、
、
我有一个作业需要在分区的
spark
数据
帧
上运行,该进程如下所示: rdd = sp_df.repartition(n_partitions, partition_key).rdd.mapPartitions现在我希望将结果转换成
spark
数据
帧
,我这样做的方式是: sp = None if i == 0:sp =
spark
.createDataFrame(partiti
浏览 124
提问于2019-12-10
得票数 4
回答已采纳
点击加载更多
相关
资讯
Spark Streaming 2.2.0 Example
SparkStreaming&Kafka——Receiver方式
pyspark 安装
Spark1.6官方文档译文系列一
Spark之SparkSQL
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券