腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
将
Spark
DataFrame
更
改为
标准
R
数据
帧
、
我使用以下代码通过库SparkR导入
数据
:它是一个
Spark
DataFrame
,它限制了我在它上面做一些操作。我不能使用read.csv导入文件,所以有没有一种方法可以将它更
改为
普通的
DataFrame
,以便我可以执行一些更改。
浏览 5
提问于2018-03-02
得票数 0
回答已采纳
1
回答
Spark
Dataframe
to
R
dataframe
、
、
、
、
我正在尝试
将
Spark
dataframe
转换为
R
Dataframe
。有没有办法做到这一点?我首先尝试使用.toPandas()将其转换为熊猫
数据
帧
,但再次使用as.data.frame()将其从熊猫
数据
帧
转换为
R
数据
帧
不起作用 有人能帮我一下吗?
浏览 6
提问于2021-09-16
得票数 0
1
回答
如何
将
dataFrame
转换为列表列表?
、
、
我正在尝试使用
spark
_apply
将
R
函数应用于
Spark
DataFrame
。在我最初的问题中,我有一个列表列表,我已经将其转换为
R
数据
帧
,我将能够将其转换为
Spark
DataFrame
。但是在我的
R
函数中,我需要使用一个列表列表,而我不知道如何从
数据
帧
中取回我的初始列表列表。我已经找到了如何
将
dataFrame
转换为列表
浏览 10
提问于2019-07-05
得票数 2
回答已采纳
1
回答
如何在sparkr中进行交叉验证
、
、
我正在处理电影镜头
数据
集,我有一个用户id作为行,电影id作为列的矩阵(m×n),我已经做了降维技术和矩阵分解来减少我的稀疏矩阵(m X k,其中k<n )。我不知道如何在sparkR中将我的
数据
集划分为训练
数据
和测试
数据
。我已经尝试过原生
R
函数(sample,subset,CARET),但它与
spark
数据
帧
不兼容。
浏览 0
提问于2016-11-02
得票数 1
3
回答
如何
将
星火
R
数据
转换为
R
列表
、
、
、
、
看起来
Spark
确实支持像ggplot2、plyr这样的软件包,但是
数据
必须是
R
列表格式的。当我使用train <- read.csv("
R
_basics_train.csv")时,我可以在
R
中生成这种类型的列表,在这里,变量train是使用typeof(train)时的列表。然而,在
Spark
中,当我读取与"train“相同的csv
数据
时,它将被转换为
数据
格式,这不是我们以前使用过的
dataframe</e
浏览 4
提问于2016-04-21
得票数 0
回答已采纳
7
回答
使用哪种查询来获得更好的性能,是在SQL中联接还是使用Dataset API?
、
、
在使用
spark
、*
Spark
sql join*和*
spark
dataframe
join*从HBASE获取和操作
数据
时,哪个更快?
浏览 2
提问于2016-06-01
得票数 2
1
回答
SparkR中是否有MaxAbsScaler (
Spark
2.1.0或2.2.0)?
、
、
、
、
在
spark
中,有StandardScaler、MinMaxScaler、scala中的MaxAbsScaler、java和python。
Spark
在
R
(SparkR)中有这样的方法吗?
浏览 0
提问于2017-11-10
得票数 2
1
回答
在
Spark
SQL中传递参数
、
我需要在
Spark
SQL中传递参数。例如,我有以下查询作为Val时间戳=
spark
.sql("select timestamp from tablea "),现在,我有另一个查询要在where类
Spark
.sql中传递这个时间戳(s“select
浏览 1
提问于2020-02-04
得票数 0
1
回答
在Scala中递归计算列并添加到
Spark
Dataframe
、
我是Scala和Apache
Spark
的新手。我尝试计算
Spark
数据
框架中一些列的平均值和
标准
差,并将结果附加到源
数据
框架中。我正试着递归地做这件事。下面是我的函数。):
DataFrame
= { def recursorHelper(acc:
DataFrame
):
DataFrame
= { }} val fi
浏览 4
提问于2021-05-25
得票数 1
回答已采纳
1
回答
如何使用PySpark从熊猫
数据
框架写入
Spark
表?
、
、
、
pandas.
DataFrame
.to_sql()方法
将
允许您将
数据
帧
的结果写入
数据
库。这在
标准
RDBMS的上下文中工作得很好。如何在
Spark
中使用PySpark呢?
浏览 2
提问于2015-03-25
得票数 0
回答已采纳
1
回答
Databricks:如何
将
%python下的
Spark
dataframe
转换为%
r
下的
dataframe
、
、
我在%python环境中有一个
Dataframe
,并尝试在%
r
环境中使用它。 如何
将
%python下的
spark
数据
帧
转换为%
r
?
浏览 1
提问于2017-07-17
得票数 2
回答已采纳
1
回答
数据
库上的sql sparklyr sparkr
数据
帧
转换
、
、
、
USING CSV LOCATION "url/data.csv" %
r
data_
spark
<- sql("SELECT * FROM data") data_
r
_df <- as.data.frame(data_
浏览 10
提问于2018-07-25
得票数 3
1
回答
Databricks -
将
Spark
dataframe
转换为表:它是相同的
数据
源吗?
、
、
您将需要执行相当多的计算,从源
数据
帧
,一个
Spark
表,不是吗?或者,
dataframe
和table都是指向相同
数据
的指针(即,在创建表时,不是在创建重复
数据
)?我猜我想要弄清楚的是,你是否可以从一个
Spark
数据
帧
到一个表‘开关开关’,或者这样做的计算量是否(非常)昂贵(毕竟这是大
数据
...)
浏览 26
提问于2021-04-26
得票数 0
2
回答
PYSPARK :读取csv文件时
将
字符串转换为浮点型
、
、
我正在
将
csv文件读取到
dataframe
但是
数据
帧
中的
数据
类型是字符串,我想将
数据
类型更
改为
浮点型。
浏览 0
提问于2016-10-08
得票数 6
1
回答
如何最好地处理
将
大型本地
数据
帧
转换为SparkR
数据
帧
?
、
如何有效地
将
大型本地
数据
帧
转换为SparkR
数据
帧
?在我的本地开发机器上,当我尝试
将
~ 650MB的本地
数据
帧
转换为SparkR
数据
帧
时,它很快就会超出可用的内存,而我的开发机器上有40 of的Ram。= "/home/your/path/
spark
-2.0.0-bin-hadoop2.7") library(SparkR, lib.loc
浏览 0
提问于2016-09-08
得票数 3
1
回答
BigQuery存储应用编程接口:从
Spark
Pandas UDF使用客户端的最佳实践?
、
、
我有一个
spark
脚本,需要为每一行进行60个api调用。目前,我使用BigQuery作为
数据
仓库。我想知道是否有一种方法可以使用BigQuery API或BigQuery Storage API从我的udf中查询
数据
库?也许是一种执行批量查询的方法?pandas-gbq会是一个更好的解决方案吗?抱歉,如果代码没有为这个用例正确完成,我是
spark
和BigQuery的新手。bqclient, bqstorageclient bqclient, bqstoragecl
浏览 9
提问于2019-12-12
得票数 1
1
回答
从机器学习算法看h2o.ai和SparkMLlib的区别
、
、
、
我发现h2o.ai库比SparkMLlib支持更多的ML算法,而将
Spark
数据
帧
划分到训练和测试集似乎很困难(需要将
spark
数据
帧
转换为
R
/h2o
数据
帧
,这也是一种耗时/资源消耗的方法)。与基于
R
的实现( h2o.ai SparkMLib ,SparkR)相比,使用库还有哪些优点/缺点?,我正在
将
h2o.ai和SparkMLlib集中到基于
R
的实现
浏览 2
提问于2016-12-09
得票数 0
回答已采纳
1
回答
Pyspark
dataframe
:从csv加载,然后删除第一行
、
、
、
、
我能够
将
csv文件从Azure datalake加载到pyspark
dataframe
中。如何删除第一行,并使第二行作为我的标题? 我见过一些RDD解决方案。//{container}@{storage_account_name}.dfs.core.windows.net/tmp/items.csv") firstRow=data.first() 因此,我
更
喜欢使用
标准
的
spark
加载,如下所示。我可以显示
数据
帧
的内容
浏览 30
提问于2020-03-20
得票数 0
回答已采纳
6
回答
如何在
spark
中将rdd对象转换为
dataframe
、
、
、
如何
将
RDD (org.apache.
spark
.rdd.RDD[org.apache.
spark
.sql.Row])转换为
数据
帧
org.apache.
spark
.sql.
DataFrame
。我使用.rdd
将
数据
帧
转换为rdd。在处理之后,我想把它放回
数据
帧
中。我该怎么做呢?
浏览 56
提问于2015-04-01
得票数 150
回答已采纳
1
回答
如何
将
String类型的dataset转换为Row类型的Dataset?
、
、
我需要使用Apache java
spark
将
String类型的dataset转换为Row类型的Dataset: Dataset<String> dataDs =
spark
.createDataset
浏览 0
提问于2018-03-14
得票数 4
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券