腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
java.lang.OutOfMemoryError
中
的
Sparklyr
配置
结果
、
我在一个8核64 am内存
的
本地实例上运行带R
的
sparklyr
。::spark_write_parquet(df3, path="/mnt/") # or df3 <- df3 %>% collect() 无论我如何
配置
Spark
配置
文件,代码都会因为
java.lang.OutOfMemoryError
: Java heap space 到目前为止,我已经尝试了不同
的
组合 Sys.setenv("SPARK
浏览 19
提问于2021-09-06
得票数 2
2
回答
在
sparklyr
中
禁用
配置
单元支持
、
有没有办法在
sparklyr
中
禁用hive支持?sparkR.session(master="local[*]", enableHiveSupport=FALSE)
浏览 9
提问于2017-01-10
得票数 5
回答已采纳
1
回答
Sparklyr
未连接到数据库
、
、
、
、
我正在尝试使用
sparklyr
或SparkR连接到数据库。install.packages("
sparklyr
")
浏览 0
提问于2018-11-27
得票数 1
1
回答
在SparkR和
sparklyr
之间导入拼图文件所用时间
的
差异
、
、
、
、
我正在使用SparkR和
sparklyr
在databricks中导入拼图文件。 data1 = SparkR::read.df("dbfs:/.../data202007*", source = "parquet", header = TRUE, inferSchema = TRUE) data1 =
sparklyr
::spark_read_parquet/data202007*") 导入
的
时间差很大:SparkR为6秒,
sparklyr
为1
浏览 25
提问于2020-09-25
得票数 2
回答已采纳
1
回答
使用SparkR
的
Sparklyr
:解析函数参数
的
困难
、
、
我正在运行
Sparklyr
和SparkR。当我试图使用由schema()创建
的
数据表调用spark_read_csv()函数时,会收到以下错误(以及select()和lapply()函数上
的
类似错误): 平台:x86_64-W64-mingw32 32其他随附包裹:1
sparkly
浏览 1
提问于2019-04-14
得票数 0
1
回答
与Kerberos
的
连接
、
、
、
但是,如果启用了Kerberos安全性,则连接将失败:sc <- spark_connect("http://host:8998", method = "livy"Try spark_connect with config = livy_config()我做错了什么?这种连接需要哪些额外
的
设置?., user
浏览 1
提问于2017-06-23
得票数 5
1
回答
Spark和
SparklyR
错误“超过64 KB”
、
在使用
SparklyR
和Spark 2.0.2调用逻辑回归后,我在Spark上得到以下错误。ml_logistic_regression(Data, ml_formula) 我读入Spark
的
数据集相对较大(2.2 is )。
浏览 0
提问于2017-04-05
得票数 2
2
回答
读取csv函数时出错
、
在google计算集群
中
,我正在尝试使用
sparklyr
包将csv文件读取到strudio
中
。
配置
如下:install.packages("
sparklyr
") spark_installsc <- spark_connect(master = "yarn-client", config=config ,ver
浏览 1
提问于2017-04-05
得票数 0
1
回答
Sparklyr
错误: org.apache.spark.SparkException:由于阶段失败而中止
的
作业
、
、
我试图使用
Sparklyr
和一个庞大
的
飞行数据集运行线性回归(所有NA已经从数据
中
删除),但是我得到了以下内存错误:l
浏览 0
提问于2019-08-19
得票数 2
1
回答
如何从
Sparklyr
连接Google Dataproc集群?
、
、
我是Spark和GCP
的
新手。我试着和它联系起来但它显然不能工作(例如,没有身份验证)。 我该怎么做呢?
浏览 3
提问于2016-09-29
得票数 5
2
回答
R DBI
Sparklyr
DBWritetable正在运行,但没有
结果
、
、
、
、
从MS-SQL环境进入同样具有spark访问权限
的
配置
单元环境。我已经使用spark和R包
sparklyr
进行了连接,并且可以使用带有spark连接
的
R包DBI连接到我们
的
配置
单元集群,并将数据提取到R数据帧
中
:dbWriteTable(conn = sc, name = "sampled
浏览 1
提问于2017-09-01
得票数 1
0
回答
sparklyr
中
的
堆空间不足,但有足够
的
内存
、
、
、
即使是在相当小
的
数据集上,我也会得到堆空间错误。我可以确定我没有耗尽系统内存。例如,考虑一个包含大约20M行和9列
的
数据集,这将占用1 1GB
的
磁盘空间。我在一个内存为30 of
的
Google Compute节点上使用它。uniques <- search_raw_lt %>% summarise() %>%
浏览 7
提问于2016-12-30
得票数 5
回答已采纳
1
回答
将大型数据集缓存到火花内存(通过
sparklyr
& RStudio)
的
"GC开销极限超过“
、
、
、
我对我尝试使用
的
大数据技术非常陌生,但到目前为止,我已经成功地在RStudio
中
设置了
sparklyr
,以连接到一个独立
的
Spark集群。我认为,通过将缓存
的
数据限制在几个感兴趣
的
列上,我可以克服这个问题(使用我上一次查询
中
的
答案代码),但它没有。在我
的
配置
文件
中
,我尝试了一次只添加以下每个设置(这些设置都不起作用):spark.executo
浏览 0
提问于2017-03-06
得票数 7
回答已采纳
1
回答
在linux机器上读取一个拼花文件
、
、
我试着读python
中
的
拼图文件。我用地板和json进口
的
。我使用了下面的代码,因为我不想使用熊猫。我想在R
中
实现相同
的
功能,所以我尝试使用“网状”,在R中使用python函数,我使用了以下代码:py <- import_builtins()而错误是: AttributeError: 'generator' obje
浏览 1
提问于2018-08-12
得票数 3
2
回答
额外
的
配置
,以支持Azure数据湖第二代证书通过在火花数据库连接?
、
、
、
、
我有一个Azure Databricks (Databricks 6.4 (包括ApacheSpark2.4.5,Scala2.11))标准集群,其中
配置
了Active通行证,以支持查询Azure Databrickspurelyexample.dfs.core.windows.net/", extra_configs = configs) 使用数据库笔记本
中
的
{sparkR}返回
结果
。library(
浏览 8
提问于2020-03-23
得票数 0
1
回答
如何使用数据库让dplyr::summarize_all在sparkdataframe上工作?
、
、
、
问题 我有一个巨大
的
Spark Dataframe,叫做x。我正在使用databricks。X有数十亿条记录,太大了,不能收集到一台机器上。我要怎么做才能让它正常工作?: dplyr::summarize_all(x,mean) 更多信息 这是我目前收到
的
错误消息: Error in UseMethod("tbl_vars") : no applicable method"SparkDataFrame“attr(,"package") 1 "SparkR” Mastering Spark wi
浏览 17
提问于2020-09-24
得票数 2
回答已采纳
1
回答
Sparklyr
k8s gClouid - Pods没有运行
、
、
、
、
所有人
配置
群集remotes::install_github("rstudio/
sparklyr
”); library(
sparklyr
) sc <-
浏览 1
提问于2020-02-04
得票数 1
1
回答
Sparklyr
中
split-apply-combine策略错误处理
、
、
我有一个名为"userid“
的
Spark DataFrame,我正在使用
sparklyr
对其进行操作。每个userid可以有从一行数据到几百行数据
的
任何地方。我将一个函数应用于每个userid组,该函数根据特定
的
事件条件压缩它所包含
的
行数。. %>% # using dplyr::filter and dplyr::mutate ungroup() 我想把这个函数包装在一个错误处理程序
中
,比如purrr::possibly,这样如果一个错误出现在一个组
中<
浏览 8
提问于2019-06-04
得票数 0
回答已采纳
1
回答
无法将SparkR::sampleBy函数应用于
sparklyr
数据SparkR
、
、
、
我
的
环境是Databricks。seed = 12345) 错误(函数(类、fdef、mtable):无法为函数‘sampleBy’找到用于签名‘“tbl_spark”、“字符”、“列表”、“数字”
的
继承方法
浏览 0
提问于2019-09-03
得票数 1
回答已采纳
4
回答
在纱线管理
的
hadoop集群上部署spark时,
sparklyr
可以使用吗?
、
、
、
、
能够连接到纱线管理
的
hadoop集群吗?这似乎没有在文档中被记录下来。使用Spark附带
的
SparkR包,可以执行以下操作:Sys.setenv(YARN_CONF_DIR=...)lib.loc = c(sparkr_lib_dir, .libPaths()))然而,当我把上面的最后一行 library(
sparklyr
resolve 480ms :: artifac
浏览 7
提问于2016-06-29
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
NGINX resolver 配置中的 “坑”
Spring中Bean的几种配置
ANSYS中的结果坐标系
Spring中Mybatis的配置方案一
SciPy库在Anaconda中的配置
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券