腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何在
Spark
程序中将Hive用户设置为与
Spark
用户不同的用户?
、
、
、
、
我对
Linux
、Hive和
Spark
之间的用户帐户有一个非常有趣、棘手的问题……@
SPARK
_HOME/bin/
spark
-submit -?在使用相同的<e
浏览 8
提问于2015-06-09
得票数 1
4
回答
在eclipse上本地运行
spark
代码,并将
spark
安装在远程服务器上
、
、
、
我已经为scala
配置
了eclipse,创建了一个maven项目,并在windows上写了一个简单的字数统计任务。现在我的
spark
+hadoop已经安装在
linux
服务器上了。如何将我的
spark
代码从eclipse启动到
spark
集群(在
linux
上)? 任何建议。
浏览 4
提问于2015-11-08
得票数 2
1
回答
如何使用Java API将文本文件、图像存储到Apache
Spark
中?
、
、
、
、
我是Apache
Spark
的新手。我使用的是Windows操作系统,而
spark
安装在
Linux
操作系统上,它是远程的。是否可以使用Java API在
Spark
配置
中添加ip地址和端口?请分享
spark
java示例。 提前谢谢。
浏览 1
提问于2017-02-07
得票数 0
1
回答
submit不被识别为内部或外部命令。
我正在为python使用经过考虑的冠层,并设置我的路径变量%
SPARK
_HOME%\ , %JAVA_HOME%\,C:\WINDOWS/system32。当在我的ratings-counter.py命令程序中运行
spark
submit时,它显示了
spark
submit的错误不被识别为内部或外部命令、可操作的程序或批处理文件。
浏览 3
提问于2016-11-06
得票数 1
1
回答
Eclipse中的PySpark :使用PyDev
、
、
、
、
我正在命令行中运行本地pyspark代码,它可以工作: SparkContext._ensure_
浏览 2
提问于2015-10-25
得票数 1
回答已采纳
1
回答
如何在
Spark
代码中更改AWS EMR的
Linux
系统
配置
?
、
我的
Spark
作业中出现了"Open too many files“错误,在线搜索指向将"ulimit”设置为更高的值。但是"ulimit“是一个
Linux
操作系统级别的参数,而不是一个
Spark
配置
参数。所以我想知道如何通过
Spark
代码来传递它。 一些相关的帖子是:
浏览 1
提问于2019-07-24
得票数 0
2
回答
火花核在木星上的应用
、
、
我按照下面的页面进行安装:对如何在木星上得到火花笔记本有什么想法吗? 我知道这里没有太多的信息,如果需要更多的话。让我知道。
浏览 0
提问于2016-03-29
得票数 7
2
回答
在AWS EMR中启用
Spark
、
、
、
、
我在EMR集群上提交了一个
Spark
作业,我希望看到
Spark
,它提供了关于主节点和工作节点的
配置
和状态的信息。
配置
详细信息:应用程序
SPARK
2.3.1 启动群集后,在群集的“连接摘要”页下,唯一可单击的链接是“启用Web连接”。选项2:我尝试在
Linux
上使用本地端口转发将SSH隧道设置为主节点。我仍然无法打开Sark或界面。选项3:我尝试使用选项2+为火狐
配置
Foxy (),并且仍然尝试通过键入master-pub
浏览 0
提问于2019-03-21
得票数 1
1
回答
同时运行多个Hive查询时的节俭驱动程序OutOfMemory
、
、
如果是这样的话,那么当同时运行几个查询时,如何才能
配置
Thrift驱动程序不使OOM崩溃?以下是我们使用的
配置
: 来自/usr/hdp/current/
spark
2-thriftserver/conf/
spark
-thrift-sparkconf.conf:的<
浏览 2
提问于2017-10-12
得票数 3
6
回答
spark
2.1.0会话
配置
设置(pyspark)
、
、
、
我正在试图覆盖星星之交/火花上下文默认
配置
,但它正在选择整个节点/集群资源。()
spark
.conf.set('
spark
.executor.cores', '3')
spark
.conf.set('<em
浏览 12
提问于2017-01-27
得票数 48
回答已采纳
1
回答
如何为木星笔记本
配置
星火
spark
_worker_opts
、
、
、
、
我在
Linux
上使用Pyspark与
Spark
2.4的独立模式,使用木星笔记本(目前用于测试)通过Kafka处理大量传入的数据。我想将这些选项添加到这个笔记本中,以防止/tmp/目录在几个小时后填充数十in:
spark
.worker.cleanup.appDataTtl=120
spark
的默认
配置
(
spark
/conf/<em
浏览 1
提问于2021-03-30
得票数 1
1
回答
PySpark :将Kafka主题写入控制台失败
、
、
、
下面是我的代码, .appName("Kafka
Spark
")\ .config("
spark
.jars", "/C:/Hadoop/
Spark
/
spark
-3.0.0-preview2-bin-hadoop2.7/jars/
spark</em
浏览 32
提问于2020-06-14
得票数 2
3
回答
码头集装箱独立集群中的
Spark
SPARK
_PUBLIC_DNS和
SPARK
_LOCAL_IP
、
、
到目前为止,我只在
Linux
机器和VM(桥接网络)上运行
Spark
,但是现在我对使用更多的计算机作为奴隶很感兴趣。这一不足已经完成了,但我在从容器上
配置
正确的
SPARK
_LOCAL_IP (或--start-slve.sh的主机参数)时遇到了困难。我认为我正确地
配置
了
SPARK
_PUBLIC_DNS env变量以匹配主机的网络访问ip (来自10.0.x.x地址空间),至少它显示在
Spark
上,并且所有机器都可以访问。我想知道为什么在连接到奴隶时没有使用
配置</
浏览 4
提问于2015-09-22
得票数 10
回答已采纳
1
回答
带有pycharm的
Linux
上的PySpark -第一个异常错误
、
我正在尝试在我
配置
的
Linux
上运行我的第一个PySpark脚本。当我运行以下命令时,我得到的错误消息是KeyError:
SPARK
_HOME:from pyspark import SparkContext老实说,我遇到了这个问题,因为这
浏览 0
提问于2019-08-31
得票数 0
1
回答
如何使用Hadoop
配置
文件在Windows上使用SBT构建
Spark
1.6.1?
、
、
、
如何在Windows (8-10)上使用SBT构建
Spark
时激活Hadoop和纱线轮廓?>sbt package>sbt -Pyarn package 我是在问,因为mvn比SBT慢得多。我有使用SBT和Maven在
Linux
上构建
Spark
的经验。
浏览 2
提问于2016-05-10
得票数 1
回答已采纳
2
回答
在Google Colab上工作时如何打开
Spark
UI?
、
、
、
如何通过
Spark
WEB UI监控作业进度?在本地运行
Spark
时,我可以使用http://localhost:4040通过端口4040访问
Spark
UI。
浏览 38
提问于2019-04-27
得票数 12
1
回答
Apache : java.lang.OutOfMemoryError: Java问题
、
、
、
下面是一个场景:当它再次工作时,?如果我在通过执行-
spark
-submit清除
linux
缓存后运行相同的/proc/sys/vm/drop_caches,那么它再次成功地运行一次。这真的是火花代码的问题吗,还是因为
浏览 2
提问于2020-06-18
得票数 0
2
回答
Windows: Apache火花历史服务器Config
、
、
、
、
我做了以下工作:
spark
.eventLog.enabled=trueC:\
spark
-1.6.2-bin-hadoop2.6/conf/
spark
-env.sh: line 70:org.apache.
sp
浏览 6
提问于2016-07-17
得票数 0
回答已采纳
1
回答
火花独立模式与主服务发现
、
这样,而不是用工作人员
配置
(如:
spark
://172.40.101.1:7077,172.40.102.2:7077 )编写
spark
://
spark
-master.service:7077现在我可以使用dig和
linux
解析来解决问题了,但我的问题是: 这一问题是否有最佳做法?
浏览 2
提问于2018-01-09
得票数 2
回答已采纳
1
回答
我们如何将我现有的kafka -
spark
-cassandra项目部署到google-cloud--cassandra中的kafka - dataproc平台?
、
、
我现有的项目是kafka-
spark
-cassandra。现在我有了gcp帐户,必须将
spark
作业迁移到dataproc。在我现有的
spark
作业中,像masterip、memory、cores等参数都是通过命令行传递的,而命令行是由
linux
shell脚本触发的,并创建新的sparkConf。",内存) .set("
spark
.cores.max",内核) .set("
spark
.scheduler.mode","FAIR
浏览 1
提问于2016-06-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python Spark安装及配置步骤
教程-Spark安装与环境配置
Linux网络配置
Windows系统是这样配置spark环境的
Spark MLlib 入门学习笔记-编程环境配置
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券