腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
使用
spark-
Python2
强制
提交
、
、
、
我正在
使用
AWS EMR创建Spark应用程序,但是spark-submit运行的是Python3而不是
Python2
,但是当我运行pyspark时,它是
Python2
。如何
强制
spark-submit
使用
Python 2?export PYSPARK_PYTHON=/usr/bin/
python2
谢谢
浏览 41
提问于2017-07-07
得票数 0
回答已采纳
1
回答
在spark Scala中以编程方式在电子病历集群级别设置maximizeResourceAllocation=true
、
、
、
我在
spark-
maximizeResourceAllocation=true命令中
使用
了--conf
提交
参数,但看起来没有任何效果。
浏览 7
提问于2021-04-09
得票数 1
3
回答
在spark环境中运行python程序时出错
、
、
、
我
使用
的是spark 1.3.0。/bin/
spark-
提交
progname.pyNameError:未定义名称'sc‘有什么想法吗?提前感谢
浏览 0
提问于2015-11-17
得票数 1
2
回答
spark-
使用
java 8
提交
、
、
、
有没有办法让spark
使用
java 8?(我已经在集群中的所有机器上安装了java-8 ) 谢谢!
浏览 2
提问于2016-03-19
得票数 0
1
回答
如何
使用
yarn rest api
提交
作业到spark?我想
使用
YARN REST API
提交
作业给spark
、
我正在构建一个用于触发
spark-
job和检查作业状态的接口。 我不能
使用
像Livy,spark job server这样的第三方库。我想通过REST API创建启动和
提交
作业到spark集群的API。
浏览 19
提问于2019-10-21
得票数 0
回答已采纳
1
回答
Spark sql join给出内存不足异常
、
我有一个大约500k行和20列的数据集。1&23&4然后,我基于一些公共列连接父数据集和子数据集,并执行值的修复: for (Triple<String, String, Seq<String>> aggregationTriple : getAgg
浏览 1
提问于2019-10-25
得票数 0
1
回答
强制
snakemake在不
使用
--use-conda的规则中运行
python2
、
问题:如何
强制
snakemake在外部脚本中运行python版本,而不是在当前环境中运行python版本?注意事项:我尝试过的:
浏览 38
提问于2020-05-25
得票数 1
2
回答
尝试
使用
Spark运行JAR文件时找不到类异常
、
我在关注 我到了最后一步,将我的文件编译成应该可以
使用
的JAR。
浏览 2
提问于2018-10-08
得票数 0
1
回答
如何通过scala代码获取Hadoop-spark作业的跟踪URL或捕获spark-submit输出
、
通过
提交
脚本bin/ spark - submit,我可以成功
提交
spark作业。现在,我想像捕获一样捕获跟踪URL,并在我的其他scala项目中
使用
它。我该怎么做呢?另外,我尝试
使用
scala.sys.process.ProcessIO来捕获spark-submit输出,它不起作用,因为我的want.Here是代码: def submitSparkJob(filename如何获取spark作业的“跟踪URL”并在我的scala代码中
使用
它?谢谢!
浏览 1
提问于2015-11-05
得票数 2
2
回答
如何将主题中的Kafka gzip压缩消息读入Spark Streaming
、
、
、
我确实看到我们需要在生产者端进行更改,以
使用
Gzip压缩,但我不确定如何在阅读消息时解压。请把灯熄灭,告诉我从哪里开始。我有我的端到端流工作的未压缩的消息。 谢谢
浏览 0
提问于2017-12-20
得票数 2
2
回答
使用
#!
python2
无法在
Python2
下运行
、
、
python2
位于代码的最顶端,我希望它能在
Python2
中运行。 我的理解是,第一行中的#!
python2
将
强制
Python
使用
Python2
。相反,它
使用
Python3,因此行“在调用print时打印Python3缺失括号”。
浏览 4
提问于2015-12-14
得票数 3
回答已采纳
1
回答
强制
使用
python2
?
、
该脚本
使用
python2
以print >> sys.stderr, line方式记录错误。因此,而不是实际的错误输出,我得到错误的python语法错误。尝试在alias python=
python2
文件的末尾添加.bashrc,重新启动终端,用行测试它:但是,当我
使用
make时,我仍然会遇到相同的错误,它无论如何都能成功地
使用<
浏览 4
提问于2022-02-25
得票数 0
回答已采纳
2
回答
如何从spark-shell/ spark -submit运行交互式spark应用程序
我以前
使用
过spark作业服务器在内存加载的数据帧上实现多个交互式查询,但不是从shell。有什么建议吗?更新1:这是项目jar的外观,它与所有其他依赖项打包在一起。RecommendMatch$$anonfun$3.classmy_home/myhome/RecommendMatch.class 并
使用
以下选项运行更新2(
使用
spark-submit)尝试了jar的完整路径。接下来,尝试将项目jar复制到bin位置
浏览 1
提问于2017-05-16
得票数 1
2
回答
spark-
使用
特定的python库
提交
、
、
我在指定我的spark-submit查询来
使用
这个环境时遇到了一些麻烦。我既
使用
--archives加载压缩文件,又
使用
--conf 'spark.pyspark.driver.python=path/to/my/env/bin/python'加上--conf 'spark.pyspark.python
浏览 9
提问于2018-02-06
得票数 3
1
回答
如何
使用
Kubernetes在火花集群中调度作业
、
、
、
我计划
使用
Kubernetes来部署星火集群。然后,我将
使用
SparkStraeming处理Kafka的数据,并将结果输出到数据库。但据我所知,这是为了调度容器部署,我已经启动并运行了我的容器(因为我
使用
了SparkStreaming的
Spark-
群集),我只想每天晚上向集群
提交
一个作业。是否将
Spark-
容器与SparkStreaming应用程序分开(即容器应该只包含一个干净的Spark节点,并将SparkStreaming应用程序保存在持久存储中,然后
使用
kubec
浏览 1
提问于2017-01-26
得票数 3
2
回答
更改用于“打印”参数类型
强制
的字符串类型
、
、
、
、
我怎样才能说服
Python2
的print 把它的论点强加给 unicode?TypeError: unicode argument expected, got 'str'TypeError: unicode argum
浏览 0
提问于2015-10-08
得票数 2
1
回答
spark-
使用
Runtime.getRuntime().exec
提交
时未找到
提交
命令
、
我有一个用例,我需要做火花
提交
的python代码从Java应用程序。
浏览 44
提问于2019-06-07
得票数 1
1
回答
Django force Python3
我在Django中有一个我编写的视图&由于我正在
使用
的库在
Python2
中不可用,它只能在Python3中工作。因此,当我运行应用程序时,视图失败,因为它试图在
Python2
中运行它。 如何
强制
Django尝试在Python3中运行它?
浏览 8
提问于2020-07-19
得票数 0
回答已采纳
1
回答
spark独立应用程序在小文本文件上内存不足
、
在我的8 GB内存的macbook pro上,在一个独立的scala应用程序中,我
使用
spark 1.0.2对一个大约800MB大小的文件进行了简单的行数计算现在要注意的部分是:
使用
spark/bin/spark-submit或spark-shell,执行相同的代码会得到一个有效的结果,没有任何内存异常。我的做法如下:$ .除了
使用
更多分区外,没有任何帮助:/ 我能提供的信息?内存标志都是默认的。
浏览 2
提问于2014-08-10
得票数 1
1
回答
使用
ipython运行jupyter Run转换
、
、
它启动以下命令:我收到了折页错误:ImportError: No module named matplotlib经过一些谷歌的研究,我发现这是因为脚本是
使用
python2
而不是ipython来执行的。问题: 如何
强制
jupyter nbconvert
浏览 0
提问于2018-06-13
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券