腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Spark
2
启动
Ipython
、
我的ipthon
启动
脚本如下所示--notebook-dir='/usr/hdp/2.3.2.0-2950/
spark
/' \--ip='*' --no-browser" pyspark在
Spark
2.0
浏览 7
提问于2017-03-08
得票数 4
3
回答
安装
Spark
issue。无法
使用
pyspark打开
IPython
笔记本
、
、
、
、
下面是错误的链接:在我输入pyspark之后,ipthon notebook应该会在一个新的选项卡中打开,但它没有。谢谢,马特
浏览 1
提问于2015-02-02
得票数 0
1
回答
Py4Java: ImportError:在为Apache运行Python时没有名为numpy的模块
、
、
、
我试图遵循这个中的实时编码 所以numpy被安装了:Requirement already然而,当我运行依赖于model = KMeans.train(data, k=5)的numpy命令时,火花
使用
的Py4Java库会抛出此错误。如何告诉py4j/protocol.py文件夹中的.---------------------- Py4JJavaError Traceback (most
浏览 1
提问于2015-02-02
得票数 2
回答已采纳
1
回答
Ipython
notebook中的pyspark提高了Py4JNetworkError
、
、
我
使用
IPython
notebook运行PySpark,只是在notebook中添加了以下内容:os.chdir('../data_files')import pandas as pdfrom
IPython
.display import Imagesy
浏览 4
提问于2015-05-20
得票数 6
回答已采纳
8
回答
如何用
IPython
加载PySpark外壳
、
、
、
我想加载
IPython
外壳(而不是
IPython
笔记本),在其中我可以通过命令行
使用
PySpark。这有可能吗?我安装了火花-1.4.1。
浏览 9
提问于2015-08-06
得票数 35
回答已采纳
2
回答
我如何
启动
pyspark并进入
ipython
外壳?
、
ipython
解释器。我尝试以这种方式修改我的.bashprofile,并
使用
别名:export
SPARK
_HOME="/Users/micahshanks/
spark
-2.1.0-bin-hadoop2.7" export PYTHONPATH="/Users/micahshanks/
spark
-2.1.0-bin-hadoop2.7/python
浏览 5
提问于2017-06-27
得票数 1
回答已采纳
1
回答
在
Ipython
中
启动
多个SparkContext实例
、
、
我有
Ipython
和3.2(Jupiter)在hrl6上运行pyspark。我一次只能
启动
一个python
2
脚本,因为只有一个
spark
上下文。当我在
Ipython
中
启动
并运行另一个脚本(内核)时,我收到一个“地址已经在
使用
0.0.0.0:4040”。为了能够在同一个
spark
+yarn集群上运行多个开发工作,我认为我需要多个SparkContext实例。我如何在同一个
Ipython
笔记本上实现
spark
上的这种并行
浏览 3
提问于2015-07-09
得票数 2
1
回答
在ec
2
上
启动
笔记本
、
、
、
、
我刚刚从1.4升级到
Spark
2.0,并从github.com/amplab/smack-ec
2
/tree/分支- 2.0下载了ec
2
目录。./
spark
-ec
2
-k <keypair> -i <key-file> -s <num-slaves> launch <cluster-name> ./
spark</em
浏览 2
提问于2016-12-28
得票数 0
回答已采纳
1
回答
我的Macbook Pro上可以同时运行两个工作的pyspark版本(1.6.1和2.0)吗?
、
我目前正在
使用
Spark
1.6.1,并在Jupyter
Ipython
笔记本和Java 8中
使用
它。对于Java,我只需修改我的maven pom以导入
Spark
2.0,但我不确定如何在
ipython
中做同样的事情。我认为我需要安装2.0,但这是可行的,因为我已经安装了
Spark
1.6.1?我可以在我的macbook上同时
使用
两个版本,并从pyspark中选择
使用
哪个版本吗?多么?更新:这是我在终端%
IPYTHON</
浏览 2
提问于2016-09-22
得票数 0
1
回答
CDH5.12上
Spark
2.2的
IPython
安装
、
、
、
我在CDH5.12和RHEL上有一个包含
Spark
2.2的集群,我正在尝试设置
IPython
以与pyspark
2
一起
使用
。我已经安装了
IPython
5.xLTS(长期支持),但是我不能让它工作。yum -y install python-pipyum install python-devel pip install
IPython
浏览 3
提问于2017-10-31
得票数 0
1
回答
在
启动
jupyter笔记本时
使用
“`
ipython
`”指定的结果调用pyspark
、
我更喜欢
使用
ipython
增强型REPL而不是python,因此我在pyspark命令行中这样指定: PYSPARK_DRIVER_PYTHON=
ipython
MASTER="local[*]" $
SPARK
_HOME/bin/pyspark结果:jupyter notebook<
浏览 0
提问于2018-07-21
得票数 1
回答已采纳
1
回答
如何在GraphX笔记本上运行
IPython
?
、
、
、
我试图在
Ipython
笔记本上运行GraphX。首先,我
启动
了
Spark
/Hadoop集群,然后
使用
本教程()
启动
了
ipython
笔记本。但是现在我只有Python
2
内核,我需要GraphX来处理图形。我怎么能运行它?
浏览 1
提问于2016-11-12
得票数 0
回答已采纳
2
回答
Jupyter Notebook只能在
Spark
上本地运行
、
我正尝试在
spark
cluster (v2.0)上远程
使用
jupyter-notebook (v4.2.2),但当我运行以下命令时,它不会在
spark
上运行,而只在本地运行: PYSPARK_DRIVER_PYTHON=jupyter PYSPARK_DRIVER_PYTHON_OPTS="notebook --no-browser --port=7777" pyspark --master
spark
://**
spark
_master_hostname**:70
浏览 5
提问于2016-09-16
得票数 8
1
回答
用于
ipython
笔记本的Anaconda +
Spark
- changing版本
、
、
我安装了Anaconda,并尝试在顶部
使用
spark
。当我
使用
Ipython
_OPTS=" notebook“
启动
spark
时,python版本是与anaconda的笔记本python版本相关联的版本。0 defaults如果
启动
spark
-shell,我可以精确地确定我感兴趣的环境版本(我想要2.
浏览 1
提问于2016-05-27
得票数 1
5
回答
在AWS EMR v4.0.0上
使用
Pyspark配置
Ipython
/Jupyter笔记本
、
、
、
我正在尝试
使用
带有Apache
Spark
1.4.0的
IPython
笔记本。我已经按照下面的
2
个教程设置了我的配置 1.
ipython
_notebook_config.pyc.NotebookApp.ip= os.environ.get('
SPARK
_HOME', None) sys.path.insert(0,
spark
_home + "/pyt
浏览 1
提问于2015-09-26
得票数 4
1
回答
在PySpark会话中选择
IPython
版本
、
、
我已经设置了环境变量(如
SPARK
_MAJOR_VERSION=
2
),以便在直接打开火花放电或火花壳时,它
使用
Spark
2.1。但是,当我试图在
IPython
会话中导入pyspark时,它
使用
Spark
1.6。默认情况下,如何将其设置为
使用
2.1?
浏览 2
提问于2018-06-12
得票数 0
回答已采纳
2
回答
如何在
IPython
笔记本中加载jar依赖项
、
、
、
鼓励我尝试
使用
spark
-csv来读取PySpark中的.csv文件。我发现有几篇文章描述了如何
使用
,比如
ipython
notebook --profile=pyspark
ipython
notebook --profile=pyspark --packages com.databricks:
浏览 1
提问于2015-11-25
得票数 8
2
回答
pyspark:如何显示当前目录?
、
嗨,我正在交互式地
使用
pyspark。我想我无法正确加载本地文件。或者是pyspark所在的默认目录?谢谢
浏览 16
提问于2016-05-03
得票数 3
回答已采纳
5
回答
如何在Windows中
使用
pyspark
启动
Spark
Shell?
、
我是
Spark
的初学者,从这里开始尝试遵循如何
使用
cmd:从Python初始化
Spark
shell的说明C:\Users\Alex\Desktop\
spark
-1.4.1-bin-hadoop2.4\>c:\Python27\python bin\pyspark File "bin\pyspark", line 21 export
SPARK
_HOME附言:在cmd中,我只尝试
使用
C:\User
浏览 3
提问于2015-07-28
得票数 4
1
回答
开始-火种,
IPython
笔记本与火花放电
、
、
、
、
我想了解如何设置一切,以便能够有一个
iPython
笔记本和火花放电工作。如果我错了,请告诉我,但我想我可以用这个:()aws emr create-clust
浏览 4
提问于2015-10-23
得票数 0
回答已采纳
点击加载更多
相关
资讯
Spark-2
Spark 开启动态资源分配
Spark快速入门-2-Spark的编程模型
Jupyter在美团民宿的应用实践
spark streaming的使用心得
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券