腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
没有星火
PySpark
能工作吗?
、
我已经
安装
了
PySpark
独立/本地(在Windows上)我感到有点惊讶,我已经可以在命令行中运行
pyspark
,或者在木星笔记本中使用它,而且它不需要
安装
一个适当的我遇到的大多数教程都说需要“在
安装
PySpark
之前
安装
火花”。这将同意我的观点,即
PySpark
基本上是Spark的包装器。但也许我错了-谁能解释一下: 这两种技术之间的确切联系是什么?为什么
安装
浏览 1
提问于2018-08-07
得票数 36
回答已采纳
3
回答
jupyter中的
PySpark
SparkContext名称错误'sc‘
、
、
、
、
我是
pyspark
的新手,我想在我的Ubuntu 12.04机器上使用Ipython notebook来使用
pyspark
。下面是
pyspark
和Ipython notebook的配置。conf ec2 lib licenses python README.md sbin spark-1.5.2-bin-hadoop2.6.tgz 我
安装
了= os.environ.get("
PYSPARK
_SUBMIT_ARGS", ""
浏览 5
提问于2016-04-23
得票数 0
4
回答
pyspark
: pip
安装
找不到版本
、
我正在尝试使用pip install
安装
pyspark
,如下所示。但是我得到了以下错误。(python_virenv)edamame$ pip install
pyspark
Could not find a version that satisfiesthe requirement
pyspark
(from versions: )有谁知道吗?
浏览 7
提问于2016-07-16
得票数 6
2
回答
将
PySpark
与木星笔记本集成
、
、
、
、
我遵循这个
安装
朱庇特笔记本,
PySpark
,并整合两者。我打开了kernel.json并编写了以下内容: "display_name": "
pySpark</e
浏览 5
提问于2016-08-25
得票数 2
回答已采纳
1
回答
如何从命令行访问Apache
PySpark
?
、
、
我正在参加一个使用Jupyter笔记本的Apache
PySpark
在线课程。MAC OS): export SPARK_HOME="(INSERTED MY SPARK DIRECTORY)"export
PYSPARK
_DRIVER_PYTHON=jupyter export
PYSPARK
_DRIVER_PYTHON_OPTS='notebook' 我对Linux不是很熟悉,课程也没有解释这些代码行是做什么的。在此之
浏览 9
提问于2019-10-04
得票数 0
3
回答
aws EMR版本5.23.0是否支持python版本3.7.x?
、
、
、
目前我们使用EMR版本5.23.0来提交我们的
pyspark
作业。我们希望将python版本升级到3.7,并想检查当前的EMR版本5.23.0是否支持python 3.7。
浏览 6
提问于2020-05-13
得票数 1
3
回答
运行火花时出错
、
处理PYTHONSTARTUP文件/Users/simon/spark-1.6.0-bin-hadoop2.6/python/
pyspark
/shell.py中的IPKernelApp警告 exp
浏览 10
提问于2017-10-04
得票数 2
6
回答
无法
安装
pyspark
、
我正在尝试
安装
pyspark
,如下所示:我得到了这个错误:已经
安装
了pypandoc 有什么办法可以
安装
pyspark
吗?
浏览 6
提问于2018-07-24
得票数 15
1
回答
我怎样才能在Ubuntu上得到火种?
我可以通过软件中心获得星火,但我如何获得火种?
浏览 0
提问于2015-06-11
得票数 1
2
回答
在上
安装
pyspark
是因为“在搜索[‘/tmp’、‘/usr/local/bin’时找不到有效的SPARK_HOME”)
、
、
、
、
pip3
安装
火花放电 /usr/local/bin/火星-提交:第27行:/bin/火花类:没有这样的文件或目录 我注意到,即使在
安装
火花放电之前我想知道为什么
安装
火花放电会导致这个问题,以及如何解决它?
浏览 3
提问于2018-04-28
得票数 0
回答已采纳
2
回答
AttributeError:不能在<模块'
pyspark
.cloudpickle‘>上获得属性'_fill_function’>来自‘
pyspark
/cloudpickle/__init_..py’>
、
、
当从脚本中执行
pyspark
代码时。在df.show()时获取以下错误。from
pyspark
.sql.types import StructType,StructField, StringType, IntegerTypedf.show(truncate=False) AttributeError: Can't get attribute '_fill_function' on <m
浏览 12
提问于2021-06-06
得票数 2
2
回答
无法在浏览器中启动
PySpark
(windows 10)
、
、
我试图通过在控制台输入
PySpark
来启动浏览器中的
pyspark
notebook,但是我得到了以下错误:python: can't open file '
浏览 1
提问于2017-02-21
得票数 0
2
回答
星星之火-提交python文件并没有找到模块
、
、
利用蟒蛇分布2.7
PYSPARK
_VENV]/lib/python2.7/site-packages/地点有熊猫。
浏览 0
提问于2019-01-25
得票数 0
回答已采纳
2
回答
pyspark
3的HDinsight python包
、
、
、
、
我遵循了Microsoft提供的教程,使用azure门户上的脚本操作功能来
安装
python包 这似乎只是
安装
了这些包,以便可以通过
pyspark
内核访问它们,而不是同时
安装
pyspark
和
pyspark
我想知道有没有人知道让
pyspark
3内核看到它的方法?
浏览 0
提问于2018-03-29
得票数 0
1
回答
创建一个完全隔离的python venv
、
、
、
、
我在yarn集群上部署了
pyspark
应用程序,在所有节点都可以访问的挂载上部署了python venv。我遇到的问题是,节点上的python
安装
是不一致的,有些节点
安装
了必需的模块(这是python构建的一部分),而其他节点则不
安装
,这会导致频繁的崩溃。我注意到,在使用python -m venv创建一个venv时,它并不复制python
安装
,而是向它创建一个symlink。事实证明,与负责集群的团队就这一问题进行沟通非常繁琐,因此我想在挂载上创建一个完全隔离的python
安装
,作为解
浏览 23
提问于2022-10-10
得票数 0
2
回答
在AWS EMR上的
PySpark
脚本中找不到com.amazon.ws.emr.hadoop.fs.EmrFileSystem
、
、
、
我正在尝试使用AWS CLI创建一个EMR集群,以运行python脚本(使用
pyspark
),如下所示: --log-uri "s3://mybucket/logs" bootstrap脚本设置Python3.7,
安装<
浏览 0
提问于2020-08-02
得票数 2
1
回答
我需要
安装
Hadoop才能使用
Pyspark
的所有方面吗?
、
、
、
我已经
安装
了
pyspark
,但没有单独
安装
任何hadoop或spark版本。当
pyspark
想要访问winutilis.exe时,它会在HADOOP_HOME环境变量(用户变量)指定的文件夹的bin目录中查找它。因此,我将winutils.exe复制到
pyspark
(.\site-packages\
pyspark
\bin)的bin目录中,并将HADOOP_HOME指定为.\site-packages\
pyspark
\。Hadoop,然后为HADDOP_HOME指定其<
浏览 4
提问于2020-03-24
得票数 1
1
回答
使用架构详细信息创建dataframe时,Dataproc上出现
Pyspark
错误
、
、
在anaconda my-env中,因为我需要在那里
安装
开源RDkit,因此我再次
安装
了
PySpark
(而不是使用预先
安装
的)。现在,使用下面的代码,我在my-env中得到了错误,但在my-env之外没有得到错误 代码: from
pyspark
.sql.types import StructField, StructType,StringType, LongTypefrom py4j.protocol imp
浏览 40
提问于2020-01-29
得票数 1
1
回答
在哪里修改火花-defaults.conf如果我通过pip
安装
pyspark
、
我通过pip install
pyspark
安装
了pyskem3.2.0。我已经在一个名为
pyspark
的conda环境中
安装
了电火花。我找不到spark-defaults.conf。我在~/miniconda3/envs/
pyspark
/lib/python3.9/site-packages/
pyspark
中搜索它,因为这是我对SPARK_HOME应该是什么的理解。我想修改它,,,我在将SPARK_HOME设置为<e
浏览 7
提问于2021-12-07
得票数 3
回答已采纳
1
回答
安装
pyspark
的最新配置是什么?
、
、
我正在尝试
安装
pyspark
。遵循这个主题,特别是来自OneCricketeer和zero323的建议。我做了以下工作:2-在我的.bashrc文件中设置:export
PYSPARK
_PYTHON=$ANACONDA_ROOT/bin
浏览 1
提问于2020-09-26
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
pyspark 安装
PySpark安装+Jupyter Notebook配置
PySpark数据分析基础:PySpark原理详解
PySpark调优
如何使用pyspark统计词频?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券