腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3635)
视频
沙龙
1
回答
无法
将
组织
模块
导入到
PySpark
集群
、
、
、
、
我正在尝试从org
模块
导入FPGrowth,但在安装org
模块
时抛出错误。我也尝试过
将
org.apache.spark替换为
pyspark
,但仍然不起作用。 !
浏览 19
提问于2020-06-02
得票数 0
回答已采纳
2
回答
无法
导入
模块
'lambda_function':没有名为'
pyspark
‘的
模块
、
、
我正在尝试使用AWS Lambda函数运行我的
PySpark
作业代码。下面是错误:
无法
导入
模块
'lambda_function':没有名为'
pyspark
‘的
模块
from
pyspark
.s
浏览 0
提问于2018-12-11
得票数 0
2
回答
用Python实现数据库中的XGBoost
、
、
因此,最近我一直在研究Mlib
集群
,并发现根据docs,可以用于我的
集群
版本(5.1)。这个
集群
正在运行Python 2。from
pyspark
.ml import Pipelinefrom
p
浏览 0
提问于2019-02-07
得票数 0
回答已采纳
2
回答
在EMR上运行
pyspark
脚本
、
目前,我使用EC2s
集群
使用预配置的./ec2目录自动化了Apache脚本。出于自动化和调度的目的,我想使用Boto EMR
模块
向
集群
发送脚本。但是,这需要我在本地运行该脚本,因此我
无法
充分利用Boto的能力来启动
集群
2)添加脚本步骤和3)停止
集群
。我已经找到了一些示例,其中使用了用于星火壳(scala)的
浏览 4
提问于2014-04-25
得票数 25
1
回答
如何分配xgboost
模块
用于火花?
、
、
、
我想在
pyspark
中使用经过预先训练的xgboost分类器,但是
集群
中的节点没有安装xgboost
模块
。我可以挑选我训练过的分类器并广播它,但是这还不够,因为我仍然需要在每个
集群
节点加载
模块
。我
无法
在
集群
节点上安装它,因为我没有根,也没有共享的文件系统。 我有一个鸡蛋给你吃。像或这样的东西能起作用吗?
浏览 1
提问于2016-09-24
得票数 7
1
回答
submit
无法
从提交为-存档的环境中导入包
、
、
但是从星火提交代码中,我
无法
导入conda (
pyspark
_venv.tar.gz)中可用的包,它给了我
模块
未找到的错误。spark-submit --archives
pyspark
_venv.tar.gz#environment app.py 它来自app.py,我
无法
导入这些包
浏览 12
提问于2022-04-20
得票数 2
1
回答
使用spark执行python脚本
、
、
、
我错误地
将
pyspark
脚本传递到我的SparkContext中了吗?
浏览 26
提问于2020-08-04
得票数 2
1
回答
创建一个完全隔离的python venv
、
、
、
、
我在yarn
集群
上部署了
pyspark
应用程序,在所有节点都可以访问的挂载上部署了python venv。我遇到的问题是,节点上的python安装是不一致的,有些节点安装了必需的
模块
(这是python构建的一部分),而其他节点则不安装,这会导致频繁的崩溃。事实证明,与负责
集群
的团队就这一问题进行沟通非常繁琐,因此我想在挂载上创建一个完全隔离的python安装,作为解决这种情况和未来问题的解决方案。对于venv
模块
,我没有找到任何方法来做到这一点。但是,理想情况下,我希望使用venv来实现这一点,因为我不希
浏览 23
提问于2022-10-10
得票数 0
1
回答
将
源文件存储在与Google云存储( google )中
、
、
、
、
为了测试我的
PySpark
映射函数,我设置了
集群
(仅测试一个JSON文件的一个主5名工作人员)。 这里的最佳做法是什么?我应该复制主节点中的所有文件(利用Dataproc中的Hadoop分布式文件系统),还是如果我
将
文件保存在GCS桶中并将文件位置指向我的
Pyspark
中,那么它是否同样有效?另外,我的代码导入了相当多的外部
模块
,我已经
将
这些
模块
复制到我的主
模块
中,并在主
模块
中导入工作。将其复制到所有其他工作节点上的最佳实践是什么,这
浏览 1
提问于2019-06-04
得票数 1
回答已采纳
1
回答
连接到电子病历导入自定义SageMaker
模块
的Python笔记本
、
、
我有一个SageMaker笔记本实例,打开了一个连接到AWS EMR
集群
的SparkMagic
Pyspark
笔记本。目录如下所示:/home/ec2-user/SageMaker/dsci-Python/
pyspark
_mle/datalake_data_object/SomeClass /home/ec2-user/Sage
浏览 9
提问于2019-11-28
得票数 2
1
回答
如何
将
PySpark
(本地机器)连接到电子病历
集群
?
、
、
、
我已经部署了一个带有Apache的3节点AWS ElasticMapReduce
集群
。访问
PySpark
。此外(尽管不安全),我已经
将
主节点的安全组配置为专门在端口7077上从本地机器的IP地址接受TCP流量。但是,我仍然
无法
将
本地
PySpark
实例连接到
集群
:上面的命令会导致许多
浏览 2
提问于2016-12-01
得票数 10
回答已采纳
1
回答
在HD Insight上使用带木星笔记本的星火包
、
、
、
我正试图通过木星笔记本在graphFrames上使用
PySpark
。我的星盘
集群
在HD上,所以我没有编辑kernel.json的权限。%set_env
PYSPARK
_SUBMIT_ARGS='--packagesgraphframes:graphframes:0.3.0-spark2.0-s_2.11 <e
浏览 3
提问于2016-12-12
得票数 2
回答已采纳
1
回答
如何发送和运行火花-提交与虚拟
、
、
我试图在独立
集群
上提交spark作业,我
将
虚拟主机压缩为venv.zip,并将该作业作为shell脚本提交
PYSPARK
_PYTHON=./venv/bin/python \--jars ojdbc6.jar \--archives venv.zip#venv \但我一直认为,即使
浏览 3
提问于2021-07-04
得票数 3
回答已采纳
2
回答
将
pyspark
中的Python
模块
传送到其他节点
、
如何
将
C编译
模块
(例如,python-Levenshtein)发布到
集群
中的每个节点?我知道我可以使用独立的Python脚本(示例代码如下)在Spark中发布Python文件:sc = SparkContext("local", "App Name", pyFiles=['MyFile.py', 'MyOtherFile.py']) 但是在没有“.py”的情况下,我如何发布<e
浏览 1
提问于2014-07-11
得票数 30
回答已采纳
1
回答
使用基类和多文件结构的烧瓶迁移/Alembic不检测模型
、
、
、
、
__subclasses__()} 迭代来自堆栈溢出片段,这样我就可以
将
类中的模型公开给flask命名空间。我可能不需要将这两个类放在两个单独的文件中,但我的上一个项目最终得到了大约30个模型,
组织
要求进行一些拆分,所以这只是我开发的一个实践。
浏览 0
提问于2021-03-27
得票数 3
2
回答
如何从木星笔记本上的其他.ipynb导入变量?
、
我正在使用Python 3在木星笔记本上编写代码,为了
组织
我的代码,我尝试在我的程序中使用两个不同的
模块
。因此,我有一个
模块
名为“让我们简单化”,称为abc.ipynb,现在创建了一个不同的
模块
,称为edf.ipynb (都在木星笔记本上)print(abc.x)I导入x导入的甚至尝试调用函数 所有这些都给出了以下错误中的一
浏览 4
提问于2020-04-04
得票数 2
2
回答
AWS ModuleNotFoundError:没有名为“pyarrow”的
模块
、
、
、
、
使用AWS EMR w/ Spark 2.4.3export
PYSPARK
_PYTHON=python3在火花壳中证实了这一点 df = spark.createData
浏览 2
提问于2019-08-01
得票数 4
回答已采纳
1
回答
使用在内部定义了udf的
模块
冻结
pyspark
作业-解释?
、
、
情况是这样的: 我们有一个
模块
,在其中我们定义了一些返回
pyspark
.sql.DataFrame (DF)的函数。为了获得这些DF,我们使用在同一文件或助手
模块
中定义的一些
pyspark
.sql.functions.udf。当我们实际为
pyspark
编写要执行的作业时,我们只从
模块
导入函数(我们向--py-files提供了一个.zip文件),然后
将
数据帧保存到hdfs。我们发现的令人讨厌的修复方法是在作业中定义udf函数,并将它们提供给从我们的
模块
导
浏览 12
提问于2017-07-14
得票数 9
1
回答
PySpark
--
将
具有扫描功能的sas宏转换为火花放电
、
、
、
、
我是
pyspark
和python的初学者,并试图将我的SAS宏之一转换为
pyspark
,但
无法
找到与SAS中的扫描功能等价的有用资源,而且在EMR studio
pyspark
集群
中执行when循环也有困难我正在尝试
将
下面的SAS宏转换为
pyspark
,谢谢大家。
浏览 6
提问于2022-11-22
得票数 0
1
回答
在Spark 2解释器下使用Python与齐柏林飞艇
、
解决方案:转到齐柏林的解释器,找到spark2,让zeppelin.
pyspark
.python指向python已经存在的地方。
浏览 0
提问于2018-05-30
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
微软提出CSS Modules V1:通过import语句将CSS模块导入到组件中
如何在CDH集群上部署Python3运行环境及运行Python作业
Jupyter在美团民宿的应用实践
PySpark数据分析基础:PySpark原理详解
pyspark 安装
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券