腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
Java
API
在
Google
Dataproc
Cluster
上
设置
可选
属性
?
、
我正在尝试
使用
Java
API
创建
Dataproc
集群,遵循本文档https://cloud.
google
.com/
dataproc
/docs/quickstarts/quickstart-lib 示例代码如下所示String.format("Error executing createCluster: %s ", e.getMessage())); } } 因此,根据文档,我能够成功地创建它
浏览 15
提问于2020-07-14
得票数 2
回答已采纳
3
回答
使用
google
-cloud-python
API
访问
Dataproc
时出现无效区域错误
、
我正在尝试
使用
库
在
Dataproc
中创建一个集群,然而,当
设置
region = 'us-central1'时,我得到以下异常:for
浏览 9
提问于2018-11-21
得票数 2
2
回答
无法从'
google
.cloud‘导入名称'
dataproc
_v1’(未知位置)
、
、
、
、
尝试通过Jupyter Notebook
使用
Dataproc
从计算机进行访问时,我
使用
pip安装了所需的库。但是,
在
导入时出现错误 import
google
.cloud.
dataproc
_v1 错误信息如下: ModuleNotFoundError Traceback我还尝试了安装包python3 -m pip install
google
-cloud-
dataproc
。-- cachetools
浏览 21
提问于2020-09-11
得票数 1
1
回答
Google
Dataproc
Presto:
如何
使用
Python运行查询
、
、
、
、
通过执行此中的步骤,我已经
设置
了一个运行Presto的
Google
Dataproc
集群。最后,本教程展示了
如何
通过
java
应用程序
在
Presto
上
运行查询。有没有办法通过我的Python应用程序
在
Dataproc
集群
上
运行查询
浏览 13
提问于2021-03-14
得票数 3
1
回答
Mrjob无法
在
dataproc
上
创建集群:__init__()获得意外的关键字参数'channel‘
、
、
、
、
我正在尝试
使用
Python mrjob库
在
Google
Cloud
Dataproc
上
运行Hadoop Map Reduce字数计算示例。: __init__() got an unexpected keyword argument 'channel' 我检查了是否正确
设置
了
GOOGLE
_APPLICATION_CREDENTIALS,
在
Google
Cloud
上
启用了
API
,并
浏览 36
提问于2020-11-01
得票数 2
3
回答
如何
在gce中关闭整个集群的日志
、
、
、
Dataproc
或Compute Engine中有什么可以帮助我禁用日志的吗?
浏览 25
提问于2019-11-18
得票数 1
回答已采纳
1
回答
如何
使用
Python创建带时间的
Dataproc
集群
、
、
我尝试
使用
python 创建一个
Dataproc
集群,该集群的生存期为1天。为此,
Dataproc
的v1beta2引入了,它是ClusterConfig对象的子对象。我
在
传递给create_
cluster
方法的JSON文件中
使用
了这个对象。要
设置
特定的TTL,我
使用
字段auto_delete_ttl,该字段的值应为86,400秒(一天)。关于
如何
在JSON文件中表示持续时间的:工期应表示为带有后缀s的字符串,持续时间为0、3、6或9个
浏览 4
提问于2020-02-11
得票数 4
回答已采纳
2
回答
创建
DataProc
集群时出现问题:组件游标器未能激活后hdfs
、
、
我正在
使用
Dataproc
集群
设置
来测试所有特性。我已经创建了一个集群模板,几乎每天都在
使用
creation命令,但是本周它停止了工作。post-hdfs See output in: gs://
cluster
_bucket/
google
-cloud-
dataproc
-metainfo/number/
cluster
_name-m/
dataproc
-post-hdfs-star
浏览 10
提问于2022-03-03
得票数 2
2
回答
Terraform- GCP数据Proc组件网关启用问题
、
、
我正在尝试
使用
terraform资源
google
_
dataproc
_
cluster
在
GCP中创建数据proc集群。我想在此同时创建组件网关。
在
查看这些文档后,已经说明了
如何
使用
下面的代码片段进行创建: endpoint_config { enable_http_port_access = "true"并且尝试
使用
override_properties和GCP数
浏览 11
提问于2022-07-25
得票数 2
回答已采纳
2
回答
如何
访问
Dataproc
集群元数据?
、
在
创建集群之后,我尝试检索其他组件的URL地址(不
使用
GCP仪表板)。我
使用
的是de
Dataproc
python
API
,更具体地说是get_
cluster
()函数。from
google
.cloud import
dataproc
_v1 region = 'europe-west4' client=
浏览 16
提问于2020-01-06
得票数 3
回答已采纳
1
回答
在
云日志记录中查看
Dataproc
作业驱动程序日志
虽然群集级日志是可用的,但我无法查询作业的
Dataproc
作业级别日志。
Dataproc
浏览 6
提问于2021-09-20
得票数 2
2
回答
在
集群模式下运行作业时,哪里可以
在
dataproc
中找到火花日志
、
、
我
在
dataproc
中以作业的形式运行以下代码。
在
“群集”模式下运行时,无法
在
控制台中找到日志。start_time).total_seconds()如果
使用
deployMode作为
cluster
属性
触发作业,则无法看到相应的日志。"spark.submit.deployMode":“集群”
浏览 23
提问于2021-12-07
得票数 3
回答已采纳
1
回答
在
Python中获取
dataproc
操作
、
、
、
、
有一个来自长期运行的操作(启动
Dataproc
集群)的operation_id,我试图让操作实例
在
Python中调用operation.result()。/json'gcloud
dataproc
operations describe some-operation-idclient_options = ClientOptions(
api
_e
浏览 13
提问于2022-07-26
得票数 1
回答已采纳
1
回答
使用
HBaseStorage
在
Dataproc
上
通过Pig从Bigtable加载
、
、
、
、
是否有人有
使用
HBaseStorage通过Pig从Bigtable加载数据的经验或成功?
在
Dataproc
主服务器
上
安装HBase外壳(/opt/hbase-1.2.1),遵循
上
的
浏览 6
提问于2017-03-21
得票数 2
回答已采纳
1
回答
Terraform
dataproc
群集
设置
问题
、
、
我正试图通过terraform
在
GCP中建立一个私有的
dataproc
集群(1M,2w)。它还应该需要
可选
的组件,如docker、anaconda和jupyter。" } gce_
cluster
_config { network
浏览 3
提问于2020-03-06
得票数 2
回答已采纳
1
回答
使用
Gcloud Composer DAG运行Spark作业的困难
、
、
、
我正在
使用
Gcloud Composer,试图创建一个创建
DataProc
集群的DAG,运行一个简单的Spark作业,然后拆卸集群。我正在尝试运行Spark PI示例作业。我知道
在
调用DataProcSparkOperator时,我只能选择定义main_jar或main_class
属性
。=
CLUSTER
_NAME
浏览 37
提问于2019-02-20
得票数 1
回答已采纳
3
回答
当底层HDFS群集不再存在时,
如何
从配置单元元存储中删除数据库
、
、
、
我正在
使用
临时GCP
Dataproc
集群( Apache Spark 2.2.1、Apache Hadoop 2.8.4和Apache Hive 2.1.1)。这些集群都指向相同的Hive Metastore (托管
在
Google
Cloud SQL实例
上
)。我
在
一个这样的集群
上
创建了一个数据库,并将其位置
设置
为‘HDFS:/ database _name’,如下所示: $ gcloud
dataproc
jobs sub
浏览 4
提问于2018-11-03
得票数 2
2
回答
Dataproc
+ python包:分发更新版本
、
、
目前,我正在谷歌
DataProc
上
开发一个星火应用程序。我经常需要更新Python包。
在
配置期间,我运行以下命令:gsutil cp gs://mybucket/mypackage.tar.gzmypackage sudo apt-get install -y python-pip python setu
浏览 1
提问于2016-03-12
得票数 0
回答已采纳
2
回答
在
dataproc
上
用PEX环境封装PySpark
、
、
、
、
我正试图
在
google
上
使用
PEX打包一个pyspark作业,但是我得到了一个Permission Denied错误。from
google
.cloud import
dataproc
_v1 as
dataproc
job_clie
浏览 18
提问于2022-01-19
得票数 2
回答已采纳
1
回答
GCP Composer 2(气流2)数据proc操作符-将包传递给PYSPARK_JOB
、
、
、
、
我正在
使用
GCP Composer2来调度pyspark (结构化流)作业,pyspark代码读/写到Kafka。DAG
使用
操作符- DataprocCreateClusterOperator (创建一个GKE集群)、DataprocSubmitJobOperator (运行吡火花作业)、
使用
运算符- DataprocSubmitJobOperator( project_id
浏览 29
提问于2022-06-02
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券