首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Hadoop cosn工具执行mapreduce报错yarn找不到CosFileSystem类?

Hadoop cosn工具执行mapreduce报错yarn找不到CosFileSystem类?

提问于 2019-02-15 02:25:57
回答 1关注 0查看 1.8K

Hadoop cosn工具执行mapreduce报错yarn找不到CosFileSystem类?

执行:hadoop fs -ls cosn//path/ 正常显示cos中的文件目录

执行如下的示例wordcount报错:

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount cosn://example/input cosn://example/output

错误详情:

代码语言:javascript
运行
AI代码解释
复制
2019-02-15 10:15:28,562 INFO [main] org.apache.hadoop.mapreduce.v2.app.MRAppMaster: Created MRAppMaster for application appattempt_1547445203841_0197_000002
2019-02-15 10:15:28,818 INFO [main] org.apache.hadoop.mapreduce.v2.app.MRAppMaster: Executing with tokens:
2019-02-15 10:15:28,819 INFO [main] org.apache.hadoop.mapreduce.v2.app.MRAppMaster: Kind: YARN_AM_RM_TOKEN, Service: , Ident: (appAttemptId { application_id { id: 197 cluster_timestamp: 1547445203841 } attemptId: 2 } keyId: 675637667)
2019-02-15 10:15:29,069 INFO [main] org.apache.hadoop.mapreduce.v2.app.MRAppMaster: Using mapred newApiCommitter.
2019-02-15 10:15:29,070 INFO [main] org.apache.hadoop.mapreduce.v2.app.MRAppMaster: OutputCommitter set in config null
2019-02-15 10:15:29,115 INFO [main] org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter: File Output Committer Algorithm version is 1
2019-02-15 10:15:29,173 INFO [main] org.apache.hadoop.service.AbstractService: Service org.apache.hadoop.mapreduce.v2.app.MRAppMaster failed in state INITED; cause: org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.CosFileSystem not found
org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.CosFileSystem not found
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster$2.call(MRAppMaster.java:518)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster$2.call(MRAppMaster.java:498)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster.callWithJobClassLoader(MRAppMaster.java:1593)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster.createOutputCommitter(MRAppMaster.java:498)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster.serviceInit(MRAppMaster.java:284)
	at org.apache.hadoop.service.AbstractService.init(AbstractService.java:163)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster$5.run(MRAppMaster.java:1551)
	at java.security.AccessController.doPrivileged(Native Method)
	at javax.security.auth.Subject.doAs(Subject.java:422)
	at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1758)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster.initAndStartAppMaster(MRAppMaster.java:1548)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster.main(MRAppMaster.java:1481)
Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.CosFileSystem not found
	at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2267)
	at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2652)
	at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2665)
	at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:93)
	at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2701)
	at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2683)
	at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:372)
	at org.apache.hadoop.fs.Path.getFileSystem(Path.java:295)
	at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.<init>(FileOutputCommitter.java:113)
	at org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter.<init>(FileOutputCommitter.java:88)
	at org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.getOutputCommitter(FileOutputFormat.java:309)
	at org.apache.hadoop.mapreduce.v2.app.MRAppMaster$2.call(MRAppMaster.java:516)
	... 11 more
Caused by: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.CosFileSystem not found
	at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2171)
	at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2265)
	... 22 more

回答 1

jasper

提问者

发布于 2019-02-15 03:05:55

已解决:需要在$HADOOP_HOME/etc/hadoop/mapred-site.xml中添加如下配置:

<property>

<name>mapreduce.application.classpath</name>

<value>

$HADOOP_HOME/etc/hadoop,

$HADOOP_HOME/share/hadoop/common/*,

$HADOOP_HOME/share/hadoop/common/lib/*,

$HADOOP_HOME/share/hadoop/hdfs/*,

$HADOOP_HOME/share/hadoop/hdfs/lib/*,

$HADOOP_HOME/share/hadoop/mapreduce/*,

$HADOOP_HOME/share/hadoop/mapreduce/lib/*,

$HADOOP_HOME/share/hadoop/yarn/*,

$HADOOP_HOME/share/hadoop/yarn/lib/*,

$HADOOP_HOME/share/hadoop/tools/lib/*

</value>

</property>

$HADOOP_HOME/share/hadoop/tools/lib/* 目录下需要添加cos相关报名:如:

cos_hadoop_api-5.2.6.jar 和 hadoop-cos-2.X.X.jar

腾讯云的文档真的是写的粗糙。

和开发者交流更多问题细节吧,去 写回答
相关文章
基于腾讯云对象存储跑hadoop任务实战一
公司在腾讯云有一个大数据集群,用hdp的ambari部署管理的,hdp面有hadoop、hive、spark等常用的大数据组件,公司的报表都从这里生成。
用户1311276
2019/02/22
2.4K4
COS助力HADOOP轻松实现数据存储
1.2 如何在hadoop集群上实现简单的数据处理,通过 wordcount 实现测试。
Hunter
2020/03/01
2K0
Hadoop 文件系统与 COS 之间的数据迁移
Hadoop Distcp(Distributed copy)主要是用于 Hadoop 文件系统内部或之间进行大规模数据复制的工具,它基于 Map/Reduce 实现文件分发、错误处理以及最终的报告生成。由于利用了 Map/Reduce 的并行处理能力,每个 Map 任务负责完成源路径中部分文件的复制,因此它可以充分利用集群资源来快速完成集群或 Hadoop 文件系统之间的大规模数据迁移。
云存储
2020/10/23
1.3K0
Hadoop 文件系统与 COS 之间的数据迁移
Hadoop2.7.6_05_mapreduce-Yarn
  Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;
踏歌行
2020/10/15
3430
Hadoop2.7.6_05_mapreduce-Yarn
Mac在Hadoop的yarn上运行mapreduce报错ExitCodeException exitCode=127:
hadoop 2.7.2 17/04/14 14:07:00 INFO mapreduce.Job: Job job_1492146520853_0005 running in uber mode : false 17/04/14 14:07:00 INFO mapreduce.Job: map 0% reduce 0% 17/04/14 14:07:00 INFO mapreduce.Job: Job job_1492146520853_0005 failed with state FAILED du
Albert陈凯
2018/04/04
1.9K0
基于腾讯云对象存储跑hadoop任务实战二
在前一篇文章中《基于腾讯云对象存储跑hadoop任务实战一》介绍了如何部署和配置hadoop集群直接分析存储在腾讯云对象存储上的数据。这篇文章介绍一些性能优化的参数调优。
用户1311276
2019/02/22
2.8K3
StarRocks支持元数据加速桶配置(S3协议)
注,本次使用腾讯云EMR的 StarRocks-V1.1.0  ,starrocks-2.2.2
王旭平
2023/01/16
1.6K0
Kettle与Hadoop(五)执行MapReduce
本示例说明如何使用Pentaho MapReduce把原始web日志解析成格式化的记录。
用户1148526
2020/06/04
5620
hadoop|计算框架从MapReduce1.0到Yarn
01 — HDFS 前面介绍了hadoop的分布式存储框架(HDFS),这个框架解决了大数据存储的问题,这是第一步。知道海量数据如何存储后,脚步不能停留,下一步要设计一个框架,用来玩(计算)这些数据时,资源(计算机集群)该如何调度,比如已知1PB的数据存储在了集群(1000台电脑组成)中的10台计算机(DataNode)中,现在要对这些数据进行Map和Reduce计算,该如何做呢? 在理解以下知识前,需要理解一些知识点。任何应用,比如打开一个word文档,打开QQ,都会占用一定的系统资源(CPU,内存,网
double
2018/04/02
1.5K0
hadoop|计算框架从MapReduce1.0到Yarn
YARN调试过程中的常见问题
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.0.jar wordcount  /user/today/input  /user/today/output
瑾诺学长
2018/09/21
1.3K0
YARN调试过程中的常见问题
【快速入门大数据】hadoop和它的hdfs、yarn、mapreduce
技术架构挑战 量大,无法用结构化数据库,关系型数据库 经典数据库没有考虑数据多类别 比如json 实时性的技术挑战 网络架构、数据中心、运维挑战
瑞新
2021/12/06
9710
【快速入门大数据】hadoop和它的hdfs、yarn、mapreduce
spark在yarn-cluster上面执行报错
在单机模式下执行成功的spark程序,在yarn上面就报错。异常信息如下: 1 14/08/14 02:05:42 INFO DAGScheduler: Completed ResultTask(2, 0) 2 14/08/14 02:05:42 INFO DAGScheduler: Stage 2 (saveAsTextFile at FileUtil.scala:114) finished in 0.179 s 3 14/08/14 02:05:42 INFO SparkContext: Job
随机来个数
2018/04/16
1.3K0
hive export报错找不到DistCpOptions类
从上述报错,浏览社区没得到任何有价值的信息。通过查看hive的源码,也没有有效的信息。因此,我们需要查看hive的详细日志。
mikealzhou
2019/03/14
2.5K0
Windows启动HDFS报错 - 系统找不到文件 hadoop。
Windows 7 环境下启动 HDFS,执行 start-dfs.cmd 出现 系统找不到文件 hadoop。报错信息如下
夹胡碰
2020/10/27
5.2K0
Windows启动HDFS报错 - 系统找不到文件 hadoop。
执行MapReduce报错:无法分配内存 (errno=12)
程序执行一个MapReduce,该MapReduce实现了自定义分区,总共分为4个分区,且在Driver端自定义设置reducer端num个数为4
WHYBIGDATA
2023/01/31
1.7K0
执行MapReduce报错:无法分配内存 (errno=12)
Hadoop - MapReduce
作者:tutorialspoint 译者:java达人 来源:https://www.tutorialspoint.com/hadoop/hadoop_mapreduce.htm(点击文末阅读原文前往
java达人
2018/01/31
1K0
Hadoop - MapReduce
hadoop-3.2.0------>入门六 伪分布式 YARN运行MapReduce
2、配置yarn-env.sh(命令:vi etc/hadoop/yarn-env.sh)
用户5899361
2020/12/07
8230
hadoop-3.2.0------>入门六 伪分布式 YARN运行MapReduce
GooseFS透明加速能力,助力加速 CosN 访问 COS 的性能
原生的对象存储接口协议并不兼容HDFS文件语义,因此对象存储COS提供了COSN工具这一的标准的 Hadoop 文件系统实现,可以为 Hadoop、Spark 以及 Tez 等大数据计算框架集成 COS 提供支持。
云存储
2021/08/11
4280
Kylin配置Spark并构建Cube
在运行 Spark cubing 前,建议查看一下这些配置并根据集群的情况进行自定义。下面是建议配置,开启了 Spark 动态资源分配:
create17
2019/08/29
1.3K0
Kylin配置Spark并构建Cube
hadoop中yarn启动无报错,jps无nodemanager进程
2、修改yarn-site.xml的shuffle为mapreduce_shuffle
用户14527
2021/09/19
7.5K0
hadoop中yarn启动无报错,jps无nodemanager进程

相似问题

yarn启动安装部分命令报错?

04.7K

hadoop cosn工具不改变原来的fs.defaultFS配置即同时可以访问hdfs和cos?

11.4K

执行迁移报错?

018

scf报错执行函数后报错?

1317

执行namenode format 报错?

2616
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
相关问答用户
新浪微博 | 高级总监擅长4个领域
到家集团 | 技术VP擅长5个领域
擅长5个领域
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档