腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
读取
超时
Httpfs
HDFS
、
、
、
我使用Kubernetes中的
httpfs
设置来设置对
HDFS
的访问,因为我需要访问
HDFS
数据节点,而不仅仅是name节点上的元数据。我可以通过telnet使用Node端口服务连接到
HDFS
,但是,当我尝试从
HDFS
获取一些信息时-
读取
文件,检查文件是否存在,我得到一个错误: [info] java.net.SocketTimeoutException
HDFS
Kubernetes设置如下所示: apiVersion: v1metad
浏览 27
提问于2019-04-20
得票数 5
回答已采纳
2
回答
使用Webhdfs/
httpfs
火花
、
我想通过
httpfs
或Webhdfs将一个文件从
HDFS
读入Spark。有关的东西 sc.textFile("
httpfs
://myhost:14000/webhdfs/v1/path/to/file.txt&qu
浏览 0
提问于2014-12-08
得票数 2
3
回答
无法使用项的列表(数组)
读取
自定义事实
、
"config": { }, "name": "
hdfs
-
HTTPFS
-BASE", "roleType": "
HTTP
浏览 0
提问于2016-10-27
得票数 5
回答已采纳
1
回答
与maven + ant拒绝连接:
、
突然之间,一切都很好:[ERROR] -> [Help 1]
浏览 0
提问于2014-07-04
得票数 4
1
回答
webhdfs://和
hdfs
://在底层协议方面有区别吗?
、
、
现在我正在通过
HttpFS
摄取日志,它在巨大的体积下分崩离析。由于性能原因,我不能在我的边缘运行JVM。因此,我正在考虑使用原生协议来摄取(我听说它要么是IPC,要么是原始网络套接字魔术)hadoop fs -put本地文件-fs webhdfs://datanode:14000/hadoopfilehadoop fs -put本地文件
hdfs
://名称节点/hadoopfile
浏览 3
提问于2013-07-02
得票数 0
1
回答
方案没有FileSystem : webhdfs
、
、
、
我正在构建一个客户端,它将一些数据插入到我的
HDFS
中。因为
HDFS
位于防火墙后面的集群中,所以我使用
HttpFS
作为代理来访问它。当我试图
读取
/写入
HDFS
时,客户机将使用IOException退出。消息是No FileSystem for scheme: webhdfs。hdfsURI = "webhdfs://myhttpfshost:14000/"; Configuration configuration = new Configurat
浏览 1
提问于2014-02-06
得票数 2
回答已采纳
1
回答
状态待机不支持
httpfs
错误操作类别
读取
、
、
我已经安装了
httpfs
,当然是在重新启动所有服务之后启动它。所以这里
httpfs
应该可以工作,即使nn1成为备用,但是现在发送相同的请求。 http://nn1:14000/webhdfs/v1/aloosh/oula.txt?state standby","exception":"RemoteException","javaClassName":"org.apache.hadoop.ipc.RemoteExcepti
浏览 4
提问于2017-04-11
得票数 10
回答已采纳
1
回答
HDFS
web界面替代方案
、
、
、
我正在努力寻找合适的替代方案来替代基本的
HDFS
web界面。我尝试过hadoop eclipse插件,但它似乎已经过时了,正确设置它是一件痛苦的事情!有没有人能告诉我
HDFS
web界面的替代方案,我可以通过GUI轻松地下载和上传文件到
HDFS
?附注:我在本地运行所有的东西,不,集群参与。我尝试了很多,但似乎没有任何东西指向正确的方向
浏览 0
提问于2013-03-23
得票数 1
3
回答
列出没有pydoop的
HDFS
Python中的所有文件
、
我有一个hadoop集群运行在centos 6.5上。我目前正在使用python2.6。由于不相关的原因,我无法升级到python2.7。由于这个不幸的事实,我无法安装pydoop。在hadoop集群中,我有大量的原始数据文件,名为raw“全年时间小时”.txt,括号中的所有内容都是一个数字。是否有一种方法可以将python?中的hadoop目录中的所有文件都列出来,这样程序就会创建一个类似的列表。这将使我需要做的一切变得更容易,
浏览 8
提问于2016-04-02
得票数 1
3
回答
HADOOP
HTTPFS
:通过Http访问应用程序时出现错误"User: ubuntu is not allowed to impersonate ubuntu“
、
、
、
、
我已经在我的集群上安装了hadoop1.0.4,包括1主3从,现在我正在安装
HTTPFS
(hadoop-
hdfs
-
httpfs
-0.20.2-cdh3u5-SNAPSHOT)来使用http协议访问
HDFS
我可以通过它访问正常的页面它的工作正常:)curl -i "
浏览 2
提问于2013-03-12
得票数 4
回答已采纳
1
回答
在Windows 7上构建Hadoop
、
、
- project\hadoop-
hdfs
-
httpfs
\downloads\tomcat.tar.gz [exec] tar (child): C\:hadoophadoop-
hdfs
-projecthadoop-
hdfs
-
httpfs
SUCCESS [ 35.
浏览 3
提问于2014-05-19
得票数 4
1
回答
HDFS
-接收器连接器:方案没有FileSystem : http
、
、
、
我正在使用confluent的文档,但是当我添加一个
hdfs
-sink连接器时,我得到了这个错误: Caused by: java.io.IOException: No FileSystem for scheme
浏览 0
提问于2018-07-03
得票数 0
1
回答
如何填充Cygnus.conf
、
=
hdfs
-channelcygnusagent.sinks.
hdfs
-sink.type = es.tid.fiware.fiwareconnectors.cygnus.sinks.OrionHDFSSink.y1.z1.w1,x2.y2.z2.w2 ###port of the Cosmos service listening for persistence operations; 14000 for
httpfs
username allowed to writ
浏览 1
提问于2014-11-26
得票数 1
1
回答
Fiware - Cygnus to Cosmos,我不能将数据上传到
HDFS
、
、
= 130.206.80.46cygnusagent.sinks.
hdfs
-sink.cosmos_default_username = myUsername#
HDFS
backend type (webhdfs,
httpfs
or infinity
浏览 2
提问于2015-02-03
得票数 4
回答已采纳
2
回答
如何在Linux上找到HADOOP_HOME路径?
、
//*:/usr/lib/hadoop-
hdfs
/./:/usr/lib/hadoop-
hdfs
/lib/*:/usr/lib/hadoop-
hdfs
/.
浏览 0
提问于2015-02-04
得票数 9
回答已采纳
1
回答
何时将数据移动到
HDFS
/Hive?
、
、
我的服务节点和数据节点与webapp分离,所以我使用
HttpFS
与Hadoop进行通信。因此,每当在我的应用程序中生成新的数据行时,我是否应该已经调用相应的
HttpFS
URL来将数据附加到
HDFS
文件中?我是否应该将这些数据写入for服务器中的文件中,并使用cronjob将其上传到
HDFS
,例如每小时一次?我是应该更新Hive表,还是应该在需要查询数据时将数据加载到其中?
浏览 0
提问于2015-10-05
得票数 0
回答已采纳
2
回答
如何为
HDFS
( Hadoop分布式文件系统)开发代理
、
、
、
、
我正在做一个研究项目,我需要为
HDFS
创建某种类型的代理,这样我们就可以捕获对
HDFS
的调用,并在将其返回给用户之前应用一些访问/拒绝(文件)策略。对于
HttpFs
和WebHDFS这样的
HDFS
接口,很容易设计代理系统,因为它们使用HTTP与客户端通信。但
HDFS
驱动程序使用协议缓冲区定义的协议在客户端和namenode之间进行通信。在
HDFS
代码中是否有任何钩子来围绕
HDFS
原生协议设计代理。这方面的Hadoop版本是2.6。
浏览 4
提问于2015-02-10
得票数 1
3
回答
将文件从FTP复制到
HDFS
、
我需要将文件从集群外部的FTP服务器复制到Hadoop,即
HDFS
。 提前谢谢。
浏览 5
提问于2014-03-25
得票数 4
6
回答
将数据写入Hadoop
、
我需要从外部源(如windows box )将数据写入Hadoop (
HDFS
)。现在,我一直在将数据复制到namenode,并使用
HDFS
的put命令将其摄取到集群中。我希望有人能告诉我,我错了,有一种简单的方法可以针对
HDFS
编写外部客户端代码。
浏览 84
提问于2009-10-07
得票数 18
回答已采纳
1
回答
如何使用webhdfs rest api复制文件并将其存储在另一个目录中?
、
如何使用
httpfs
将文件复制到
hdfs
中的另一个目录。例如,我可以使用()创建一个文件。我在中找不到
浏览 8
提问于2016-09-08
得票数 0
点击加载更多
相关
资讯
如何在Hue中配置已启用SSL的HttpFS服务
如何为HttpFS服务配置SSL
day07.HDFS学习大数据教程
从入门到精通-Fayson带你玩转CDH
Kylin 在贝壳的性能挑战和 HBase 优化实践
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券