前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Win10 IDEA连接虚拟机中的Hadoop(HDFS)

Win10 IDEA连接虚拟机中的Hadoop(HDFS)

作者头像
超级小的大杯柠檬水
发布2024-11-21 12:42:12
发布2024-11-21 12:42:12
12000
代码可运行
举报
文章被收录于专栏:CYCY
运行总次数:0
代码可运行

获取虚拟机的ip

虚拟机终端输入

代码语言:javascript
代码运行次数:0
运行
复制
ip a

关闭虚拟机防火墙

代码语言:javascript
代码运行次数:0
运行
复制
sudo ufw disable

修改Hadoop的core-site.xml文件

localhost修改为虚拟机局域网IP

代码语言:javascript
代码运行次数:0
运行
复制
# 位置可能不一样,和Hadoop安装位置有关
cd /usr/local/hadoop/etc/hadoop
vim core-site.xml

重启Hadoop

代码语言:javascript
代码运行次数:0
运行
复制
cd /usr/local/hadoop/ #目录可能不一样,修改成自己的目录
./sbin/stop-dfs.sh # 关闭hadoop
./sbin/start-dfs.sh #启动hadoop
jps # 判断是否启动成功

IDEA 连接

创建Maven项目

IDEA自带Maven,如果需要自己安装Maven可以参考Maven安装教程 创建项目,选择Maven,模板选择第一个maven-archetype-archetype

添加依赖(pom.xml)

记得修改自己hadoop的版本,我的是3.3.5 设置好后Reload一下

代码语言:javascript
代码运行次数:0
运行
复制
  <properties>
    <hadoop.version>3.3.5</hadoop.version>
  </properties>
  <dependencies>
    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-common</artifactId>
      <version>${hadoop.version}</version>
    </dependency>

    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-hdfs</artifactId>
      <version>${hadoop.version}</version>
    </dependency>

    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-client</artifactId>
      <version>${hadoop.version}</version>
    </dependency>
  </dependencies>

设置好后Reload一下 ,然后等下载好

创建Java文件并运行

出现错误请先检查Hadoop是否重启

代码语言:javascript
代码运行次数:0
运行
复制
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;

import java.io.IOException;

public class Test01 {
    public static void main(String[] args) throws IOException {
        Configuration conf = new Configuration();
        //  设置用户名(一定要,不然默认用户名是win的用户名)
        System.setProperty("HADOOP_USER_NAME","hadoop");
        // 	IP地址修改成虚拟机的ip
        conf.set("fs.defaultFS","hdfs://192.168.111.131:9000");
        conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
        FileSystem fs = FileSystem.get(conf);

        RemoteIterator<LocatedFileStatus> files = fs.listFiles(new Path("/"), true);
        while (files.hasNext()) {
            FileStatus fileStatus = files.next();
            System.out.println(fileStatus.getPath().toString());
        }
        fs.close(); //关闭hdfs
    }
}

端口转发

完成到这里已经可以用啦,不过可能不太方便 可以设置将win10的端口转发 实现在代码中直接访问localhost 创建test.bat文件后输入以下代码 将IP修改成虚拟机的IP 双击运行

代码语言:javascript
代码运行次数:0
运行
复制
@REM 设置IP
SET BigDataLANIP=192.168.111.131 


@REM 设置命令以管理员身份运行
%1 start "" mshta vbscript:CreateObject("Shell.Application").ShellExecute("cmd.exe","/c %~s0 ::","","runas",1)(window.close)&&exit
@REM  清空所有转发规则
netsh interface portproxy reset


@REM 转发9000
netsh interface portproxy add v4tov4 listenport=9000 connectport=9000 connectaddress=%BigDataLANIP%
@REM 转发9870(HDFS的web管理界面)
netsh interface portproxy add v4tov4 listenport=9870 connectport=9870 connectaddress=%BigDataLANIP%
echo "succeed"
timeout /t 5 /nobreak >nul

简单使用

代码语言:javascript
代码运行次数:0
运行
复制
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;


import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;


public class Test02 {
    public static void main(String[] args) throws IOException {
        Configuration conf = new Configuration();
//        设置用户名(一定要,不然默认用户名是win的用户名)
        System.setProperty("HADOOP_USER_NAME","hadoop");
        conf.set("fs.defaultFS","hdfs://localhost:9000");
        conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
//        列出根目录下的所有文件和文件夹
        FileSystem fs = FileSystem.get(conf);
        Path file = new Path("/");
        FileStatus[] fileStatuses = fs.listStatus(file);
        for (FileStatus fileStatus : fileStatuses){
            System.out.println(fileStatus.getPath());
        }
//        创建一个新的文件 test.txt 在HDFS的 /user/hadoop/test 目录下(如果目录不存在,则先创建目录)。
        Path dirPath = new Path("/user/hadoop/test");
        if(!fs.exists(dirPath)){
            fs.mkdirs(dirPath);
        }
        Path remotePath = new Path("/user/hadoop/test/test.txt");
        FSDataOutputStream outputStream = fs.create(remotePath);
        outputStream.close();
//        向 test.txt 文件中写入一段指定的文本内容(如“Hello, HDFS!”)。
        FSDataOutputStream outputStream2 = fs.create(remotePath);
        String s = "Hello, HDFS!";
        outputStream2.write(s.getBytes());
        outputStream2.close();
//       读取 test.txt 文件的内容,并打印到控制台。
        FSDataInputStream inputStream = fs.open(remotePath);
        BufferedReader d = new BufferedReader(new InputStreamReader(inputStream));
        String line = null;
        while ((line = d.readLine()) != null)
            System.out.println(line);
//      关闭与HDFS的连接。
        fs.close();
    }
}
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-10-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 获取虚拟机的ip
  • 关闭虚拟机防火墙
  • 修改Hadoop的core-site.xml文件
  • 重启Hadoop
  • IDEA 连接
    • 创建Maven项目
    • 添加依赖(pom.xml)
    • 创建Java文件并运行
  • 端口转发
  • 简单使用
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档