在HDFS(Hadoop分布式文件系统)中,NameNode和DataNode是两个关键组件,扮演着不同的角色。
下面是一个简单的示例代码,演示了NameNode和DataNode在HDFS中的作用:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HdfsExample {
public static void main(String[] args) throws Exception {
// 创建Hadoop配置对象
Configuration conf = new Configuration();
// 创建文件系统对象
FileSystem fs = FileSystem.get(conf);
// 在HDFS上创建一个目录
Path dirPath = new Path("/user/mydir");
fs.mkdirs(dirPath);
// 在HDFS上创建一个文件,并写入数据
Path filePath = new Path("/user/myfile.txt");
FSDataOutputStream outputStream = fs.create(filePath);
outputStream.writeBytes("Hello, HDFS!");
outputStream.close();
// 从HDFS上读取文件内容
FSDataInputStream inputStream = fs.open(filePath);
byte[] buffer = new byte[1024];
int bytesRead = inputStream.read(buffer);
String content = new String(buffer, 0, bytesRead);
inputStream.close();
System.out.println("File content: " + content);
// 删除HDFS上的文件和目录
fs.delete(filePath, false);
fs.delete(dirPath, true);
// 关闭文件系统对象
fs.close();
}
}
在上述示例中,我们使用Java代码通过Hadoop的API来操作HDFS。首先,我们创建了一个Configuration对象,用于指定Hadoop集群的配置信息。然后,我们通过FileSystem.get()方法获取一个FileSystem对象,该对象表示与HDFS的连接。
接下来,我们使用FileSystem对象来创建一个目录(mkdirs()方法)和一个文件(create()方法),并向文件中写入数据。然后,我们使用open()方法打开文件,并读取其中的数据。最后,我们使用delete()方法删除文件和目录。
在这个过程中,NameNode负责处理创建目录、创建文件、删除文件和删除目录等操作的请求,并维护文件系统的元数据。DataNode负责存储文件的实际数据块,并执行数据块的复制和删除操作。通过这种方式,HDFS实现了高可靠性、高容错性和高可扩展性的分布式文件系统。