尽管我知道Hadoop通常不用于图像处理,但作为概念证明,我一直在尝试使用Hadoop实现图像处理。在这样做的过程中,我已经成功地实现了Sobel边缘检测算法,使用MapReduce模型并在Hadoop下运行。
我的程序应该从HDFS中获取一个文件夹作为输入,并处理该文件夹中的文件并将输出写入HDFS。但是,它正在考虑输入文件夹中的单个文件,并将单个文件作为输出。
以下是文件https://gist.github.com/ardahal/f0046e50e04fadc28a96的源代码
发布于 2013-04-25 11:26:41
这将是半自动的,但总比什么都没有好。假设您的输入目录是:/user/hadoop/inpur_dir/input_i.txt
Path pth = "/user/hadoop/inpur_dir/input_"
for(int i = 0; i < number_of_image; i++){
FileInputFormat.addInputPath(job, pth.suffix(i+".txt") );
}
和
这是multiple output。这比我之前提出的好多了
https://stackoverflow.com/questions/16212088
复制相似问题