我想知道hadoop是按顺序还是并行地创建这些InputSplits。我的意思是,它是按顺序读取单个主机上的大型文本文件,然后创建拆分的文件,然后分发给datanodes,还是并行读取块(例如50 in )?hadoop是否在多个主机上复制大文件,然后再将其拆分?对于映射器任务的适当拆分大小存在许多问题,但并不是精确的拆分过程本身。
谢谢
我在Oracle数据库里有一个字符串,我的字符串是:'bbb;aaa;qqq;ccc‘select distinct trim(regexp_substr('bbb;) ) as q connect by regexp_substr('bbb;aaa;qqq;ccc', '[^;]+', 1, level) is not null ;bbbqqq因为subSt