小编根据自己目前对大数据的学习,将学习线路先做一个初步的总结,总结中的内容不是很完善,大家可以提出建议,我们一起完善学习路线,便于我们后续的一起学习和交流。
第一阶段:Linux和Hadoop生态系统的学习
1.Linux基础
2.Hadoop生态系统
1)认识Hadoop的体系结构
a.分布式存储(HDFS)
b.Yarn:分布式计算(MapReduce)
c.HBase的体系结构
2)Hadoop环境的搭建
a.本地模式搭建
b.伪分布式模式搭建
c.全分布式模式搭建
3.Hadoop深入学习
1)HDFS运行原理
2)MapReduce分布式计算
第二阶段:Storm实时计算处理
第三阶段:Spark内存计算处理
小编目前还在学习第一个阶段,所以对第一阶段的学习内容做了一个基本的罗列,如果大家对这块有好的分享,可以与小编联系,小编会尽力完善,后续也会同步完善这个学习线路,并细化每个线路的内部内容。
领取专属 10元无门槛券
私享最新 技术干货