spark and hadoop
- 作者: saber家的呆毛储藏室2333hh
- 来源: 51数据库
- 2020-10-01
在企业中,hadoop和spark都会用的,spark出来时间较短,以前在hadoop平台上的应用还没有完全迁移过来。它们能够集成在YARN之上,在同一个集群上运行这两个框架。spark只是个计算框架,存储还是要依靠hadoop中的hdfs或hbase或其它文件系统。可以主攻spark,学的时候肯定还是要接触hadoop方面的知识,用的时候再补。
别从事大数据了,我在广州,你可以查一下招聘信息,广州大数据招聘的职位不是很多,还不如学c++,android,web开发来得实惠。附带一提,javascript,python的招聘职位也挺少的。。。
如果真对大数据感兴趣,那就先精通java,ssh,这是java web招聘的一般要求,很多招聘要求都是在此基础上再加上大数据,高并发,分布式等要求的。hadoop,memcache等属于高阶要求,我觉得你应该一步一步来,不要急于求成。。。spark听说得比较少。。。。有问题可以追问
别从事大数据了,我在广州,你可以查一下招聘信息,广州大数据招聘的职位不是很多,还不如学c++,android,web开发来得实惠。附带一提,javascript,python的招聘职位也挺少的。。。
如果真对大数据感兴趣,那就先精通java,ssh,这是java web招聘的一般要求,很多招聘要求都是在此基础上再加上大数据,高并发,分布式等要求的。hadoop,memcache等属于高阶要求,我觉得你应该一步一步来,不要急于求成。。。spark听说得比较少。。。。有问题可以追问
推荐阅读
