用户登录
用户注册

分享至

spark java mapreduce

  • 作者: 张家的爱宝宝
  • 来源: 51数据库
  • 2020-10-04
不一定,如果你不用Hadoop的HDFS和YARN,完全可以在学习Spark的时候从本地载入数据,部署用standlone模式。Spark替代的是Hadoop中的MapReduce编程范式,不包括存储和资源管理模块。
Spark的算子很多,写程序来看比Hadoop MapReduce要灵活很多,而且跟写普通程序差不多,只是用了Spark的包和库而已。但需要选择一个语言,Spark用Scala或者java python等,我是现学的Scala,只不过用的时候没管那么多语法糖和简洁什么,怎么方便怎么来,不影响程序逻辑就行。
Hadoop可以看看了解了解,Hadoop MapReduce能做的Spark基本都能做,但Spark很吃内存,经常OOM。



  hdfs一定要, 然后mapreduce的思想, 主要是学习分布式的思想。
软件
前端设计
程序设计
Java相关