用户登录
用户注册

分享至

spark项目

  • 作者: 血流成呵
  • 来源: 51数据库
  • 2020-09-22
在我看来,一个完整的大数据平台应该提供离线计算、即席查询、实时计算、实时查询这几个方面的功能。 hadoop、spark、storm 无论哪一个,单独不可能完成上面的所有功能。 hadoop+spark+hive是一个很不错的选择.hadoop的HDFS毋庸置疑是分布式文件...



  在hadoop最擅长的离线数据统计分析领域,spark比hadoop也至少快了一个几何级数;spark采用一个统一的技术堆栈解决了云计算大数据的如流处理、图技术、机器学习、nosql查询等方面的所有核心问题,具有完善的生态系统;spark具有hadoop无法企及的速度,而谁又能拒绝速度 呢?
软件
前端设计
程序设计
Java相关