用户登录
用户注册

分享至

spark python

  • 作者: 胆小瘾大脾气差
  • 来源: 51数据库
  • 2020-09-27
这完全没有可比性。
spark可以处理弹性分布式数据,可以跟hadoop媲美。

而python是做数据分析,对于超大数据量是无能为力的。



  使用spark,scala不是必须的,spark有java、python、r的api。
但是要想深入学习,还是建议学习scala的。
如果你会scala,spark都不用怎么学。因为一般的scala程序就是这么写的,用spark的区别就是换了一套api而已.
软件
前端设计
程序设计
Java相关