用户登录
用户注册

分享至

hadoop版本选择

  • 作者: 帅的一塌糊涂丫
  • 来源: 51数据库
  • 2020-10-01
ambari或者apache的吧



  目前为止,作为半只脚迈进hadoop大门的人,我建议大家还是选择hadoop 1.x用。可能很多人会说,hadoop都出到2.4,为啥还用1.x呢,说这话一听就没玩过hadoop。

理由一: hadoop 1.x和2.x是完全两个不同的东西,并不是像说单机的webserver从1.0升级到2.0那么简单的事情。也不是说我现在用的mysql 5.0,只要编译一个新版本就直接无缝迁移到5.5的事情。hadoop从1.0过度到2.0是整个架构体系全部推翻重写的。从实现方式到用户接口完全是两个完全不同的东西,不要简单的认为那不过就像nginx从0.8升级到1.4一样。所以我给的建议是,生产环境用1.x,实验环境部署2.x作为熟悉使用。

理由二: 依然是,hadoop不是webserver,分布式系统尽管hadoop实现出来了,但是他仍然是非常复杂的一套体系,单说hdfs存储,以前hadoop 0.20.2想升级到0.20.203,首先你需要在所有节点部署上新版的hadoop,然后停止整个集群的所有服务,做好元数据备份,然后做hdfs升级,还不能保证hdfs一定能升级成功。这样升级一次的代价是很大的,停服务不说,万一升级不成功能不能保证元数据完整无误都是不可预知的。远比你想象的麻烦的多得多得多。千万不要以为有了tdh manager或者其他管理软件你就真的可以自动化运维了,部署hadoop只是万里长征的第一步而已。

理由三: hadoop 2.x目前很不稳定,bug比较多,更新迭代速度太快,如果你想选择2.x,想清楚再做决定,这玩意不是说你选择新的版本就万无一失了,openssl多少年了,还出现了心脏滴血的漏洞,何况刚出来才不到一年的hadoop2,要知道,hadoop升级到1.0用了差不多7,8年的时间,而且经过了无数大公司包括yahoo,facebook,bat这样的公司不停的更新,修补,才稳定下来。hadoop2才出现不到一年,根本没有经过长期稳定的测试和运行,看最近hadoop从2.3升级到2.4只用了一个半月,就修复了400多个bug。
软件
前端设计
程序设计
Java相关