用户登录
用户注册

分享至

hadoop 环境

  • 作者: 杨家三少XX
  • 来源: 51数据库
  • 2020-09-29
1)下载并解压hadoop-0.20.203.0.修给解压文件夹名字为hadoop-0.20.203

2)按上述所示将hadoop-0.20.203/bin路径加到PATH环境变量中
sudo gedit/etc/profile

3)修改配置文件,配置文件都在hadoop-0.20.203/conf目录下。
a.进到/hadoop-0.20.203/conf/hadoop-env.sh中,解注释JAVA_HOME
修改为:JAVA_HOME=/home/hadoop/jdk1.6
b.修改core-site.xml文件配置如下:

fs.default.name
hdfs://namenode:9000

hadoop.tmp.dir
/home/hadoop/tmp

c、修改hdfs-site.xml文件如下:

dfs.replication
2

d、修改mapred-site.xml文件如下:

mapred.job.tracker
namenode:9001

e、在masters和slave文件中分别配置主节点和各个数据节点:
masters:中写入namenode
slaves: 写入datanode1
datanode2



  1)下载并解压hadoop-0.20.203.0.修给解压文件夹名字为hadoop-0.20.203

2)按上述所示将hadoop-0.20.203/bin路径加到path环境变量中
sudo gedit/etc/profile

3)修改配置文件,配置文件都在hadoop-0.20.203/conf目录下。
a.进到/hadoop-0.20.203/conf/hadoop-env.sh中,解注释java_home
修改为:java_home=/home/hadoop/jdk1.6
b.修改core-site.xml文件配置如下:





fs.default.name
hdfs://namenode:9000


hadoop.tmp.dir
/home/hadoop/tmp


c、修改hdfs-site.xml文件如下:





dfs.replication
2


d、修改mapred-site.xml文件如下:





mapred.job.tracker
namenode:9001


e、在masters和slave文件中分别配置主节点和各个数据节点:
masters:中写入namenode
slaves: 写入datanode1
datanode2
软件
前端设计
程序设计
Java相关