欢迎投稿

今日深度:

linux环境下,集群中Hadoop版本更换,linuxhadoop

linux环境下,集群中Hadoop版本更换,linuxhadoop


1.下载新版本的hadoop

https://archive.apache.org/dist/hadoop/common/

这里有各种版本的hadoop

wget .....

tar -xzf .....

将新版本的Hadoop解压在/usr/local/hadoop目录下


2.修改配置

vi $HOME/.bashrc

export HADOOP_HOME

source $HOME/.bashrc

vi hadoop-env.sh

vi core-site.xml

vi hdfs-site.xml

vi mapred-site.xml

vi slaves


3.复制到其它节点

scp -r local_folder remote_username@remote_ip:remote_folder

vi $HOME/.bashrc

export HADOOP_HOME

source $HOME/.bashrc


4.启动服务

$ bin/hdfs namenode -format

$ sbin/start-dfs.sh

$ sbin/start-all.sh

JPS

看到和之前一样的结果就是更换成功了

www.htsjk.Com true http://www.htsjk.com/Hadoop/31639.html NewsArticle linux环境下,集群中Hadoop版本更换,linuxhadoop 1.下载新版本的hadoop https://archive.apache.org/dist/hadoop/common/ 这里有各种版本的hadoop wget ..... tar -xzf ..... 将新版本的Hadoop解压在 /usr/local/hadoop目录...
相关文章
    暂无相关文章
评论暂时关闭